文档
博客
论坛
学院
解决方案
合作伙伴
欢迎来到地平线开发者社区!
先搜索再发帖,减少重复提问;有问必答,同行共赴成长
筛选
技术方向
算法工具链
底层软件
其他
规控
文章类别
技术深度解析
社区活动
官方公告
DSP
芯片类型
征程5
征程6
征程3
征程2
最新
热门
板端如何查看板子型号?
已解决
.有没有啥指令能知道板子是e还是m的?-------------------------------------------------.
默认47328
算法工具链
征程6
25
0
0
2025-11-25
2025-11-25
25
0
0
寻找资料:系统状态机集成指导手册
Mono3 系统状态机集成指导手册 V.1.3.0 - 地平线开发者社区.请问 Mono3 系统状态机集成指导手册 V.1.3.0 - 地平线开发者社区 这个附件里没有文档呀,在哪里找呢
卡比
算法工具链
技术深度解析
14
0
0
2025-11-25
2025-11-25
14
0
0
模型多输入头,输入数据准备
已解决
.请问J6给onnx模型增加nv12转rgb的这个功能,支持5维多图像的输入吗,比如1x7x3x256x704,如果不支持除了在外部做预处理外,还有什么推荐的方式吗,比如拆分成7个1x3xx256x704的图像进行输入.. .......在配置文件中发现这个功能好像只支持单输入的模型,请问如何处理呢.. .
luna
算法工具链
征程6
77
0
0
2025-11-24
2025-11-24
77
0
0
模型训练测试验证以及板端推理时候数据类型相关问题
已解决
....................模型在训练测试验证的时候,看图像增强都是yuv444,跟板端420有区别这个对推理有什么影响?............. ... ............
luna
算法工具链
征程6
18
0
0
2025-11-24
2025-11-24
18
0
0
raw图数据末尾的2A信息解释
已解决
我用tuning_bin Dump一张raw,用7yuv工具查看raw图末尾的2A信息,如下:..FF01 FFFF开头表示AE信息。FF02 FFFF开头表示AWB信息。.AE信息部分从左到右寄存器值各表示什么意思呢?
自由悍将
底层软件
征程6
29
0
0
2025-11-21
2025-11-21
29
0
0
CenterPoint检测模型训练报错
芯片型号:J6 天工开物开发包 OpenExplorer 版本:3.5.0 天工开物开发包 docker镜像名称:openexplorer/ai_toolchain_ubuntu_22_j6_gpu:v3.5.0 复现OE文档中Centerpoint模型训练过程,根据OE文档-进阶内容-Horizon Torch Samples-示例说明-Centerpoint检测模型训练 执行命令.python
Mercury
算法工具链
征程6
164
0
0
2025-11-21
2025-11-21
164
0
0
AE info单帧 和AE info多帧 回灌不一致问题
已解决
刚遇到一个问题:AE info单帧回灌和AE info多帧回灌的效果有差异,都是使用同一个so。表现如下:.单帧回灌..多帧回灌..为什么会有这样的差异?
自由悍将
底层软件
征程6
43
0
0
2025-11-20
2025-11-20
43
0
0
bin模型在J5上推理,报出段错误
已解决
**芯片型号**:地平线J5....**算法工具链**:horizon_j5_open_explorer_v1.1.7....**问题描述**:我将GCN模型由onnx转成了bin模型,为了快速验证,将尽可能多的算子部署在了CPU上。模型转换的中间产物`**_quantized_model.onnx`和原模型的推理精度类似,也可以正常推理。但是bin模型部署到J5上时,用相同的input数据推理,
默认78784
算法工具链
征程5
技术深度解析
35
0
0
2025-11-20
2025-11-20
35
0
0
horizon_plugin_pytorch库使用时报错
已解决
horizon_plugin_pytorch库使用时报错.RuntimeError: fail to load libhorizon_ops, origin msg is /.../horizon_plugin_pytorch/libhorizon_ops.so: undefined symbol: _ZNK5torch8autograd4Node4nameB5cxx11Ev这是什么原因报错
cbeibieq
算法工具链
征程6
33
0
0
2025-11-20
2025-11-20
33
0
0
npu 算子 Trilu ,前后都是多层卷积的情况下,为啥在cpu上运行呢
已解决
npu 算子 Trilu ,前后都是多层卷积的情况下,为啥在cpu上运行呢 , 这个算子在npu上运行 有什么约束吗
默认01472
算法工具链
征程6
77
0
0
2025-11-18
2025-11-18
77
0
0
centerpoint适配kitti数据集,生成hbm文件后报HBDK hbm perf FAIL
已解决
在自己电脑上用docker(基于J6M)进行centerpoint模型适配kitti数据集,生成hbm、compile_hbir.bc文件后报HBDK hbm perf FAIL的错误.报错内容如下:
Robin。
算法工具链
征程6
34
0
0
2025-11-17
2025-11-17
34
0
0
J5转换Bevfusion失败
已解决
.芯片型号:征程5.OE包版本:v1.1.77.问题描述:尝试转换J6官方Bevfusion示例,已基于J5平台进行的一定的适配和修改,可成功生成model.hbir,没有生成model.hbm模型,报错信息如下,返回错误代码 -6.
永远期待
算法工具链
征程5
86
0
0
2025-11-17
2025-11-17
86
0
0
J5平台 PYM宽高限制必须为偶数
已解决
我使用J5平台接入一个MIPI类型的激光雷达,激光雷达的分辨率是2688x193(width x height)数据格式是RAW12 通过MIPI0 接入,最大分辨率是2688x193 ,最小分辨率是32x193.我在配置完之后初始化报错,[PYM]:[pym_src_input_info_check_part][11287]Wrong src input size, w(2688) and h(
松言
底层软件
征程5
33
0
0
2025-11-15
2025-11-15
33
0
0
QAT模型加载训练输出为0
已解决
.环境:. oe 3.5.0..问题1:自研模型qat训练相关的问题. QAT 模型加载后推理输出全 0 且效果异常的问题。.描述:. . 紫色线是qat训练时候的指标,灰色那个是浮点训练时候的指标在load_state_dict时候,它报了一堆“”Missing key(s) in state_dict:“”,然后我设置成了“”qat_model.l
浮浮浮
算法工具链
征程6
43
0
0
2025-11-14
2025-11-14
43
0
0
oe 中qcnet 在qat训练是loss为nan
已解决
j6m,工具链版本 oe 3.0.31版本,qcnet模型qat 训练一段时间后,loss 为nan,batchszie=32
李先生
算法工具链
技术深度解析
征程6
30
0
0
2025-11-14
2025-11-14
30
0
0
获取J6M的SDK软件包
已解决
你好:.目前我想获取J6M的软件包,进行对应的环境搭建.硬件平台:J6M.目的:搭建J6M编译开发环境,结合目前开源文档进行开发. .需求:如何获取 J6M的软件包 或者对应的 .build_docker_image.tar. 镜像
若野
底层软件
征程6
117
0
0
2025-11-13
2025-11-13
117
0
0
onnx转bin模型后,runtime无法运行,无法正确获取模型信息
已解决
芯片型号:地平线J5.算法工具链:horizon_j5_open_explorer_v1.1.7.问题描述:已经借助hb_mapper_ makerbin工具将onnx模型正确量化导出为bin文件,转换过程的部分log如下:...============.Output .------------.2025-11-12 15:59:02,415 file: model_builder.py func
默认78784
算法工具链
征程5
70
0
0
2025-11-12
2025-11-12
70
0
0
J6B 通道量化(per_channel)不生效
已解决
使用J6B 进行ptq模型转换,配置如下,但生成的hbm文件输出头还是只有一个缩放因子且很小..那里设置的不对吗?还是J6B不支持per_channel这个参数呢?..{. "model_config": {. "activation": {. "per_channel": true,. "calibration_type": "kl",. "num_bin": 1024,. "max_num_b
张元彪
算法工具链
征程6
75
0
0
2025-11-12
2025-11-12
75
0
0
J5转换Bevfusion失败
已解决
芯片型号:征程5..OE包版本:v1.1.77..问题描述:尝试转换J6官方Bevfusion示例,已基于J5平台进行的一定的适配和修改,可成功生成model.hbir,没有生成model.hbm模型,报错信息如下,返回错误代码 -6.
已解决
芯片:【j5】. .尝试在板端跑通StereoNet。使用官方提供的HBM模型,经解析发现HBM模型的输入被设置为HB_DNN_INPUT_FROM_DDR:.. .因此在板端实现的时候,需要自行进行归一化以及量化,因此我根据官方Config的预处理流程写了板端的预处理:. .官方Config:.. .我的实现(C++):.. .请问是否正确,目前来看板端推理结果异常,与主机容器内int_infe
YUANYI
算法工具链
征程5
技术深度解析
383
1
0
2025-11-12
2025-11-12
383
1
0
共2733条
<
1
...
6
7
8
...
137
>
前往
页
上一页
下一页
前往
页
发帖提问
待解清单
j3 对yolov8n-seg模型进行QAT后,板端推理后分割指标精度下降较多
图像前处理Resize3D是如何实现的
J6平台sparse4d算法量化精度损失
模型部署时报错
运行J6E DSP自定义算子失败
排行榜
TOP
1
颜值即正义
1420
TOP
2
费小财
787
TOP
3
Huanghui
768
4
五岁月下练剑
260
5
Horizon_guosheng
189
6
DR_KAN
182
7
admin
142
8
zhuqingliang
139