文档
博客
论坛
培训
学院
解决方案
合作伙伴
智能助手 · 天工
赋能地平线征程系列
开发全流程
智能助手·天工,专注于征程系列算法工具链、底层软件等技术问题解答,并支持代码生成与方案辅助设计,为开发者在技术实践中提供精准助力。
立即使用
天工
筛选
技术方向
算法工具链
底层软件
其他
规控
文章类别
技术深度解析
社区活动
官方公告
DSP
芯片类型
征程5
征程6
征程3
征程2
最新
热门
J6B中MCU可以用IAR开发吗
已解决
.***********************************************************************************.请教一下J6B中MCU可以用IAR开发和调试吗?如果可以,应该用什么版本的IAR.
YM
底层软件
征程6
53
0
0
2025-12-29
2025-12-29
53
0
0
hbrt4-run-model-nash与hrt_model_exec推理接口的区别
已解决
J6M.可以看到hrt_model_exec走的是ucp框架,hbrt4-run-model-nash是runtime模拟器,那么两者的推理结果是否具有可比性,比如hrt_model_exec的单帧latency能否和hbrt4-run-model-nash的run_bpu_node时间做对比
驰
算法工具链
征程6
42
0
0
2025-12-26
2025-12-26
42
0
0
hbVPRoiResize参数中roi有哪些限制条件?
已解决
芯片型号:J6M.问题描述:使用hbVPRoiResize函数对NV12图像进行crop和resize,执行出错,代码如下:.. int32_t resize_width = 1024;. int32_t resize_height = 480;. auto image_width_stride = ALIGN_32(resize_width);. int32_t data_size = imag
默认80992
算法工具链
征程6
96
0
0
2025-12-25
2025-12-25
96
0
0
onnx和bc模型输出结果相差极大
已解决
芯片:J6M.oe版本:3.2.0.问题背景:目前已经使用hb_compile工具完成了模型的PTQ量化,使用的fast-perf模式;使用hb_model_info验证onnx模型和bc模型输入输出的顺序、形状完全一致;使用hb_verify验证optimized_float_model.onnx和quantized.bc,二者的输出相似度相对较低,如下图所示。.但是使用HBruntime工具对
默认69600
算法工具链
征程6
120
0
0
2025-12-23
2025-12-23
120
0
0
Sparse BEV模型部署时如何预处理nv12图像数据
已解决
1. J6M.2. J6_OE_3.2.0.3. 板端部署..在板端部署sparse bev模型时,转成平台hbm模型后,yuv的输入变成了u8且不带量化的格式,此时要如何对图像进行归一化操作?.或者是说在模型中已经存在归一化节点了?如果存在,请告知一下如何查找并确认归一化节点存在,谢谢!
YU_
算法工具链
技术深度解析
征程6
75
0
1
2025-12-23
2025-12-23
75
0
1
多输入模型的部署输入问题
已解决
芯片:J6.工具链:3.2.0.模型:八输入头-目标检测模型.问题背景:目前已经得到了量化后的hbm模型,hbm模型总共有八个输入头;在进行模型量化时,已经得到了作为校准数据集的8份npy文件,对应着onnx的八个输入头;onnx模型和hbm模型的输入如下图所示。.问题描述:请问这八份npy文件能否直接作为部署时hbm模型的输入数据?如果可以的话,应该如何在部署代码中加载这些npy文件呢?目前在o
默认69600
算法工具链
征程6
82
0
0
2025-12-22
2025-12-22
82
0
0
J6M上HBM跑不动
已解决
J6M芯片,OE3.2.0的板子,运行生成的hbm时,一直卡在推理阶段,没有报错,也不中止(hbm生成时FPS5左右,且在docker成功调用).使用dmesg -w查看说是 IOMMU 相关的内存映射错误 ,perf工具也失败了怎么排查或解决问题?DNN3.7.6(4.3.3 HBRT)
默认67968
算法工具链
技术深度解析
征程6
107
0
0
2025-12-19
2025-12-19
107
0
0
J6M板端hbm运行无响应
已解决
J6M OE3.2.0环境下生成了hbm,且静态报告里面FPS 为4.71,.我部署到J6M的板子上后,板子上CPU占比看着比较低,GPU上升了后很长时间是0,一直无有效推理结果出来理论上能生成hbm和静态报告,板子上应该能跑吧?CPU和BPU占比看着也不大....
默认67968
算法工具链
技术深度解析
征程6
89
0
0
2025-12-18
2025-12-18
89
0
0
compile model 到100%没有报错,进程被杀死了
已解决
部署准备.1.芯片型号 j6m.2.编译环境j6_gpu_v3.2.0.3.显示compile_model达到100%,但是最后的hbm没有生成,然后进程被杀死.
AnnieLittleYu
算法工具链
征程6
49
0
0
2025-12-18
2025-12-18
49
0
0
10 月征文&答题活动获奖名单
..一、社区问答获奖名单...底软板块........排名...昵称...解答次数...奖品说明.....🏆...费小财...19 次...奖品池礼品自选 1 份价值 1000 元(含)以内.....🥈...csh...15 次...奖品池礼品自选 1 份价值 500 元(含)以内.....🥈...zsy...6 次...奖品池礼品自选 1 份价值 500 元(含)以内.....参与奖...
D-bot
其他
社区征文
社区活动
官方公告
88
0
0
2025-12-18
2025-12-18
88
0
0
X3 开发板上使用TROS部署自量化 YOLOv5 s模型, 遇到 BPU Core ID 错误
已解决
.bin是自己量化的双核的。 在板端部署时.ros2 launch dnn_node_example dnn_node_example.launch.py \ dnn_example_config_file:=/home/sunrise/myyolo/yolov5workconfig.json \ dnn_example_image_width:=640 \ dnn_example_image_
默认83616
算法工具链
技术深度解析
42
0
0
2025-12-18
2025-12-18
42
0
0
hb_compile对onnx模型转hbm,结果异常
已解决
. . . . . . Normal. 0. . . . 7.8 磅. 0. 2. . false. false. false. . EN-US. ZH-CN. X-NONE. . . . . . . . . . . . . . . . . . . . . . . . .
穆心2008
算法工具链
征程6
76
0
0
2025-12-16
2025-12-16
76
0
0
onnx转hbm报错,Failed to allocate memory
已解决
onnx转hbm验证的时候可以通过,但是通过量化转hbm的时候就会oom报错 配置如下:O2,.cal_batch_size为1,但是实际转的时候会有提示说usingbatch为8,然后强转为1的点. .
AnnieLittleYu
算法工具链
征程6
76
1
0
2025-12-16
2025-12-16
76
1
0
J5量化后quanti模型结果和float模型结果不一致
已解决
使用OE包1.1.77量化模型,将所有节点转成INT16,量化前的onnx模型和量化后的onnx模型,推理结果都正常。.但是一旦使用Int8量化,余弦相似度还是很高0.99左右,量化前的onnx模型结果也没有问题,量化后的onnx模型输出不正确。.地平线量化工具感觉有问题。应该如何定位具体的问题?
NINOWEN
算法工具链
征程5
56
0
0
2025-12-15
2025-12-15
56
0
0
J5上模型转成int8推理结果有问题,int16推理结果没有问题
已解决
使用OE包1.1.77量化模型,将所有节点转成INT16,量化前的onnx模型和量化后的onnx模型,推理结果都正常。.但是一旦使用Int8量化,余弦相似度还是很高0.99左右,量化前的onnx模型结果也没有问题,量化后的onnx模型输出不正确。.请问是什么问题呢?.
NINOWEN
算法工具链
征程5
64
0
0
2025-12-15
2025-12-15
64
0
0
采用原生yolo的pt模型进行迁移问题
已解决
.目的:进行yolo模型移植到j6m板子. .yolo模型是v11的,模型是个pose模型,有13个通道,1到4是box,5是置信度,剩下8个通道表示4个点。.1088的模型检测的时候,看结果剩下的12个通道都有数据输出。下面的两个yaml是我用来转换onnx->hbm的yaml. . .问题: . 用的原生的yolo的pt模型是1088*1088的,我将其转换成640*640的onnx,再转换成
浮浮浮
算法工具链
征程6
162
0
0
2025-12-15
2025-12-15
162
0
0
上板动态性能验证报错
已解决
ude create task failed! signature: native::inplacescatterND(tensor,tensor,tensor,str,bool) -> (tensor).地平线导出的hbm模型上板动态性能验证的报错,这是什么原因
cbeibieq
算法工具链
征程6
290
0
0
2025-12-11
2025-12-11
290
0
0
J6M ISP输出的yuv色域
已解决
J6M ISP输出的yuv色域是什么?sRGB或Rec.709?我看CCM矫正模块里面有相关的选择.
自由悍将
底层软件
征程6
91
0
0
2025-12-09
2025-12-09
91
0
0
基于mmdetection3D的lanesegnet公版模型在J6M上QAT部署环境不兼容问题
已解决
J6M上想要部署lanesegnet模型,下载公版模型后,放到OE环境里面,安装必要的库的时候,发现没有pytorch,且python版本为3.10,模型需要使用python3.9,以及mmdet3d和mmcv均有对应的版本,在OE环境下不兼容。尝试构建虚拟python环境和离线版本安装, 安装必要的库的时候,发现没有pytorch ,且当前环境下无python3.9,( python版本为3.1
默认67968
算法工具链
技术深度解析
征程6
339
0
0
2025-12-08
2025-12-08
339
0
0
【地平线 J6工具链进阶教程】J6 模型性能分析及优化
..该帖子为社区文章【地平线 J6工具链进阶教程】J6 模型性能分析及优化 - 地平线开发者社区 提供了对应附件的下载方式:..性能分析及优化的完整流程均集成在了下面这个脚本当中:performance_analysis_1.0.3_for_oe3.7.0.py.传入qat.bc和hbm的输出示例:performance_analysis.log .. ..
芯链情报局
算法工具链
征程6
429
0
0
2025-12-06
2025-12-06
429
0
0
共2779条
<
1
...
7
8
9
...
139
>
前往
页
上一页
下一页
前往
页
发帖提问
待解清单
OE包里面的在训练MOTR多目标跟踪算法时,没有fcos_efficientnetb3_mscoco.pth权重
bev_sparse_det_maptr_flashocc_henet_tinym_nuscenes.py 的qat_trainer实现
Bev Sparse 多任务模型训练缺少配置数据的问题
yolov8 compile出现问题,输入shape是(1,64,640,640),但是要求是(1,4,16,8400)
bev_cft_efficientnetb3_nuscenes这个工程缺少下载文件
排行榜
TOP
1
颜值即正义
1420
TOP
2
费小财
809
TOP
3
HuangHui
805
4
五岁月下练剑
260
5
DR_KAN
192
6
Horizon_guosheng
189
7
YCJ
161
8
D-bot
144