文档
博客
论坛
学院
解决方案
合作伙伴
欢迎来到地平线开发者社区!
先搜索再发帖,减少重复提问;有问必答,同行共赴成长
筛选
技术方向
算法工具链
底层软件
其他
规控
文章类别
技术深度解析
社区活动
官方公告
DSP
芯片类型
征程5
征程6
征程3
征程2
最新
热门
J6 DSP FFT 是否支持2048点FFT,以及complex复数FFT计算
已解决
各位大哥,请问.①J6 DSP FFT 是否支持2048点FFT,以及complex复数FFT计算,我该从哪些文档手册中查询相关信息呢②除了DSP外,如果需要进行大量的并行FFT计算,如何调用GPU或者其他加速器核进行运算
默认02208
底层软件
征程6
79
0
0
2025-04-24
2025-04-24
79
0
0
J3内核启动时报错,跟MPU相关
已解决
.截图为J3启动时内核打印信息,目前启动偶尔成功,偶尔会出现这个错误,看log跟BIFSPI有关系,请问应该如何排查该问题
rhf2022
底层软件
征程3
47
0
0
2025-04-23
2025-04-23
47
0
0
hbm模型相关问题咨询
已解决
您好,对于qat量化得到的hbm模型,有如下问题想咨询:..hbm模型里是既可以有cpu上运行的算子也有bpu上运行的算子么?.hbm模型里可以包含浮点运算吗,还是只能是int?.j5平台有什么可以查看hbm模型各个算子信息(如数据精度等)的命令? hrt_model_info 这个命令在我的oe包中没有。..
默认38336
算法工具链
征程5
72
0
0
2025-04-23
2025-04-23
72
0
0
直接将原始浮点模型转成bin方法
已解决
请问我可以将原始浮点模型的onnx直接编译成bin然后部署,不对模型进行量化操作吗?我看其他帖子您说将优化等级设为00,但是在hb_mapper makertbin过程中还是会对校准数据进行处理,感觉还是进行了量化操作
默认38336
算法工具链
征程5
19
0
0
2025-04-23
2025-04-23
19
0
0
J5芯片BPU的显存大小
已解决
请问J5芯片的BPU显存空间是多大?我在官网上没有找到相关信息。。。。。。。。。。。。。。。。。。。
默认38336
算法工具链
征程5
51
0
0
2025-04-23
2025-04-23
51
0
0
j3 QAT模型量化转换hbm文件时出现问题
已解决
.1. 芯片型号:J3.2. 天工开物开发包 OpenExplorer 版本:horizon_xj3_open_explorer_v1.16.4-py38_20240319.3. 问题定位:模型量化编译hbm文件时报错.4. 问题具体描述:我们自己搭建的模型,浮点训练、校准和QAT训练都正常,但在最后做模型量化编译时出现问题,具体报错信息如下:.python3 convert.py .2025-
默认89440
算法工具链
征程3
68
0
0
2025-04-22
2025-04-22
68
0
0
采用地平线stereonetplus网络训练自制双目数据集发生问题
已解决
1.芯片: J5.2.OE包版本:v1.1.68.3.问题描述:(1) 运行时有警告 :.2025-04-22 16:18:30,121 WARNING [hash.py:218] Node[0] Don not found hash value in name of /open_explorer/configs/disparity_pred/officaldownloadWeight/floa
红鲤鱼绿鲤鱼与驴
算法工具链
征程5
技术深度解析
49
1
0
2025-04-22
2025-04-22
49
1
0
ModuleNotFoundError: No module named 'hatbc'
已解决
芯片:J5 .docker环境: J5 v1.1.68.代码运行过程中出现警告: OE包版本跟Docker版本是匹配的,仍然出现以下警告,如何解决警告呢?.2025-04-22 10:39:04,163 WARNING: Force duplicate shared conv-bn is disabled by default as of version 1.9.0. If you still n
红鲤鱼绿鲤鱼与驴
算法工具链
征程5
技术深度解析
52
1
0
2025-04-22
2025-04-22
52
1
0
j6-e 版本更新后,模型创建失败
已解决
1.版本从3.0.22更新到3.0.31,初衷是想解决scatternd 在cpu上运行的问题,但是从量化情况来看,好像还是没解决,下面提供了量化的打印和config1.没有解决scatternd 在cpu上运行2.新的模型在板端创建失败在hbDNNInitializeFromFiles 的时候就报错了hbDNNInitializeFromFiles(&packed_dnn_handle_, &m
渚
算法工具链
征程6
42
0
0
2025-04-21
2025-04-21
42
0
0
模型编译报错终止问题请教
已解决
.在使用fast-perf模式进行模型编译时报出了一个错误,请问一下大佬遇到过这个错误吗,是由于什么原因导致的。.../../hbdk/lib/Transforms/CodegenPass/Tiling.cpp:823: in function 'runTiling': assert: !allocResult && "l1m allocation cannot fail in codegen r
txin
算法工具链
技术深度解析
49
0
0
2025-04-21
2025-04-21
49
0
0
如何进行模型不量化,直接基于原始模型浮点进行模型转换
已解决
模型部署过程中,先不进行量化,验证精度是多少。用hb_compile如何只转换模型,不进行量化。麻烦帮忙解答一下
默认50624
算法工具链
征程6
37
0
0
2025-04-21
2025-04-21
37
0
0
如何进行模型不量化,直接基于原始模型浮点进行模型转换
已解决
模型部署过程中,先不进行量化,验证精度是多少。用hb_compile如何只转换模型,不进行量化。麻烦帮忙解答一下
默认50624
算法工具链
征程6
43
0
0
2025-04-18
2025-04-18
43
0
0
bev_cft导出的onnx报错
已解决
您好,我用qat示例的tools/export_onnx.py导出bev_cft的onnx模型,然后想在ptq流程下通过设置load模式得到bin文件。但是在hb_mapper checker和hb_mapper makertbin时出现如图所示报错,请问是算子不支持吗?
默认38336
算法工具链
征程5
34
0
0
2025-04-18
2025-04-18
34
0
0
【求助】征程J3上电时序波形正确符合设计要求但是无法芯片无法上电,串口无输出
已解决
控制器的原理图是基于金脉3j3pilot控制器的,我们修改为单J3。PCB是自己画的。.电源管理芯片用的是PF8100和PF5024。.问题现象.1、在启动阶段,按照上电时序使能PF8100和PF5024后复位引脚没有拉高。然后断电PF8100和PF5024,然后重新给PF8100和PF5024按照上电时序上电,并且10ms后复位引脚拉高。这时候J3串口没有任何输出,(理论上应该有CCCCC输出)
雪奇的开发生活
底层软件
征程3
24
0
0
2025-04-18
2025-04-18
24
0
0
qat导出的onnx模型转bin报错
已解决
您好,我的oe包是j5 1.1.68版本,在将qat示例中petr模型的pth转为onnx,利用hb_mapper makertbin过程出现了和这个帖子一样的错误,请问是什么原因? hb_mapper makertbin编译QAT模型 - 地平线开发者社区
默认38336
算法工具链
征程5
39
0
0
2025-04-18
2025-04-18
39
0
0
swin transformer导出onnx报错
已解决
您好,我在用oe包中qat模型示例下的export_onnx.py将 horizon_swin_transformer 的pth导出onnx过程中报错 floating points exception(core dumped) ,查询博客发现是torch1.13版本和地平线自定义算子冲突引入的bug,请问现在修复了吗?如果没有可否提供下该模型各个pth对应的onnx文件?之前博客下的网盘链接过期
默认38336
算法工具链
征程5
51
0
0
2025-04-17
2025-04-17
51
0
0
Q1 征文&答题活动大奖公布!快来看看花落谁家~
.社区问答获奖名单...底软板块........排名...昵称...解答次数...奖品说明.....双月大奖...潜水员...107 次...奖品池礼品自选1份价值 1500 元(含)以内.....🏆...潜水员...74 次...奖品池礼品自选 1 份价值 1000 元(含)以内.....🥈...废柴柴...25 次...奖品池礼品自选 1 份价值 500 元(含)以内.....🥉...新
Pema
其他
社区活动
社区征文
官方公告
57
0
0
2025-04-17
2025-04-17
57
0
0
J6E QAT模型训练异常,prepare模型报错
已解决
.J6E模型QAT训练的时候报错,模型包含backbone,fpn, head多模块,多任务模型,在准备QAT模型的时候prepare报错:.WARNING: check model failed. The common reason is that inputs required for multiple forward are inconsistent. solution:.1. call h
默认63680
算法工具链
征程6
45
0
0
2025-04-17
2025-04-17
45
0
0
ptq与qat量化方式联系
已解决
您好,对于ptq和qat量化方式,有两个问题想咨询一下:..如果qat量化只进行算法工具链文档中介绍的获取浮点模型与calibration这两个步骤,那与直接按ptq量化得到的结果有区别吗?.J5支持将ptq量化产生的onnx或bin转为hbm模型么?.
默认38336
算法工具链
征程5
27
0
0
2025-04-16
2025-04-16
27
0
0
J6端hrt_model_exec测模型帧率失败
已解决
芯片型号:J6E.OE包版本:v3.0.31.如下图所示,在板端用hrt_model_exec工具测试我们自己模型的帧率,出现下面的错误。在x86环境运行是没有问题,但是板端运行就不行。. .
chengang
算法工具链
征程6
55
0
0
2025-04-16
2025-04-16
55
0
0
共2735条
<
1
...
20
21
22
...
137
>
前往
页
上一页
下一页
前往
页
发帖提问
待解清单
j3 对yolov8n-seg模型进行QAT后,板端推理后分割指标精度下降较多
图像前处理Resize3D是如何实现的
J6平台sparse4d算法量化精度损失
模型部署时报错
运行J6E DSP自定义算子失败
排行榜
TOP
1
颜值即正义
1420
TOP
2
费小财
794
TOP
3
Huanghui
772
4
五岁月下练剑
260
5
Horizon_guosheng
189
6
DR_KAN
182
7
admin
142
8
zhuqingliang
139