文档
博客
论坛
学院
解决方案
合作伙伴
欢迎来到地平线开发者社区!
先搜索再发帖,减少重复提问;有问必答,同行共赴成长
筛选
技术方向
算法工具链
底层软件
其他
规控
文章类别
技术深度解析
社区活动
官方公告
DSP
芯片类型
征程5
征程6
征程3
征程2
最新
热门
PTQ量化后模型输入数据类型
已解决
您好,~Thanks♪(・ω・)ノ1. 芯片型号:J6E2. 天工开物开发包 OpenExplorer 版本:v3.0.223. 问题定位:模型转换4. 问题具体描述: PTQ量化时模型沿batch维度拆分后y, uv的输入数据类型为uint8, 在对量化后的bc模型推理时,如果对图像进行前处理操作(如减均值除方差,之后转nv12再拆y,uv)得到的输入数据为浮点类型。这两者无法对齐,如果强制将输
老超2024
算法工具链
征程6
127
0
0
2024-10-18
2024-10-18
127
0
0
[J6E]ONNX模型量化后输出节点名称变化
已解决
1. 芯片型号:J6E2. 天工开物开发包 OpenExplorer 版本:J6_OE_3.0.173. 问题定位:模型转换4. 问题具体描述:在使用hb_compile命令进行模型量化与转换时,log记录到原始onnx模型的输出节点为:Graph output:. output_0: shape=[1, 81, 104, 200], dtype=FLOAT32.
eyehorus
算法工具链
征程6
77
0
0
2024-10-18
2024-10-18
77
0
0
rx0直接连接一个ov x 8b摄像头,配置了fps是30,但是输出fps是6
已解决
用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ1. 硬件获取渠道及型号: 立昇智能科技提供的J5 SOM EDK 2. 系统镜像版本: root@j5dvb:~# cat /etc/versionmipi@mipi debug 20231219-1243283. 问题模块: vpm4. 问题描述: 为了避开敏感词汇, ov x 8b 中
szc
底层软件
征程5
59
0
0
2024-10-18
2024-10-18
59
0
0
模型编译后使用hb_model_info查看BC模型信息报错
已解决
您好~Thanks♪(・ω・)ノ1. 芯片型号:J6E2. 天工开物开发包 OpenExplorer 版本:V3.0.223. 问题定位:模型转换4. 问题具体描述:PTQ量化后得到的模型,使用hb_model_info查看模型信息时存在以下报错。注:量化编译前的模型是通过沿batch维度拆分后得到的bc模型。拆分后得到的bc模型见附件中的sparse_256x704_nv12_ptq_model
老超2024
算法工具链
征程6
123
0
0
2024-10-18
2024-10-18
123
0
0
PTQ量化时多batch沿维度拆分报错
已解决
您好,~Thanks♪(・ω・)ノ1. 芯片型号:J6E2. 天工开物开发包 OpenExplorer 版本:V3.0.223. 问题定位:模型转换4. 问题具体描述:使用以下代码在对模型输入沿batch维度拆分时出现以下报错:相关*_ptq_model.onnx模型及配置文件已放入如下网盘中, 链接: https://pan.baidu.com/s/1pW44m0Bg0qxHR7-pErRHXg
老超2024
算法工具链
征程6
98
0
0
2024-10-17
2024-10-17
98
0
0
debug工具配置
已解决
1. 芯片型号:J3 2. 天工开物开发包 OpenExplorer 版本:horizon_xj3_open_explorer_v1.16.2c3. 问题定位:精度debug4. 问题具体描述:我按照精度debug工具对yaml文件配置,但是报错如下,是我配置的不对嘛
driverli
算法工具链
97
0
0
2024-10-17
2024-10-17
97
0
0
onnx version 19 是否全部支持
已解决
用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ1. 芯片型号:j62. 天工开物开发包是否支持onnx version19的全部算子,比如unique算子
zhouleidcc
算法工具链
征程6
40
0
0
2024-10-17
2024-10-17
40
0
0
J5相机适配问题
已解决
按照OE中的目标检测全链路文档实现了网络回灌demo,现在想用手头的相机接入做实时检测,按照文档修改:max9296+ar0233(SENSING Fov216)configs/vio/j5_vio_config.json文件中config_index设置为0。configs/vio/vin/camera/j5_camera_source.json文件中cam_index设置为0。板端跑run_s
默认82368
底层软件
征程5
105
0
0
2024-10-17
2024-10-17
105
0
0
结构化稀疏支持能力
已解决
用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ1. 芯片型号:J5/J6E2. 天工开物开发包 OpenExplorer 版本:NA3. 问题定位:硬件对稀疏网络的支持4. 问题具体描述:想问下,J5和J6E中有类似于Nvidia 2:4的稀疏网络的硬件支持能力么?想问下如果做了类似的权重稀疏,能在硬件上取得收益么?
默认41152
算法工具链
征程5
征程6
49
0
0
2024-10-16
2024-10-16
49
0
0
J6工具链编译hrt_model_exec报错,提示无 "hobot/dnn/hb_dnn.h"文件
已解决
1. 芯片型号:J62. 天工开物开发包 OpenExplorer 版本:OE_V3.0.173. 问题定位:模型部署4. 问题具体描述:我们在J6板端测模型帧率,但是在docker中编译hrt_model_exec工具时,提示缺少hobot/dnn/hb_dnn.h文件,如何解决?另外,J5OE包中的hrt_model_exec工具可以直接在J6板子上使用吗?
chengang
算法工具链
征程6
79
0
0
2024-10-16
2024-10-16
79
0
0
是否支持fp16模型推理
已解决
您好,我的模型对精度比较敏感,希望以fp16运行,请问J6上是否支持没有量化的FP16的模型进行推理?
XR
算法工具链
征程6
71
0
0
2024-10-16
2024-10-16
71
0
0
J6P的4个BPU是否可以同时运算同一个模型?
已解决
根据芯片设计手册,J6P拥有560TOPS的算力并拥有4块BPU,请问在运行同一个模型的时候,4块BPU是否可以同时工作如果可以数据流如何流动,如何控制4个芯片的调度?如果不可以,在单块芯片大概140TOPS的算力下,J6P在CNN上的推理效率为什么会是nvidia的2.5甚至5.8倍?
XR
算法工具链
征程6
90
0
0
2024-10-16
2024-10-16
90
0
0
J6E算力评估工具
已解决
用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ1. 芯片型号:J6E2. 天工开物开发包 OpenExplorer 版本:NA3. 问题定位:J6E 算力评估4. 问题具体描述:J6E 是否有算力评估工具可以使用?
feilongsun
算法工具链
征程6
93
0
0
2024-10-16
2024-10-16
93
0
0
J3 一体机无法接收感知交通灯信号
已解决
系统软件版本:mono v14问题涉及的技术领域:感知问题描述:j3 一体机感知版本v22.0.0 能在matrix client 看到交通灯感知结果信息,但是通过spi 发给mcu端收到的感知结果只有障碍物信息,收到的交通灯信息全是0,在j3端通过zmq 获取 /tmp/can_output.ipc节点,解析结果也是只有时间戳,障碍物等信息,交通灯信全是0,感知的交通灯信息为什么没有转发给mcu
wzj
算法工具链
征程3
38
0
0
2024-10-16
2024-10-16
38
0
0
J6 多输入模型PTQ量化yaml配置
已解决
1. 芯片型号:J62. 天工开物开发包 OpenExplorer 版本:J6_OE_3.0.22 等3. 问题定位:模型转换4. 问题具体描述:你好,我们有一个两输入模型,分别输入图像与特征图,配置input_type_rt: 'nv12;featuremap'时一直有报错配置:报错配置项与输入数量不一致:---------------------------------------------
yy1234
算法工具链
征程6
98
0
0
2024-10-16
2024-10-16
98
0
0
9296将图像同时输出到J5A和J5B,双J5如何完成图像采集
已解决
用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ1. 硬件获取渠道及型号: 舜宇处购买J5核心板2. 系统镜像版本: 3. 问题模块: 底层驱动4. 问题描述: 将同一颗max9296的输出port_A连接到J5A的RX0,输出port_B连接到J5B的RX0,max9296的引脚接到J5A上控制,目前J5A已经顺利采集到相机数据,请问如何
rhf2022
底层软件
征程5
72
0
0
2024-10-16
2024-10-16
72
0
0
J6算法复现
已解决
J6 请问J6的qcnet和BEVFormer的示例算法进行QAT量化编译后得到的模型.hbm格式的文件可以在J5上面部署推理吗?另外关于在J6上对BEVFormer公版修改用于优化算子的代码能否拿来用于J5上的模型呢?
默认32832
算法工具链
征程6
技术深度解析
133
0
0
2024-10-15
2024-10-15
133
0
0
bc模型可视化推理
已解决
您好,~Thanks♪(・ω・)ノ1. 芯片型号:J6E2. 天工开物开发包 OpenExplorer 版本:V3.0.223. 问题定位:bc模型推理4. 问题具体描述:使用PTQ量化后得到的bc模型,在使用samples/ai_toolchain/horizon_model_train_sample/scripts/tools/infer_hbir.py脚本进行可视化推理时存在以下报错:请问该
老超2024
算法工具链
征程6
158
0
0
2024-10-15
2024-10-15
158
0
0
DSP示例程序目前在开发板上无法正常运行
已解决
用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ1. 芯片型号:J6M2. 天工开物开发包 OpenExplorer 版本:3.0.223. 问题定位:板端部署4. 问题具体描述:我们用的是基于地平线J6M的索菱的开发板,运行工具链中的DSP自定义算子,发现DSP start失败错误现象:向/sys/class/remoteproc/rem
默认42592
算法工具链
征程6
58
0
0
2024-10-15
2024-10-15
58
0
0
延时与帧率计算
已解决
1. 芯片型号:J5 J62. 问题定位:板端部署你好,请问文档 模型重要性能数据中耗时与帧率统计是如何统计的?理论上不应该是帧率=1000÷(推理耗时+后处理耗时)吗,但表格中的数据和这个不对应。例如图中的mobilenetv1,仅推理耗时0.9ms,理论上帧率的帧率应该是1000÷0.9=1100fps 左右,但表格中加上后处理计算出的fps是3700fps,远大于根据推理延时的计算值,这是
yy1234
算法工具链
征程5
46
0
0
2024-10-15
2024-10-15
46
0
0
共2742条
<
1
...
37
38
39
...
138
>
前往
页
上一页
下一页
前往
页
发帖提问
待解清单
akakak
test
j3 对yolov8n-seg模型进行QAT后,板端推理后分割指标精度下降较多
图像前处理Resize3D是如何实现的
J6平台sparse4d算法量化精度损失
排行榜
TOP
1
颜值即正义
1420
TOP
2
费小财
796
TOP
3
Huanghui
772
4
五岁月下练剑
260
5
Horizon_guosheng
189
6
DR_KAN
182
7
admin
142
8
zhuqingliang
139