文档
博客
论坛
学院
解决方案
合作伙伴
欢迎来到地平线开发者社区!
先搜索再发帖,减少重复提问;有问必答,同行共赴成长
筛选
技术方向
算法工具链
底层软件
其他
规控
文章类别
技术深度解析
社区活动
官方公告
DSP
芯片类型
征程5
征程6
征程3
征程2
最新
热门
QAT-hbm模型上板部署,nv12_separate输入的问题
已解决
【j5】.使用C++接口.如果按照sample中的示例编写,运行的时候会报一个输入数据的错误,应该是和nv12_separate相关(我的模型输入alignedSize是115200):..因此我做了如下修改:..修改之后到推理那一步直接segmentation fault了。请问我这样的修改是不是有问题呢?
YUANYI
算法工具链
征程5
技术深度解析
77
0
0
2025-09-11
2025-09-11
77
0
0
J5模型量化报Segmentation fault (core dumped)
已解决
1. 芯片型号:J5 .2. 天工开物开发包 OpenExplorer 版本:J5_OE_v1.1.62.3. 问题定位:模型量化.4. 问题具体描述:选择max 0.99999 量化算法,开启per_channel后模型量化报Segmentation fault (core dumped)
MAN
算法工具链
征程5
58
0
0
2025-09-10
2025-09-10
58
0
0
关于上板部署模型输入格式的疑惑
已解决
【j5】.按照QAT文档,在模型训练时将图像转换成 了centered_yuv444 格式.但是如果要使用nv12输入,那在QAT模型训练时候如何进行前处理呢?(应该不再是使用 rgb2centered_yuv了吧)
YUANYI
算法工具链
征程5
技术深度解析
305
0
0
2025-09-08
2025-09-08
305
0
0
使用工具量化时,报错,提示元素类型不匹配
已解决
2025-09-05 21:12:22,032 ERROR *** ERROR-OCCUR-DURING {horizon_nn.build_onnx} ***, error message: There is an ERROR during shape inference, error message: [ShapeInferenceError] (op_type:Pow, node name:
ZQQ
算法工具链
征程5
43
0
0
2025-09-05
2025-09-05
43
0
0
j5ddr和j6mddr的带宽是多少呢,
已解决
j5ddr和j6mddr的带宽是多少呢,两者是否一样,40GB/s是不是太少了,求解答.j5ddr和j6mddr的带宽是多少呢,两者是否一样,40GB/s是不是太少了,求解答
bopk
底层软件
征程6
征程5
67
0
0
2025-09-04
2025-09-04
67
0
0
如何通过增加线程数量假加快推理速度
已解决
地平线J3芯片.遇到问题: hrt_model_exec infer --frame_count 2000 --thread_num=1 --core_id 0 --profiler_path ./ 各位大佬好,请问设置thread_num数量为什么可以提升推理速度呢,我应该如何将多线程用到我的C++代码推理中,额能否提供一下示例,多线程与用BPU双核推理的加速有什么不同呢?.另外问一下,如
红鲤鱼绿鲤鱼与驴
算法工具链
征程3
技术深度解析
48
0
0
2025-09-04
2025-09-04
48
0
0
多模型批量推理 input tensor 准备问题
已解决
https://developer.horizon.auto/forum/11338 . .参考这个链接的教程在 J5 上部署两个模型,在一个 packed_dnn_handle 中推理。请问对于两个模型,即便是输入同一张图片也需要准备两份不同的 input tensor 吗??我试了下只准备一份 input tensor 的这个版本,会出现推理报错:.[E][DNN][mem_pool.h:66
默认25184
算法工具链
征程5
39
0
0
2025-09-02
2025-09-02
39
0
0
J5 hrt_model_exec 报错
已解决
J5开发板环境和版本如图所示。.模型检查和编译环节没有ERROR,上板子之后有ERROR信息。 请大佬帮忙解答.有一批模型都是这样的 ,均是transformer相关的模型,CNN的模型就都没啥问题。.模型版本是opset11。.
默认49632
算法工具链
征程5
44
0
0
2025-09-02
2025-09-02
44
0
0
关于量化算子以及反量化如何放到CPU上运行
已解决
....... ..1.芯片类型: 地平线J3芯片 pliot............. .2.OE包版本为 1.16.2c.3.遇到问题: 在转换模型的时候,所有的算子都在BPU上面情况下,加上remove_op_type:"Quantize;Dequantize"跟不加这句话两种情况下的html显示的bpu显示的推理时间都是一样的,是因为html中的推理时间以及fps本身就不包含量化与反量
红鲤鱼绿鲤鱼与驴
算法工具链
征程3
技术深度解析
60
0
0
2025-09-01
2025-09-01
60
0
0
关于yolo示例中ATTN/Softmax 算子改写的问题
已解决
【J5】.根据YOLO11 Instance Segmentation中的流程,对Attention模块进行等价改写,改为AAttn:..但是编译bin文件的时候,发现attn = exp_attn / sum_attn这个除法被放在了CPU上,请问这是什么原因?.
YUANYI
算法工具链
征程5
62
0
0
2025-08-29
2025-08-29
62
0
0
compile_perf_hbir.py编译模型使用的是qat.bc还是quantized.bc
已解决
您好,根据官方教程,QAT量化第六步,compile是将定点模型quantized.bc编译为hbm模型,但是在compile_perf_hbir.py中使用到的却是伪量化模型qat.bc..请问这是为什么?我看到log中会出现一个hbir模型,请问这个模型又是什么模型,和qat.bc还有quantized.bc的区别是什么?
XR
算法工具链
征程6
57
0
0
2025-08-28
2025-08-28
57
0
0
QAT的compile流程中为什么要去掉模型的量化反量化节点?
已解决
在j6的3.2.0版本完成centerpoint_pillar算法的QAT流程中,在量化模型编译时,发现运行compile_perf_hbir.py脚本时,会有删除模型的量化反量化节点,根据https://developer.horizon.auto/forum/12609帖子中的回答,得知删除节点是因为量化反量化跑在模型中是串行的,为了提升效率所以放到后处理中,但是量化和反量化的操作是乘加运算,
XR
算法工具链
征程6
77
0
0
2025-08-28
2025-08-28
77
0
0
J6 最新的oe包 是否 兼容以往版本的 底软SDK?
已解决
有一个小疑问:J6 OE3.2.0 版本是否能兼容J6以往的底软SDK版本。如250630sdk、241230sdk、240930sdk等。还是最好按照发布日期匹配,如oe3.2.0匹配250630sdk。oe3.0.31匹配241230sdk。
浮浮浮
算法工具链
征程6
48
0
0
2025-08-28
2025-08-28
48
0
0
bc 模型和calibrated_model 差异很大
已解决
bc 模型和calibrated_model 差异很大 J6P测试的精度测试 quant cos 0.83 左右模型为 flow 模型,属于 TTS cosyvoice 模型的一部分。.我这边尝试转换 flow_matching 模型,转换之后的模型端到端测试 calibrated_model.onnx 和 _ptq_model.onnx 输出的结果有一些问题,但是声音还是有可懂度的,而quan
默认51264
算法工具链
征程6
32
0
0
2025-08-28
2025-08-28
32
0
0
关于QAT异构量化的疑问
已解决
【J5】.关于QAT异构量化,通过配置hybrid=True可以开启异构模式。. .例如Softmax,配置hybrid=True后模型中所有的Softmax算子都会自动分配在CPU上计算,但如果只需要设置单独某一个Softmax算子在CPU上计算的话,该如何操作呢?暂未查询到相关说明。
YUANYI
算法工具链
征程5
技术深度解析
43
0
0
2025-08-27
2025-08-27
43
0
0
QAT怎么设置全部节点为int16精度
已解决
J6M.QAT过程中,我想将所有的节点设置成int16精度,来测试量化的上限,但只找到了fp16的,复制后修改int16会有问题 assert dtype in (torch.float16, torch.float32).要怎么一键设置呢?像PTQ那样 "all_node_type": "int16"/"float16",. ..all_fp16_qconfig_setter = Templa
张元彪
算法工具链
征程6
54
0
0
2025-08-26
2025-08-26
54
0
0
J6 同时支持python和c++吗
已解决
J6M 同时支撑python和c++代码吗,还是仅支持c++? 在算法开发阶段,用python写的数据处理部分(比如,轨迹预测算法提取地图信息等),怎么写入到J6中去呢.
鲍小白
算法工具链
征程6
73
0
0
2025-08-26
2025-08-26
73
0
0
【求助】J3上面移植arm64的valgrind工具
已解决
想在J3上面移植valgrind工具,已经交叉编译好了valgrind的工具,可以查看版本信息,但是使用valgrind工具运行的时候报错如下:. .Fatal error at startup: a function redirection which is mandatory for this plagform-tool combination cannot be set up. Detail
雪奇的开发生活
底层软件
征程3
38
0
0
2025-08-23
2025-08-23
38
0
0
J6E中GDC模块能力咨询
已解决
由于多个地方看到的GDC能力描述有差异,所以想确认下相关信息:..J6E中就一个instance吧.GDC的最大输入尺寸是4096x2160还是3840x2160.GDC的最大输出尺寸是不是同上?.GDC能支持RGB输入么?.GDC输出格式要求同输入格式相同么?还是说只能出YUV420SP?.GDC中custom模式下用户指定点的个数最大是同输出尺寸相同么?还是同输入尺寸相同?.
默认41152
算法工具链
征程6
53
0
0
2025-08-22
2025-08-22
53
0
0
QAT过程中怎么保存calibrated_model.onnx模型
已解决
J6MPTQ产生的过程文件包含,calibrated_model.onnx,.我想在QAT过程中也保存 calibrated_model.onnx 模型要怎么实现呢?. .PS: 尝试horizon_onnx_helper.export_to_onnx函数保存的onnx和calibrated_model.onnx不一致。
张元彪
算法工具链
征程6
26
0
0
2025-08-22
2025-08-22
26
0
0
共2734条
<
1
...
11
12
13
...
137
>
前往
页
上一页
下一页
前往
页
发帖提问
待解清单
j3 对yolov8n-seg模型进行QAT后,板端推理后分割指标精度下降较多
图像前处理Resize3D是如何实现的
J6平台sparse4d算法量化精度损失
模型部署时报错
运行J6E DSP自定义算子失败
排行榜
TOP
1
颜值即正义
1420
TOP
2
费小财
787
TOP
3
Huanghui
769
4
五岁月下练剑
260
5
Horizon_guosheng
189
6
DR_KAN
182
7
admin
142
8
zhuqingliang
139