J6M
OE:3.7.0
我的模型的输入是6张图的y,uv格式输入,下面是我将读取的图片保存的input_tensors的方式,以及将其保存为bin的方式,这种操作有啥问题吗?为什么我在通过hrt_model_exec infer推理的时候,板端保存的bin给定模型的输入以python版本nv12给定模型的不一样呢?我看python版本的都是16,128这些值,这是我在进行python debug一样的。
J6M
OE:3.7.0
我的模型的输入是6张图的y,uv格式输入,下面是我将读取的图片保存的input_tensors的方式,以及将其保存为bin的方式,这种操作有啥问题吗?为什么我在通过hrt_model_exec infer推理的时候,板端保存的bin给定模型的输入以python版本nv12给定模型的不一样呢?我看python版本的都是16,128这些值,这是我在进行python debug一样的。
