参考这个链接的教程在 J5 上部署两个模型,在一个 packed_dnn_handle 中推理。请问对于两个模型,即便是输入同一张图片也需要准备两份不同的 input tensor 吗??我试了下只准备一份 input tensor 的这个版本,会出现推理报错:
[E][DNN][mem_pool.h:66](57908618) no more element can be alloc
[E][DNN][hb_dnn.cpp:349](57908618) task number exceed limit
hbDNNInfer failed, error code:-6000009
单独两个小模型各自运行都是没问题的。所以怀疑是不是一定得把同一个图片准备两份 input tensor 分别给两个模型?


