专栏算法工具链做模型Inference的时候报关于Cuda的错误

做模型Inference的时候报关于Cuda的错误

已解决
Chenyigang2023-04-04
49
6

PC端口没有GPU,在做Inference的时候 执行Inference.sh 发生报错:2023-04-04 12:00:44,526 file: tool_utils.py func: tool_utils line No: 132 /home/jenkins/agent/workspace/model_convert/onnxruntime/onnxruntime/core/providers/cuda/cuda_call.cc:107 bool onnxruntime::CudaCall(ERRTYPE, const char*, const char*, ERRTYPE, const char*) [with ERRTYPE = cudaError; bool THRW = true] /home/jenkins/agent/workspace/model_convert/onnxruntime/onnxruntime/core/providers/cuda/cuda_call.cc:101 bool onnxruntime::CudaCall(ERRTYPE, const char*, const char*, ERRTYPE, const char*) [with ERRTYPE = cudaError; bool THRW = true] CUDA failure 35: CUDA driver version is insufficient for CUDA runtime version ; GPU=21262000 ; hostname=d17612916825 ; expr=cudaSetDevice(device_id_);

算法工具链
评论2
0/1000
  • 颜值即正义
    Lv.2

    您好,请根据模板提供一下信息哈,直接这样提供报错,不太好进行分析和复现

    2023-04-04
    0
    4
    • Chenyigang回复颜值即正义:

      报错信息是在执行这个脚本的时候发生的

      2023-04-04
      0
    • 颜值即正义回复Chenyigang:

      你好,请问你使用的OE版本是什么呢?是对应版本的docker嘛?有对示例代码进行改动吗?

      从报错看,是cuda的问题,但示例代码并没有调用GPU呀

      2023-04-04
      0
    • Chenyigang回复颜值即正义:

      OE版本是2.4.2的。是对应的docker的对示例代码有改动,因为用的是自己的模型。对很奇怪,inference的时候并没有调用GPU

      2023-04-06
      0
    • 颜值即正义回复Chenyigang:

      那建议您仔细对比一下修改前后的代码哈

      2023-04-06
      0
  • 颜值即正义
    Lv.2
    2023-04-24
    0
    0