hello,你调用dtype的对象不是张量或数组,而是另一种类型的对象(如自定义Batch类、元组、列表等)。在PyTorch中,当使用DataLoader时,它会返回批量数据。如果你试图获取整个批次的dtype,而不是该批次中的单个张量,就会遇到这个错误。举例说明:
您好,在pytorch下对模型(float_model)进行calibration,我们利用Batch类是可以的,其并没有dtype属性.为什么在模型calibration环节,模型采用calib_model,如下图所示:需要输入的变量有dtype呢?为了满足要求,我们将Batch中所有的元素进行了提取,保证所有的变量都有dtype(将所有变量dtype全部打出查看了,保证每个变量都有dtype),如图所示:同样还报错:请问对于多输入的网络,你们如何进行数据的传入,在calibration时候?