没有指定mlu,但是报了MLU不支持某某算子的错误,是因为在“./layers/box_utils.py”文件中,部分函数指定了@torch.jit.script,会导致forward的时候进入了jit模式,而寒武纪版本的MLU2xx系列的pytorch实现,jit模式会触发融合操作,所以默认认为算子要运行在MLU上,只需要将@torch.jit.script去掉即可。展开
没有指定mlu,但是报了MLU不支持某某算子的错误,是因为在“./layers/box_utils.py”文件中,部分函数指定了@torch.jit.script,会导致forward的时候进入了jit模式,而寒武纪版本的MLU2xx系列的pytorch实现,jit模式会触发融合操作,所以默认认为算子要运行在MLU上,只需要将@torch.jit.script去掉即可。展开
另外,我将量化得到的quantize_model打印出来了,打印结果如附件!可以看到算子已经做了替换,但是里面的quantize mode = none是怎么回事?求教,谢谢!
没有指定mlu,但是报了MLU不支持某某算子的错误,是因为在“./layers/box_utils.py”文件中,部分函数指定了@torch.jit.script,会导致forward的时候进入了jit模式,而寒武纪版本的MLU2xx系列的pytorch实现,jit模式会触发融合操作,所以默认认为算子要运行在MLU上,只需要将@torch.jit.script去掉即可。展开
你好,谢谢!这个问题我也定位到了,已经全部改掉了。但是在下一步模型量化就出现了问题,调用模型量化接口后,使用量化模型推理时报错,报错信息和量化代码如下。求解!
请登录后评论