你好还有几个问题麻烦解答:1. 是否可以通过onnx转MLU220离线模型?2. MLU220支持的算子列表可以在哪里查看?3. BANG C编写的自定义算子库cnplugin我理解应该是在边缘端运行的,那么如何在使用pytorch docker转离线模型时建立自定义算子的映射关系?展开
你好还有几个问题麻烦解答:1. 是否可以通过onnx转MLU220离线模型?2. MLU220支持的算子列表可以在哪里查看?3. BANG C编写的自定义算子库cnplugin我理解应该是在边缘端运行的,那么如何在使用pytorch docker转离线模型时建立自定义算子的映射关系?展开
不可以;
请参考官方文档中关于框架的用户手册,比如《寒武纪 PyTorch 用户手册》中的算子支持列表。
CNPlugin 在 CNML(Cambricon Neuware Machine Learning Library 寒武纪机器学习库)层提供一个接口,将 BANG C 语言生成的算子与 CNML 的执行逻辑统一起来。因此为了让 BANG C实现的算子更好的与 CNML 协同工作,提供了插件算子 CNPlugin,实现了用 BANG C 语言对 CNML 的操作进行扩展。
具体的使用方式可以参考https://developer.cambricon.com/index/curriculum/expdetails/id/13/classid/8.html中的
torch.ops.torch_mlu.yolov5_detection_output
算子添加方式。
请登录后评论