×

签到

分享到微信

打开微信,使用扫一扫进入页面后,点击右上角菜单,

点击“发送给朋友”或“分享到朋友圈”完成分享

在开源推理框架llama.cpp中支持MLU220后端是否可行? SeaSource2026-01-04 11:22:03 回复 1 查看 使用求助 经验交流 社区交流
在开源推理框架llama.cpp中支持MLU220后端是否可行?
分享到:

如题,想在llama.cpp中开发支持一种新的后端来实现MLU220这种边缘设备加速卡的LLM推理加速,不知道是否可行?官方文档说MLU220只支持离线模型部署,所以我是不是需要写一个转换脚本把gguf格式的模型文件转换成cambricon格式的?

版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:京ICP备17003415号-1
关闭