切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
路西法战萨图恩
11
积分
0
赞
1
帖子
4
回复
0
收藏
TA的动态
TA的帖子
TA的回复
能否同时运行多个算法模型
我的回复:#3jiapeiyuan回复M.2上面有一个cluster,里面有4个小核。如果模型使用block模式(就是使用1个小核)的话,那能做到“同时”并行推理4个任务。如果使用union模式(使用1个cluster),那“同时”只能运行一个模型。但在应用层可以同时下发任务,底层会排队执行,相当于“分时”操作,且不能抢占。只要执行的足够快,上层应用感知到的就是实时。 所以,你说的这个“同时”要区分一下,上层应用的“同时”,我理解成任务下发,不受限制。底层硬件的“同时”,就是前面解释的那一段展开知道了,感谢!
0
能否同时运行多个算法模型
我的回复:#1jiapeiyuan回复可以,解码能力是16路30fps 1080p,AI推理的性能取决于模型大小,在资源(ipu计算资源,内存,带宽)够用的情况下,上层应用想跑多少路,每路跑几个不同的模型,都是可以做到的展开那就是MLU220 M.2算力卡同时运行多个算法模型是可以支持的是吗
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭