切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
路西法战萨图恩
11
积分
0
赞
1
帖子
4
回复
0
收藏
TA的动态
TA的帖子
TA的回复
能否同时运行多个算法模型
我的回复:#3jiapeiyuan回复M.2上面有一个cluster,里面有4个小核。如果模型使用block模式(就是使用1个小核)的话,那能做到“同时”并行推理4个任务。如果使用union模式(使用1个cluster),那“同时”只能运行一个模型。但在应用层可以同时下发任务,底层会排队执行,相当于“分时”操作,且不能抢占。只要执行的足够快,上层应用感知到的就是实时。 所以,你说的这个“同时”要区分一下,上层应用的“同时”,我理解成任务下发,不受限制。底层硬件的“同时”,就是前面解释的那一段展开知道了,感谢!
0
能否同时运行多个算法模型
我的回复:#1jiapeiyuan回复可以,解码能力是16路30fps 1080p,AI推理的性能取决于模型大小,在资源(ipu计算资源,内存,带宽)够用的情况下,上层应用想跑多少路,每路跑几个不同的模型,都是可以做到的展开那就是MLU220 M.2算力卡同时运行多个算法模型是可以支持的是吗
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭