切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
tl
25
积分
0
赞
1
帖子
4
回复
0
收藏
TA的动态
TA的帖子
TA的回复
docker如何对MLU资源使用进行限制?
我的回复:#3gaoxuan回复是这样,如果是四张卡,想要用docker 分开是可以的,在设置--device的时候选择不同的驱动名称就可以实现,但如果是一个卡想用docker分成几份,这样还是需要先虚成虚机再做划分,或者是通过K8S调度,这样只能按内存分,几个docker还是共用卡的资源。展开收到 非常感谢
0
docker如何对MLU资源使用进行限制?
我的回复:#1gaoxuan回复您好,您说的是像虚拟机一样把卡划分成四分之一这种形式还是说控制核利用率就可以?虚机形式可以参考KVM的虚拟化,关于docker本身的memory限制可以参考Docker(二十)-Docker容器CPU、memory资源限制 - 圆圆测试日记 - 博客园 (cnblogs.com)展开感谢您的回答,是我描述不清楚了 ,我是希望像nvidia-docker一样 ,通过设置NV_GPU=0来实现docker对nvidia加速卡的资源限制
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭