切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
浪漫土狗
121
积分
0
赞
3
帖子
10
回复
1
收藏
TA的动态
TA的帖子
TA的回复
docker如何对MLU资源使用进行限制?
我的回复:#2tl回复感谢您的回答,是我描述不清楚了 ,我是希望像nvidia-docker一样 ,通过设置NV_GPU=0来实现docker对nvidia加速卡的资源限制展开是这样,如果是四张卡,想要用docker 分开是可以的,在设置--device的时候选择不同的驱动名称就可以实现,但如果是一个卡想用docker分成几份,这样还是需要先虚成虚机再做划分,或者是通过K8S调度,这样只能按内存分,几个docker还是共用卡的资源。
0
rk3399无法安装demo依赖
我的回复:#2shuangfeiyan回复安装lonnppst-mpi-python-dev和另一个的时候就会报需要新的依赖最后一直安装到python3也安装不上去展开方便贴图看一下吗?
0
mlu220执行yolo5v离线模型找不到libcnrt.so
我的回复:试一下export NEUWARE_HOME=/usr/local/neuwareexport LD_LIBRARY_PATH=/usr/local/neuware/lib64:$LD_LIBRARY_PATHexport PATH=/usr/local/neuware/bin:$PATH
0
mlu220执行yolo5v离线模型找不到libcnrt.so
我的回复:export NEUWARE_HOME=/usr/local/neuware
0
安装好mlu220驱动后出现cndev init failed: CNDEV_ERROR_NO_DRIVER.
我的回复:$ cd neuware-mlu220m.2-driver-4.2.2$ make clean;make安装mlu220m.2驱动$ cd neuware-mlu220m.2-driver-4.2.2$ ./load_auto #加载驱动,load_auto 会加载驱动同时也会加载MLU220固件,load 不会加载固件;$ ./cnmon #查看MLU设备信息进入到文件夹内./cnmon看一下
0
rk3399无法安装demo依赖
我的回复:图片中倒数二三行的 lonnppst-mpi-python-dev和另一个有安装上吗?
0
yolov5s 板卡处理时间会变慢
我的回复:请问是否存在温度过高出现降频的问题?另外 带宽或者核间竞争也可以看一下,是否是多线程造成的。
0
关于思元270 c++ yolov5部署
我的回复:寒武纪目前支持yolov5,https://developer.cambricon.com/index/curriculum/expdetails/id/10/classid/8.html 可以参考这个链接。
0
mask精度损失严重
我的回复:直接在MLU上运行您的代码 无论逐层或是融合 会报错:Traceback (most recent call last): File "mlu_trace_test.py", line 192, in <module> quantized_net_mlu(randn_mlu.to(ct.mlu_device())) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/module.py", line 541, in __call__ result = self.forward(*input, **kwargs) File "/torch/src/catch/examples/online/mask-rcnn/models/maskrcnn-benchmark-master/maskrcnn_benchmark/modeling/detector/generalized_rcnn.py", line 69, in forward proposals, proposal_losses = self.rpn(images, features, self.Anchors_mlu, targets) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/module.py", line 541, in __call__ result = self.forward(*input, **kwargs) File "/torch/src/catch/examples/online/mask-rcnn/models/maskrcnn-benchmark-master/maskrcnn_benchmark/modeling/rpn/rpn.py", line 173, in forward im_min_w, nms_scale, nms_threshold, TO_REMOVE)RuntimeError: torch_mlu::proposal_fpn() Expected a value of type 'Tensor' for argument '_2' but instead found type 'NoneType'.Position: 2Value: NoneDeclaration: torch_mlu::proposal_fpn(Tensor[] _0, Tensor[] _1, Tensor _2, int[] _3, int[] _4, int _5, int _6, int _7, int _8, int _9, float _10, float _11, float _12, float _13, float _14) -> (Tensor _0, Tensor _1)
0
docker如何对MLU资源使用进行限制?
我的回复:您好,您说的是像虚拟机一样把卡划分成四分之一这种形式还是说控制核利用率就可以?虚机形式可以参考KVM的虚拟化,关于docker本身的memory限制可以参考Docker(二十)-Docker容器CPU、memory资源限制 - 圆圆测试日记 - 博客园 (cnblogs.com)
0
上一页
1
2
3
4
5
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭