切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
MyAI
47
积分
1
赞
3
帖子
2
回复
1
收藏
TA的动态
TA的帖子
TA的回复
SOM 板无法从网络加载,选择从 SD 卡加载,烧录失败
我的回复:2.格式化后在拷贝下数据并SD卡并解压到SD卡根目录。先看下分区是否正确。另外如果网络可以使用,也可以通过网络烧录
0
SOM 板无法从网络加载,选择从 SD 卡加载,烧录失败
我的回复:如果通过SD 卡烧录:1.需要先在linux下用 mkfs 命令将 SD 卡格式化为 FAT32 格式,需要注意如果有sdb1分区,需要删除掉,保证整个SD卡是一个分区(sdb),格式化命令添加-I参数:使用mkfs.vfat -I /dev/sdb
0
视频解码报错vpu-server is no alive
我的回复:看日志可先从基础环境查起,可以基于220-SOM的环境,确认下如下信息:1.文件系统是否是发布包带的,如果不是,检查下是否存在/lib/firmware/mali-v52_v76-80-3 目录,以及目录下是否有对应的fwavsdec.fwb h264dec.fwb h264enc.fwb hevcdec.fwb hevcenc.fwb jpegenc.fwb mpeg2dec.fwb mpeg4dec.fwb vc1dec.fwb vp8dec.fwb vp9dec.fwb2.如果固件存在,先运行下SDK发布包带的基础示例,cncodec的示例,如解码,如果解码OK 在验证cnstream。3.当前cnstream 是在容器内运行还是在裸系统运行?,启动容器脚本可参看文档:2.1.5 Docker 环境下安装和配置 章节。4.交叉编译的方法可以参看 文档,10.3 有没有交叉编译 CNStream 的指导?
0
视频解码报错vpu-server is no alive
我的回复:可以描述下当前的运行环境情况吗?从日志看是codec没有工作,可以先跑一个解码的基础事例,确认下环境是正常的
0
如何在多张220上进行模型并行推理
我的回复:#6幺白幺木回复在搭建离线模型并将其拆分为任务A、B之后,任务A、B之间需要频繁进行数据交互,即如何实现模型中的算子将计算输出发送至指定220设备,或接收来自其他220设备所部署离线模型中间层算子计算输出的数据,从而实现多块220进行模型并行推理时离线模型间的数据交互?是否有多卡模型并行或者流水线并行的实例代码。展开没有多卡并行的示例,关于卡间数据交互可以参看下cnrt的接口,主要是数据拷贝部分
0
CNStream调整模块间的速度
我的回复:可以有多种方式去定位这个问题,比如:先对json进行分段,先看前面部分性能情况:只保留解码模块,看下解码性能解码没问题,接上推理插件,看下解码+推理的性能(建议测试下纯模型的推理性能)解码+推理性能满足预期在接后面的插件按照上述方法,大概可以分析出影响整体性能的节点,在进行单模块性能调整。另:先期可以不需要调整parallelism、max_input_queue_size 等参数,先定位问题,在找优化方法。最新的版本 v6.3.0,需要可以更新到最新版本。详细的优化参数 可参看 Cambricon-CNStream-User-Guide-CN-v6.3.0.pdf 文档。
0
如何在多张220上进行模型并行推理
我的回复:220 主要是离线部署为主,如果板子是220多卡的,可以在业务层做一些任务调度,常见的使用方法:以2卡举例:可以将A任务放到卡0上,B任务放到卡1上运行。这种方式可以提升整卡的吞吐率。MLU侧接口依旧是保持原有cnrt的使用方法,任务分配时做好对应的数据的拆分然后分配到对应的device。
0
在270平台下fastdet网络融合阶段报错
我的回复:可以参看下这个链接:https://gitee.com/smyai/fastest-det
0
【Pytorch FastestDet】FastestDet模型寒武纪200移植分享
我的回复:参看下这个链接:https://gitee.com/smyai/fastest-det
0
移植bert模型失败:RuntimeError: Cannot set version_counter for inference tensor
我的回复:#2hustgao回复硬件:mlu370软件: yellow.hub.cambricon.com/pytorch/pytorch:v1.4.0-torch1.9-ubuntu18.04参考文档: https://www.cambricon.com/docs/sdk_1.7.0/cambricon_pytorch_1.6.0/porting_1.9/pytorch_3_porting/pytorch_porting.html#torch-mlu 跑的自研resnet50的demo, 完整错误如下:Cannot set version_counter for inference tensor[WARNING][/torch/catch/torch_mlu/csrc/aten/operators/mlu_type_default.cpp:935][convolution_overrideable][process:33242][thread:139957320275776]: MLU convolution_overrideable failed, fallback to run on CPU automatically!Traceback (most recent call last): File "inference.py", line 535, in main() File "inference.py", line 454, in main args, model, data_loader, device, args.show, args.show_dir, **show_kwargs File "inference.py", line 157, in single_gpu_test result = model(return_loss=False, **data) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/module.py", line 1051, in _call_impl return forward_call(*input, **kwargs) File "/torch/venv3/pytorch/lib/python3.6/site-packages/mmcv/runner/fp16_utils.py", line 119, in new_func return old_func(*args, **kwargs) File "/torch/venv3/pytorch/lib/python3.6/site-packages/mmcls/models/classifiers/base.py", line 85, in forward return self.forward_test(img, **kwargs) File "/torch/venv3/pytorch/lib/python3.6/site-packages/mmcls/models/classifiers/base.py", line 67, in forward_test return self.simple_test(imgs[0], **kwargs) File "/torch/venv3/pytorch/lib/python3.6/site-packages/mmcls/models/classifiers/image.py", line 152, in simple_test x = self.extract_feat(img) File "/torch/venv3/pytorch/lib/python3.6/site-packages/mmcls/models/classifiers/image.py", line 111, in extract_feat x = self.backbone(img) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/module.py", line 1051, in _call_impl return forward_call(*input, **kwargs) File "/torch/venv3/pytorch/lib/python3.6/site-packages/mmcls/models/backbones/resnet_cifar.py", line 72, in forward x = self.conv1(x) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/module.py", line 1051, in _call_impl return forward_call(*input, **kwargs) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/conv.py", line 443, in forward return self._conv_forward(input, self.weight, self.bias) File "/torch/venv3/pytorch/lib/python3.6/site-packages/torch/nn/modules/conv.py", line 440, in _conv_forward self.padding, self.dilation, self.groups)RuntimeError: MLU convolution_overrideable does not have fallback CPU implementation!能否解释下:为啥conv2d会run到convolution_overrideable这个算子呢, 而且有异常, 然后catch有没有对这个算子做fallback to cpu展开看着像是device 错了,可以看下代码中操作device的地方,逐一排查下
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭