切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
HelloAI
414
积分
5
赞
5
帖子
26
回复
4
收藏
TA的动态
TA的帖子
TA的回复
DEMO是怎么使用的,求指导说明
我的回复:#2conny回复想问下,是整体去编译吗?还有一个问题,那移植到自己的工程是不是比较麻烦?如果是想自己写MLU220的离线程序的话,不建议参考这里的benchmark,封装的太深了。建议参考一些简化过的离线demo,比如:https://forum.cambricon.com/index.php?m=content&c=index&a=show&catid=170&id=688 或者从销售代表获取一些完整的离线demo
0
非线性形状pipeline无法创建
我的回复:#6rogerg6回复改完后,yolov3能用,但是v5就是不行。但是我们的模型是yolov5sv4的,v3的模型无法量化到盒子上,那怎么办?还有就是分支流水线处理的fps下降了好多展开1、yolov5不行是指结果不对,还是报错?2、yolov3无法量化到盒子是遇到了什么错?3、分支流水线fps下降了多少?2个模型并发会产生抢占和切换的开销,一定程度的下降时正常的。
0
MLU220---Yolov5离线模型移植出错
我的回复:一般是前后处理C++的离线程序和python的在线脚本不一致导致模型的输入差异,或者是NCHW和NHWC的layout不一致,或者是RGB,BGR排列不一致。先排查这几方面试试。
0
有pytorch1.7以上的docker吗?
我的回复:MLU220只支持到torch1.3,如果没有用到torch1.3不支持的算子的话,可以尝试将torch1.7以上的模型解压,这样torch1.3就可以load了
0
DEMO是怎么使用的,求指导说明
我的回复:这些example是作为一整套benchmark来使用的,封装的比较深,不建议拷出来单独使用。
0
CNstreamv6.3.0版本,怎样对CNFrame进行释放的?
我的回复:基于引用计数自动释放的,用户自己申请的内存要自己管理,不是用户自己申请的不用管
0
驱动报错
我的回复:寒武纪MLU270的驱动只能支持Ubuntu1604,1804和CentOS7的默认内核版本。可以解压deb安装包,进入src目录,自己make下确认到底是哪里编译出错了。
0
cnml Floor 函数有最大数值的约束么?
我的回复:INT8、INT16表示的数是离散的,值越大,离散度越高,当值很大的时候,用INT8、INT16表示,很大一段范围内的值都会是同一个数,所以你遇到的现象是正常的。
0
yolov5 项目 训练的resnet18.pt 如何在寒武纪上量化移植
我的回复:可以使用torch_mlu.core.mlu_quantize.quantize_dynamic_mlu自己量化,具体可参考寒武纪PyTorch使用手册。
0
MLU220支持的精度类型有哪些?
我的回复:Conv和MLP运算只支持INT8和INT16,激活、Softmax等支持FP16和FP32
0
上一页
1
2
3
4
5
6
7
8
9
10
..
23
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭