切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
QiuJiang
106
积分
8
赞
5
帖子
23
回复
3
收藏
TA的动态
TA的帖子
TA的回复
torch.jit.trace生成离线模型报错
我的回复:您好,抱歉之前漏掉这个问题的回复。我们仔细查看了报错信息,没有明确报错的位置,通过回复中粘贴的代码因为缺少 src.models 源码而无法复现,如果您目前仍然需要解决此问题:1、请将整个源码包提交给我们;2、请告知你的SDK版本;3、请告知你的加速卡硬件型号。
0
模型在融合模式下报错
我的回复:#3QiuJiang回复你好,步骤看上去没有问题。如果方便,请重新开一个贴,上传您的所有代码和模型文件,我们内部调试一下问题。也可将您的代码上传至github/百度云等我们可以下载的地方。方便快速解决,请重新开贴提供下载链接并描述清楚问题。
0
模型在融合模式下报错
我的回复:#2mcj回复[图片][图片]你好,步骤看上去没有问题。如果方便,请重新开一个贴,上传您的所有代码和模型文件,我们内部调试一下问题。
0
mlu270与370驱动能否共存
我的回复:#5誓约回复目的:想装370的驱动驱动包名称:cambricon-mlu-driver-ubuntu18.04-dkms_4.20.7_amd64.deb操作系统版本号:gcc version 7.5.0 (Ubuntu 7.5.0-3ubuntu1~18.04)操作系统kernel: Linux version 5.4.0-107-generic (buildd@lcy02-amd64-070)CPU: x86_64 GNU/Linux[图片]展开看上去是因为您的系统内核版本太高了,驱动包支持情况:• CentOS 系统,驱动安装包名称为 cambricon‑mlu‑driver‑centos*‑***‑1.x86_64.rpm, 支持 CentOS 7.4(3.10.0‑693)、CentOS 7.6(3.10.0‑957)。 • Ubuntu 系 统 和 Debian 系 统, 驱 动 安 装 包 名 称 为 cambricon‑mlu‑driver‑ubuntu**‑ dkms_***_amd64.deb,支持 Ubuntu 16.04(4.4.0‑112)、Ubuntu 18.04(4.15.0‑32)、Debian 10.1(4.19.0‑6)、Debian 9.8(4.14.138)。请您根据要求重新安装一下系统内核。
0
yolov5 int8量化后,再逐层,精度下降明显;
我的回复:#3htujun回复你好,谢谢你的答复,请问下这种情况是训练样本含有太多极小、小目标所导致的吗,我的理解是模型的参数偏向极小、小目标,且已经出现极端倾向性,导致int8后出现的参数出现较大跳跃,出现一定偏差导致,个人认为是这样,您认为具体原因是什么。展开从您的截图看,小目标的确很多,在经过网络的下采样之后,小目标的特征相对整张图的特征来说会更加不明显,在int8量化之后进一步降低了小目标特征的精度,所以出现了int8量化之后容易漏检的情况。目前除了int16暂时也没有更好的方法可以提高精度,寒武纪提供的量化方式里面还包含了eqnm量化方法,不敢保证对这种情况有用,但您有时间的话也可以尝试一下(文档:https://www.cambricon.com/docs/pytorch/pytorch_11_tools/Pytorch_tools.html?highlight=eqnm#id3 搜索关键词 eqnm ),他是一种开源的方法,可以网上了解其原理。
0
insmod cambricon-drv.ko模块出错Invalid parameters
我的回复:是270的卡吗?lspci | grep 0270 查看是否掉卡了,如果掉卡有几种可能:2) 板卡散热不好,超温导致掉卡;2)机器pcie插槽老化,建议换插槽/服务器 试试。
0
模型在融合模式下报错
我的回复:请将你的python代码截图上来,我们看看跑逐层和融合的过程是否正确。
0
mlu内存分配失败
我的回复:请查看代码是否有内存泄漏,分配内存失败前后,请cnmon观察内存使用情况。
0
yolov5 int8量化后,再逐层,精度下降明显;
我的回复:你好,针对小目标较多的场景,int8量化确实会带来一些比较明显的精度误差,这种情况建议使用int16,同时在量化时多使用几张真实图片去做量化(例如20张)
0
多卡推理
我的回复:你好,270目前不支持大模型推理,感谢你的使用。
0
上一页
1
2
3
4
5
6
7
8
9
10
..
12
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭