切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
hwj
81
积分
0
赞
1
帖子
2
回复
0
收藏
TA的动态
TA的帖子
TA的回复
VGG主干部分误差较大,求助
我的回复:请核对一下量化时候的参数及逐层运行时候的前处理参数是否正确,尤其校核预处理设置部分,另外,firstconv可以先关闭测试一下看看
1
在寒武纪上训练好的模型如何用于推理?
我的回复:#5ChinaCVNumberOne回复谢谢您,这样确实可以,所以训练时的量化与推理时的量化是两回事是吗?自适应量化模型保存成原生模型会对精度造成影响吗?展开保存成原生模型一般不会影响精度。推理时的量化为了效率可以选择int8/int16数据类型进行量化,这个量化过程会有部分精度损失;训练时候采用的是自适应量化,为了保证收敛性和训练精度,有时会自动切换到int32数据类型进行训练
1
在寒武纪上训练好的模型如何用于推理?
我的回复:#3ChinaCVNumberOne回复您好,对自适应量化层的量化应该怎么做?下面的代码显然键值是不对应的,我试着将模型结构转化成自适应量化模型再加载,但执行的时候会报RuntimeError: Didn't find kernel to dispatch to for operator 'torch_mlu::quantify_convolution'. Tried to look up kernel for dispatch key 'CPUTensorId'. Registered dispatch keys are: [MLUTensorId] (lookup_ at /data/v1.7.0/PyTorch/src/cambricon_pytorch/pytorch/src/pytorch/aten/src/ATen/core/dispatch/DispatchTable.h:249)的错误,如果把这个过程搬到MLU上执行,又会报[WARNING][/data/v1.7.0/PyTorch/src/cambricon_pytorch/pytorch/src/catch/torch_mlu/csrc/aten/operators/op_methods.cpp][line:3185][quantify_convolution][thread:140488953952000][process:96698]: quantify_convolution Op cannot run on MLU device, start running on CPU!ValueError: To do for CPU这样的错误。[代码]展开建议把训练出的模型先通过dequantize()接口保存为原始模型,使用原始的模型再使用图中的代码进行量化和融合。
1
faster rnn在docker镜像中量化问题
我的回复:#7lxjin200回复只是修改了一下num_classes,模型并未改变。 尝试了一下,发现确实是因为输入图像的shape问题,必须得要w和h相等且等于模型定义时候的shape才不会报错。 我们跑的数据是64*1024的,可以的话,能否方便告知如果要修改的话大概需要修改哪里?如何修改? 期待在未来版本中针对输入图像的size问题进行优化!展开您好,daocker里面的torchvison中faster rcnn这个模型做了定制修改,所以输入shape有了限制,您可以下载公版的模型量化验证一下,因为目前看来是cpu shape报错,这个和模型结构是绑定的。
0
faster rnn在docker镜像中量化问题
我的回复:#2lxjin200回复你好,版本是V0.15我们本地复现了一下,模型是torchvision预定义加载的,输入的w和h要求一样,不一样就会报错,不知您这份模型是不是自定义修改过,如果官方定义的模型,请确认模型是否和你的输入shape匹配
0
Tensorflow版本号
我的回复:你好,mlu220不支持模型量化,只进行部署用,请在270上进行量化调试,另外,cambricon软件栈支持的框架版本和使用的软件栈版本有关,具体支持信息您可以参考对应用户手册和relseae手册信息。
0
关于conv3d的使用
我的回复:#5陈叶飞回复感谢回复, 但是如原帖所述, 从HalfTensor到IntTensor都尝试过. 都有问题.您贴一下具体的log,上面的log被截断了,看不到具体的log信息
0
【Tensorflow_mlu】
我的回复:#2shibo_li回复我现在没有权限。谢谢您。可以在主页注册一下,通过后可以使用
0
【Tensorflow_mlu】
我的回复:https://cair.cambricon.com/#/home/resource?id=0ec6ab8d7f8145edbd78a2d0d4bcfc99&type=%E6%96%87%E4%BB%B6%E5%88%97%E8%A1%A8 这个链接下看是否有您需要的资源
0
NRAM中定义数组过大时,运行出错(不是编译链接出错)
我的回复:#4hxf0223回复你好,传参是帖子写的有问题。另外,没有递归调用。kernel_row_mul_addb是被两个for循环调用的,如果循环此说过多,申请的nram空间就会溢出,一般是一次申请循环使用,不会动态申请空间,就是说前期就规划好内存空间
0
上一页
1
2
3
4
5
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2026 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭