切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
hwj
81
积分
0
赞
1
帖子
2
回复
0
收藏
TA的动态
TA的帖子
TA的回复
VGG主干部分误差较大,求助
我的回复:请核对一下量化时候的参数及逐层运行时候的前处理参数是否正确,尤其校核预处理设置部分,另外,firstconv可以先关闭测试一下看看
1
在寒武纪上训练好的模型如何用于推理?
我的回复:#5ChinaCVNumberOne回复谢谢您,这样确实可以,所以训练时的量化与推理时的量化是两回事是吗?自适应量化模型保存成原生模型会对精度造成影响吗?展开保存成原生模型一般不会影响精度。推理时的量化为了效率可以选择int8/int16数据类型进行量化,这个量化过程会有部分精度损失;训练时候采用的是自适应量化,为了保证收敛性和训练精度,有时会自动切换到int32数据类型进行训练
1
在寒武纪上训练好的模型如何用于推理?
我的回复:#3ChinaCVNumberOne回复您好,对自适应量化层的量化应该怎么做?下面的代码显然键值是不对应的,我试着将模型结构转化成自适应量化模型再加载,但执行的时候会报RuntimeError: Didn't find kernel to dispatch to for operator 'torch_mlu::quantify_convolution'. Tried to look up kernel for dispatch key 'CPUTensorId'. Registered dispatch keys are: [MLUTensorId] (lookup_ at /data/v1.7.0/PyTorch/src/cambricon_pytorch/pytorch/src/pytorch/aten/src/ATen/core/dispatch/DispatchTable.h:249)的错误,如果把这个过程搬到MLU上执行,又会报[WARNING][/data/v1.7.0/PyTorch/src/cambricon_pytorch/pytorch/src/catch/torch_mlu/csrc/aten/operators/op_methods.cpp][line:3185][quantify_convolution][thread:140488953952000][process:96698]: quantify_convolution Op cannot run on MLU device, start running on CPU!ValueError: To do for CPU这样的错误。[代码]展开建议把训练出的模型先通过dequantize()接口保存为原始模型,使用原始的模型再使用图中的代码进行量化和融合。
1
faster rnn在docker镜像中量化问题
我的回复:#7lxjin200回复只是修改了一下num_classes,模型并未改变。 尝试了一下,发现确实是因为输入图像的shape问题,必须得要w和h相等且等于模型定义时候的shape才不会报错。 我们跑的数据是64*1024的,可以的话,能否方便告知如果要修改的话大概需要修改哪里?如何修改? 期待在未来版本中针对输入图像的size问题进行优化!展开您好,daocker里面的torchvison中faster rcnn这个模型做了定制修改,所以输入shape有了限制,您可以下载公版的模型量化验证一下,因为目前看来是cpu shape报错,这个和模型结构是绑定的。
0
faster rnn在docker镜像中量化问题
我的回复:#2lxjin200回复你好,版本是V0.15我们本地复现了一下,模型是torchvision预定义加载的,输入的w和h要求一样,不一样就会报错,不知您这份模型是不是自定义修改过,如果官方定义的模型,请确认模型是否和你的输入shape匹配
0
Tensorflow版本号
我的回复:你好,mlu220不支持模型量化,只进行部署用,请在270上进行量化调试,另外,cambricon软件栈支持的框架版本和使用的软件栈版本有关,具体支持信息您可以参考对应用户手册和relseae手册信息。
0
关于conv3d的使用
我的回复:#5陈叶飞回复感谢回复, 但是如原帖所述, 从HalfTensor到IntTensor都尝试过. 都有问题.您贴一下具体的log,上面的log被截断了,看不到具体的log信息
0
【Tensorflow_mlu】
我的回复:#2shibo_li回复我现在没有权限。谢谢您。可以在主页注册一下,通过后可以使用
0
【Tensorflow_mlu】
我的回复:https://cair.cambricon.com/#/home/resource?id=0ec6ab8d7f8145edbd78a2d0d4bcfc99&type=%E6%96%87%E4%BB%B6%E5%88%97%E8%A1%A8 这个链接下看是否有您需要的资源
0
NRAM中定义数组过大时,运行出错(不是编译链接出错)
我的回复:#4hxf0223回复你好,传参是帖子写的有问题。另外,没有递归调用。kernel_row_mul_addb是被两个for循环调用的,如果循环此说过多,申请的nram空间就会溢出,一般是一次申请循环使用,不会动态申请空间,就是说前期就规划好内存空间
0
上一页
1
2
3
4
5
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭