切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
barce
18
积分
0
赞
1
帖子
3
回复
0
收藏
TA的动态
TA的帖子
TA的回复
模型量化后结果出错
我的回复:#2HelloAI回复fp_to_int实现的量化过程不对。首先,量化的过程并不是调用mlu_quantize.quantize_dynamic_mlu()完成的,这一步只是传递了一些配置而已。量化的原理其实是在CPU上用一部分样本运行推理过程,从而在推理过程中统计各层的参数和input的数值范围,从而计算出最匹配的量化校准参数。所以需要在这一步之后,按照正常的流程,用部分真实的输入样本去推理若干次,然后再去save()才能得到量化校准后的模型。展开谢谢,问题已解决
0
模型量化后结果出错
我的回复:更新下:离线模型使用 model.load_state_dict 结果正确,离线模型使用net = mlu_quantize.quantize_dynamic_mlu(model) 加载,结果不对; 麻烦知道的解答下
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭