切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
barce
18
积分
0
赞
1
帖子
3
回复
0
收藏
TA的动态
TA的帖子
TA的回复
模型量化后结果出错
我的回复:#2HelloAI回复fp_to_int实现的量化过程不对。首先,量化的过程并不是调用mlu_quantize.quantize_dynamic_mlu()完成的,这一步只是传递了一些配置而已。量化的原理其实是在CPU上用一部分样本运行推理过程,从而在推理过程中统计各层的参数和input的数值范围,从而计算出最匹配的量化校准参数。所以需要在这一步之后,按照正常的流程,用部分真实的输入样本去推理若干次,然后再去save()才能得到量化校准后的模型。展开谢谢,问题已解决
0
模型量化后结果出错
我的回复:更新下:离线模型使用 model.load_state_dict 结果正确,离线模型使用net = mlu_quantize.quantize_dynamic_mlu(model) 加载,结果不对; 麻烦知道的解答下
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭