切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
ld
37
积分
0
赞
3
帖子
13
回复
0
收藏
TA的动态
TA的帖子
TA的回复
离线推理怎么将输入设置成半精度类型
我的回复:#7mcj回复谢谢指点,问题找到了,之前问题我可能没有说清楚,之前我是打算先通过cnrtMemcpy将数据放到mlu上然后再通过cnrtCastDataType将Float32的数据转成Float16。现在把这两个操作的顺序改了一下就可以了。但是为什么得这样操作的原因还是不太清楚。展开cnrtCastDataType不支持mlu内存数据转换,支持cpu数据转换
0
cambricon模型结果相差很大
我的回复:#6zhangyanting回复您好,我们暂未开放相关工作群,如果您需要相关技术服务,请联系我们销售人员sales@cambricon.com;能否贴一下您在量化模型时使用的具体配置?展开我的量化结果和cpu差距不是很大,是使用torch.jit.trace生成离线模型的时候结果不对,而且每次结果都不一样。
0
cambricon模型结果相差很大
我的回复:#4ld回复或者留个微信还是工作群,方便交流下不然论坛发帖回复要等一天
0
cambricon模型结果相差很大
我的回复:#2zhangyanting回复您好,在使用mlu推理时,我们把数据从INT64转为INT32,不影响推理结果的正确性,可以忽略该警告;您可以尝试一下不进行量化生成magicmind模型进行推理,看看结果是否正确。展开或者留个微信还是工作群,方便交流下
0
cambricon模型结果相差很大
我的回复:#2zhangyanting回复您好,在使用mlu推理时,我们把数据从INT64转为INT32,不影响推理结果的正确性,可以忽略该警告;您可以尝试一下不进行量化生成magicmind模型进行推理,看看结果是否正确。展开magicmind开发包怎么获取啊,我的卡是270的
0
cambricon模型结果相差很大
我的回复:每次生成cambricon模型测试输出结果还不一样
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭