切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
ld
37
积分
0
赞
3
帖子
13
回复
0
收藏
TA的动态
TA的帖子
TA的回复
离线推理怎么将输入设置成半精度类型
我的回复:#7mcj回复谢谢指点,问题找到了,之前问题我可能没有说清楚,之前我是打算先通过cnrtMemcpy将数据放到mlu上然后再通过cnrtCastDataType将Float32的数据转成Float16。现在把这两个操作的顺序改了一下就可以了。但是为什么得这样操作的原因还是不太清楚。展开cnrtCastDataType不支持mlu内存数据转换,支持cpu数据转换
0
cambricon模型结果相差很大
我的回复:#6zhangyanting回复您好,我们暂未开放相关工作群,如果您需要相关技术服务,请联系我们销售人员sales@cambricon.com;能否贴一下您在量化模型时使用的具体配置?展开我的量化结果和cpu差距不是很大,是使用torch.jit.trace生成离线模型的时候结果不对,而且每次结果都不一样。
0
cambricon模型结果相差很大
我的回复:#4ld回复或者留个微信还是工作群,方便交流下不然论坛发帖回复要等一天
0
cambricon模型结果相差很大
我的回复:#2zhangyanting回复您好,在使用mlu推理时,我们把数据从INT64转为INT32,不影响推理结果的正确性,可以忽略该警告;您可以尝试一下不进行量化生成magicmind模型进行推理,看看结果是否正确。展开或者留个微信还是工作群,方便交流下
0
cambricon模型结果相差很大
我的回复:#2zhangyanting回复您好,在使用mlu推理时,我们把数据从INT64转为INT32,不影响推理结果的正确性,可以忽略该警告;您可以尝试一下不进行量化生成magicmind模型进行推理,看看结果是否正确。展开magicmind开发包怎么获取啊,我的卡是270的
0
cambricon模型结果相差很大
我的回复:每次生成cambricon模型测试输出结果还不一样
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭