切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
cpj
18
积分
0
赞
1
帖子
9
回复
0
收藏
TA的动态
TA的帖子
TA的回复
模型转换
我的回复:#5lanhao回复目前github上的官方模型都是基于torch1.7的,我们的sdk是torch1.3, 所以需要将官方的原始模型转换为torch1.3的模型展开明白了,也就是拿yolov5s_1.3a.pt模型,进行量化和推理,在推理的过程中就可以转为离线模型进行保存。
0
模型转换
我的回复:#2zhaodeming回复第(2)个问题中,在mlu220上进行离线推理,需要使用MLU270的硬件环境进行离线模型生成(因为220没有相应的SDK,只能进行推理功能)。另外,cpu不能直接转换生成离线模型,需要使用以下语句进行配合生成。 quantized_net = torch.jit.trace(quantized_net, trace_input, check_trace = False)pred = quantized_net(trace_input)展开也就是说我我得再搞块MLU270的卡专用用于模型转换
0
模型转换
我的回复:#1zhaodeming回复您好,第(1)个问题中的移植说明是指哪个文件呢,另外能否再详细的描述下这个问题呢您好! 我参照的是这个文档https://developer.cambricon.com/index/curriculum/expdetails/classid/8/id/10.html -3. 模型量化 ”对已有的yolov5s_1.3a.pt模型文件进行量化“ ---这个里面的yolov5s_1.3a.pt是怎么来的?是要基于Cambricon-PyTorch来训练,还是可以直接通过原生的yolov5s.pt进行转换
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭