切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
htujun
91
积分
1
赞
6
帖子
90
回复
2
收藏
TA的动态
TA的帖子
TA的回复
【经验总结】Yolov5移植流程指南
我的回复:#14kikyo回复在线融合和离线的精度基本是一致的,排查下前处理部分在寒武纪mlu270平台上生成yolov5模型离线文件,先进行int8量化后,后逐层或者融合,输出的目标框变得不准,目标框变大,且出现很多重复的框。
10
【经验总结】Yolov5移植流程指南
我的回复:在寒武纪mlu270平台,yolov5 int8量化后,再逐层或者融合,输出目标框变得不准,目标框变大
10
【经验总结】Yolov5移植流程指南
我的回复:在寒武纪mlu270平台,yolov5 int8量化后,再逐层或者融合,输出目标框变得不准,目标框变大
10
【经验总结】Yolov5移植流程指南
我的回复:在寒武纪mlu270平台,yolov5 int8量化后,再逐层或者融合,输出目标框变得不准,目标框变大
10
【经验总结】Yolov5移植流程指南
我的回复:在寒武纪mlu270平台,yolov5 int8量化后,再逐层或者融合,输出目标框变得不准,目标框变大
10
在torch_mlu 1.3 环境下,yolov5在有mlu270设备做量化,逐层,融合后,把cambricon模型移植mlu220后,报错为设备核心不兼容。
我的回复:#1andy_marvelous回复您好,生成离线模型时,cnmlSetFusionOpCoreVersion内的coreVersion需要指定为CNML_MLU220展开在寒武纪mlu270平台,yolov5 int8量化后,再逐层或者融合,输出目标框变得不准,目标框变大; 问题链接:http://forum.cambricon.com/index.php?m=content&c=index&a=show&catid=38&id=1230
0
在torch_mlu 1.3 环境下,yolov5在有mlu270设备做量化,逐层,融合后,把cambricon模型移植mlu220后,报错为设备核心不兼容。
我的回复:#14lanhao回复是的,220模型在270上的推理是不准确的在寒武纪mlu270平台,yolov5 int8量化后,再逐层或者融合,输出目标框变得不准,目标框变大; 问题链接:http://forum.cambricon.com/index.php?m=content&c=index&a=show&catid=38&id=1230
0
在torch_mlu 1.3 环境下,yolov5在有mlu270设备做量化,逐层,融合后,把cambricon模型移植mlu220后,报错为设备核心不兼容。
我的回复:#14lanhao回复是的,220模型在270上的推理是不准确的在加个问题,在mlu270上生成xxx.cambricon模型的大小要比在mlu220上生成xxx.cambricon模型要大点,大个 1.x mb,不知具体原因;
0
在torch_mlu 1.3 环境下,yolov5在有mlu270设备做量化,逐层,融合后,把cambricon模型移植mlu220后,报错为设备核心不兼容。
我的回复:#14lanhao回复是的,220模型在270上的推理是不准确的嗯嗯,非常感谢,我验证了,你是说的是正确的;还有个问题,若在mlu270上做移植,同样torch_mlu 1.3 ct.set_core_version(“MLU220”),先 mlu270平台上量化,逐层,融合后,在把cambricon模型移植mlu220上部署也是可以的吧;
0
在torch_mlu 1.3 环境下,yolov5在有mlu270设备做量化,逐层,融合后,把cambricon模型移植mlu220后,报错为设备核心不兼容。
我的回复:#11lanhao回复如果在使用pytorch生成220模型时报这个warning是正常的# 融合后的网络模型,已设置ct.set_core_version(“MLU220”) quantized_net = torch.jit.trace(quantized_net,input_mlu_data,check_trace = False) # 融合后网络输出预测pred的不正确,乱框; pred = quantized_net(img)[0] pred=pred.data.cpu().type(torch.FloatTensor)
0
上一页
1
2
3
4
5
6
7
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭