切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
shimin.an
58
积分
1
赞
6
帖子
23
回复
2
收藏
TA的动态
TA的帖子
TA的回复
MLU270 yolov5s移植精度问题
我的回复:问题已解
0
MLU270 yolov5s移植精度问题
我的回复:按照链接:https://github.com/CambriconECO/Pytorch_Yolov5_Inference/tree/eb36b68e5a4ee3fe23c45ec545bef68dced452bb 在MLU270上推理测试,画框正常了,但是保存离线模型后,使用官方pytorch docker镜像,yolov5离线推理程序推理出的结果计算mAP很低:保存离线模型:if opt.jit: if opt.save: ct.save_as_cambricon('yolov5s') torch.set_grad_enabled(False) ct.set_core_number(1) trace_input = torch.randn(1, 3, 640, 640, dtype=torch.float) trace_input = trace_input.to(ct.mlu_device()) quantized_net = torch.jit.trace(quantized_net, trace_input, check_trace = False)拷贝离线模型并切换路径:/torch/src/catch/examples/offline/build/yolov5离线推理:./yolov5_offline_multicore -offlinemodel yolov5s.cambricon -dataset_path /torch/src/catch/examples/data/COCO2017_5000/coco -images /torch/src/catch/examples/data/COCO2017_5000/coco/val2017.txt -labels ./label_map_coco.txt -simple_compile 1 -input_format 0计算meanAP:python3 ../../scripts/meanAP_COCO.py --file_list /torch/src/catch/examples/data/COCO2017_5000/coco/val2017.txt --result_dir ./ --ann_dir /torch/src/catch/examples/data/COCO2017_5000/coco结果:麻烦帮看看,有可能是什么原因导致的?
0
MLU270 yolov5s移植精度问题
我的回复:感谢回复~数据:图:保存为离线模型后,使用pytorch离线模型检测网络meanAP计算脚本,测试mAP非常低。
0
MLU270能支持Swin Transformer移植吗?
我的回复:#1HelloAI回复1、不支持Swin Transformer2、不会再更新版本了,如果您有需求,可联系客户经理,申请增量定制开发展开好的,谢谢~
0
MLU270 当前官网版本能支持FFT吗?
我的回复:#1fcam回复MLU270不支持FFT。MLU370 可以支持FFT。好的,谢谢~
0
torch.cosine_similarity 使用报错
我的回复:#4HelloAI回复MLU3系列的版本也还没有支持torch.cosine_similarity这个算子,您的需求我们会评估是否加入到后续的版本计划中,谢谢。展开了解了,谢谢~
0
torch.cosine_similarity 使用报错
我的回复:#2HelloAI回复虽然CNML有cnmlCreateCosSimilarityOp,但是寒武纪维护的PyTorch并没有适配torch.cosine_similarity这个算子,所以这里会出现如上的问题。展开谢谢回复,后面有没有更新的版本适配呢,MLU3系列版本可以用吗?
0
用示例代码和模型跑在MLU220_M.2上 memory报错
我的回复:#1QiuJiang回复你好,从报错看可能是220内存不够无法生成yolov5的离线模型。一般情况下,请使用MLU270生成220的离线模型,然后在220上去部署,目前不推荐在220上直接生成离线模型。展开了解了,谢谢~
1
MLU220 请教yolov5s6 量化问题及部署推理问题
我的回复:请教下,MLU220上部署yolov5s-6.0时,有没有遇到流程正常未报错,但是离线模型无法生成的情况?quantized_net = torch_mlu.core.mlu_quantize.quantize_dynamic_mlu(model)state_dict = torch.load("./yolov5s_int8.pt") quantized_net.load_state_dict(state_dict, strict=False) ct.set_core_version('MLU220') quantized_net.eval().float()quantized_net.to(ct.mlu_device()) if opt.jit: print("### jit") ct.save_as_cambricon('yolov5s_int8_1_4') torch.set_grad_enabled(False) ct.set_core_number(4) trace_input = torch.randn(1, 3, 640, 640, dtype=torch.float).to(ct.mlu_device()) net = torch.jit.trace(quantized_net, trace_input, check_trace = False) #net(trace_input) ct.save_as_cambricon("")
1
tensorflow-mlu v2.1.0
我的回复:#5QiuJiang回复2.1.0目前主要用在第三代产品的训练/推理上,不主要支持第二代产品,如果您使用220/270建议使用1.15.4,如果使用370产品,可以找对接你的销售人员获取2.1.0,AI Repo 没有开放2.1.0。展开感谢
0
上一页
1
2
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭