切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
shimin.an
58
积分
1
赞
6
帖子
23
回复
2
收藏
TA的动态
TA的帖子
TA的回复
MLU270 yolov5s移植精度问题
我的回复:问题已解
0
MLU270 yolov5s移植精度问题
我的回复:按照链接:https://github.com/CambriconECO/Pytorch_Yolov5_Inference/tree/eb36b68e5a4ee3fe23c45ec545bef68dced452bb 在MLU270上推理测试,画框正常了,但是保存离线模型后,使用官方pytorch docker镜像,yolov5离线推理程序推理出的结果计算mAP很低:保存离线模型:if opt.jit: if opt.save: ct.save_as_cambricon('yolov5s') torch.set_grad_enabled(False) ct.set_core_number(1) trace_input = torch.randn(1, 3, 640, 640, dtype=torch.float) trace_input = trace_input.to(ct.mlu_device()) quantized_net = torch.jit.trace(quantized_net, trace_input, check_trace = False)拷贝离线模型并切换路径:/torch/src/catch/examples/offline/build/yolov5离线推理:./yolov5_offline_multicore -offlinemodel yolov5s.cambricon -dataset_path /torch/src/catch/examples/data/COCO2017_5000/coco -images /torch/src/catch/examples/data/COCO2017_5000/coco/val2017.txt -labels ./label_map_coco.txt -simple_compile 1 -input_format 0计算meanAP:python3 ../../scripts/meanAP_COCO.py --file_list /torch/src/catch/examples/data/COCO2017_5000/coco/val2017.txt --result_dir ./ --ann_dir /torch/src/catch/examples/data/COCO2017_5000/coco结果:麻烦帮看看,有可能是什么原因导致的?
0
MLU270 yolov5s移植精度问题
我的回复:感谢回复~数据:图:保存为离线模型后,使用pytorch离线模型检测网络meanAP计算脚本,测试mAP非常低。
0
MLU270能支持Swin Transformer移植吗?
我的回复:#1HelloAI回复1、不支持Swin Transformer2、不会再更新版本了,如果您有需求,可联系客户经理,申请增量定制开发展开好的,谢谢~
0
MLU270 当前官网版本能支持FFT吗?
我的回复:#1fcam回复MLU270不支持FFT。MLU370 可以支持FFT。好的,谢谢~
0
torch.cosine_similarity 使用报错
我的回复:#4HelloAI回复MLU3系列的版本也还没有支持torch.cosine_similarity这个算子,您的需求我们会评估是否加入到后续的版本计划中,谢谢。展开了解了,谢谢~
0
torch.cosine_similarity 使用报错
我的回复:#2HelloAI回复虽然CNML有cnmlCreateCosSimilarityOp,但是寒武纪维护的PyTorch并没有适配torch.cosine_similarity这个算子,所以这里会出现如上的问题。展开谢谢回复,后面有没有更新的版本适配呢,MLU3系列版本可以用吗?
0
用示例代码和模型跑在MLU220_M.2上 memory报错
我的回复:#1QiuJiang回复你好,从报错看可能是220内存不够无法生成yolov5的离线模型。一般情况下,请使用MLU270生成220的离线模型,然后在220上去部署,目前不推荐在220上直接生成离线模型。展开了解了,谢谢~
1
MLU220 请教yolov5s6 量化问题及部署推理问题
我的回复:请教下,MLU220上部署yolov5s-6.0时,有没有遇到流程正常未报错,但是离线模型无法生成的情况?quantized_net = torch_mlu.core.mlu_quantize.quantize_dynamic_mlu(model)state_dict = torch.load("./yolov5s_int8.pt") quantized_net.load_state_dict(state_dict, strict=False) ct.set_core_version('MLU220') quantized_net.eval().float()quantized_net.to(ct.mlu_device()) if opt.jit: print("### jit") ct.save_as_cambricon('yolov5s_int8_1_4') torch.set_grad_enabled(False) ct.set_core_number(4) trace_input = torch.randn(1, 3, 640, 640, dtype=torch.float).to(ct.mlu_device()) net = torch.jit.trace(quantized_net, trace_input, check_trace = False) #net(trace_input) ct.save_as_cambricon("")
1
tensorflow-mlu v2.1.0
我的回复:#5QiuJiang回复2.1.0目前主要用在第三代产品的训练/推理上,不主要支持第二代产品,如果您使用220/270建议使用1.15.4,如果使用370产品,可以找对接你的销售人员获取2.1.0,AI Repo 没有开放2.1.0。展开感谢
0
上一页
1
2
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭