切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
雕刻时光
40
积分
0
赞
3
帖子
25
回复
0
收藏
TA的动态
TA的帖子
TA的回复
P2PNet模型移植出错,报错RuntimeError: CNRT error: Failure on Queue.
我的回复:#8浪漫土狗回复[图片]P2PNet.zip您好,这边试试用附件中的代码(量化+推理),我这边在0.16.0的docker上跑时可以生成离线模型的。展开目前最新版是0.15.0的,用你这个附件内容在这个docker中转换依然报错
0
P2PNet模型移植出错,报错RuntimeError: CNRT error: Failure on Queue.
我的回复:#8浪漫土狗回复[图片]P2PNet.zip您好,这边试试用附件中的代码(量化+推理),我这边在0.16.0的docker上跑时可以生成离线模型的。展开我这边无0.16.0的pytorch docker
0
attention_ocr的tensorflow版本移植bug
我的回复:这两个pb模型都能在pc端推理出结果,且结果一致
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#8含含回复可以调整下量化参数,如 更改成INT16。这个已经是INT16的量化了
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:量化模型检查,存在scale该key,部分信息如下model.75.conv.weightmodel.75.conv.biasmodel.75.conv.scalemodel.75.conv.quantized_mode : scale = tensor([2], dtype=torch.int32)model.76.conv.weightmodel.76.conv.biasmodel.76.conv.scalemodel.76.conv.quantized_mode : scale = tensor([2], dtype=torch.int32)
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:dif.txt你好,我按照10.2精度调试测试的结果记录在附件dif.txt中,MLU在线推理(加载的量化模型),CPU推理,模拟量化推理工具进行推理.其中MLU在线推理和CPU推理一致,且这二者均和模拟量化推理不一致,在dump逐层对比中,余弦相似度似乎差异较大
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#3含含回复可以尝试基于框架去运行该模型,逐层DUMP下CPU和MLU的运行结果。逐层dump 可以参看《寒武纪 PyTorch 用户手册》10.2 精度调试工具展开逐层对比后是这样的
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#3含含回复可以尝试基于框架去运行该模型,逐层DUMP下CPU和MLU的运行结果。逐层dump 可以参看《寒武纪 PyTorch 用户手册》10.2 精度调试工具展开我转模型的在线推理在370卡上不只是输出框MLU和CPU一致,甚至网络的输出数值都相差不大,但是转离线模型部署在220盒子上就出问题了,这个采用精度调试工具应该无法定位吧
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#1含含回复问题没太看清楚,是生成的Yolov7模型在220 运行结果异常?现在Yolov7的是后处理是怎么处理的?是否使用DetectionOutput算子?展开YOLOv7在盒子端220运行是异常的,但是在线模型370结果是正常的,转模型的输出为3个特征图,没有采用DetectionOutput算子
0
P2PNet模型移植出错,报错RuntimeError: CNRT error: Failure on Queue.
我的回复:#5踏雪寻梅回复尊敬的开发者您好,我们会安排人力进行分析。有查到原因吗?
0
上一页
1
2
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭