切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
雕刻时光
40
积分
0
赞
3
帖子
25
回复
0
收藏
TA的动态
TA的帖子
TA的回复
P2PNet模型移植出错,报错RuntimeError: CNRT error: Failure on Queue.
我的回复:#8浪漫土狗回复[图片]P2PNet.zip您好,这边试试用附件中的代码(量化+推理),我这边在0.16.0的docker上跑时可以生成离线模型的。展开目前最新版是0.15.0的,用你这个附件内容在这个docker中转换依然报错
0
P2PNet模型移植出错,报错RuntimeError: CNRT error: Failure on Queue.
我的回复:#8浪漫土狗回复[图片]P2PNet.zip您好,这边试试用附件中的代码(量化+推理),我这边在0.16.0的docker上跑时可以生成离线模型的。展开我这边无0.16.0的pytorch docker
0
attention_ocr的tensorflow版本移植bug
我的回复:这两个pb模型都能在pc端推理出结果,且结果一致
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#8含含回复可以调整下量化参数,如 更改成INT16。这个已经是INT16的量化了
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:量化模型检查,存在scale该key,部分信息如下model.75.conv.weightmodel.75.conv.biasmodel.75.conv.scalemodel.75.conv.quantized_mode : scale = tensor([2], dtype=torch.int32)model.76.conv.weightmodel.76.conv.biasmodel.76.conv.scalemodel.76.conv.quantized_mode : scale = tensor([2], dtype=torch.int32)
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:dif.txt你好,我按照10.2精度调试测试的结果记录在附件dif.txt中,MLU在线推理(加载的量化模型),CPU推理,模拟量化推理工具进行推理.其中MLU在线推理和CPU推理一致,且这二者均和模拟量化推理不一致,在dump逐层对比中,余弦相似度似乎差异较大
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#3含含回复可以尝试基于框架去运行该模型,逐层DUMP下CPU和MLU的运行结果。逐层dump 可以参看《寒武纪 PyTorch 用户手册》10.2 精度调试工具展开逐层对比后是这样的
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#3含含回复可以尝试基于框架去运行该模型,逐层DUMP下CPU和MLU的运行结果。逐层dump 可以参看《寒武纪 PyTorch 用户手册》10.2 精度调试工具展开我转模型的在线推理在370卡上不只是输出框MLU和CPU一致,甚至网络的输出数值都相差不大,但是转离线模型部署在220盒子上就出问题了,这个采用精度调试工具应该无法定位吧
0
【PyTorch YOLOv7】推理的conf数值异常
我的回复:#1含含回复问题没太看清楚,是生成的Yolov7模型在220 运行结果异常?现在Yolov7的是后处理是怎么处理的?是否使用DetectionOutput算子?展开YOLOv7在盒子端220运行是异常的,但是在线模型370结果是正常的,转模型的输出为3个特征图,没有采用DetectionOutput算子
0
P2PNet模型移植出错,报错RuntimeError: CNRT error: Failure on Queue.
我的回复:#5踏雪寻梅回复尊敬的开发者您好,我们会安排人力进行分析。有查到原因吗?
0
上一页
1
2
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭