打开微信,使用扫一扫进入页面后,点击右上角菜单,
点击“发送给朋友”或“分享到朋友圈”完成分享
模型量化会有精度下降,未量化前的模型检测结果正常,量化后就发生漏检,想问下MLU220有没有减少精度损失的方法。
我该如何定位到损失较大层,并微调该层参数使量化的模型精度正常
MLU220支持外部产生量化模型吗,比如量化感知训练产生的模型
试过resnet18主干的dbnet其量化后模型检测效果是正常的而MobilenetV3主干的就会漏检,实在想不到有啥方法可以解决这个问题
如图所示fp32 moblienetv3 主干dbnet pytorch模型检测效果如下:
量化以后左下角发生了漏检:
热门帖子
精华帖子