输入是fp32
没有相关的例子。如果设置INT16没有改善的话,那可能问题出在非量化算子的部分。输入是FP16还是FP32呢?
你好,我试过INT16的但没啥太大改善,你们有使用量化感知训练模型转正常模型文件部署的例子吗
INT8精度不够的话,可以试试INT16。另外,量化感知训练产生的模型,如果保存成正常格式的模型文件,也是可以的,这种模型的精度量化后应该损失更小。
INT8精度不够的话,可以试试INT16。
另外,量化感知训练产生的模型,如果保存成正常格式的模型文件,也是可以的,这种模型的精度量化后应该损失更小。
请登录后评论