打开微信,使用扫一扫进入页面后,点击右上角菜单,
点击“发送给朋友”或“分享到朋友圈”完成分享
关于离线模型的batch size 优化,我经过测试发现,batch size的设置大小对与性能没有任何影响,这是什么原因呢?
ct.set_core_version("MLU220") ct.save_as_cambricon("yolov5s_int8") # trace_input = torch.randn(1, 3, 640, 640, dtype=torch.float)#设置batch size为1 trace_input = torch.randn(4, 3, 640, 640, dtype=torch.float)#设置batch size为4 trace_input=trace_input.to(ct.mlu_device()) quantized_net = torch.jit.trace(quantized_net, trace_input, check_trace = False)
我使用的是cnstream种的 tracking demo进行的测试
请教这可能是什么原因呢?
热门帖子
精华帖子