切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
FrostLee
79
积分
0
赞
7
帖子
43
回复
0
收藏
TA的动态
TA的帖子
TA的回复
yolov5模型基于CNStream框架使用CNCV前处理报错
我的回复:#3fcam回复[图片]可以看库的后缀 ,另外你的driver是4.6 ?[图片]或者cncv和toolkit都可以看deb包的名字,有显示版本号展开镜像的环境搭建应该不是通过deb安装的,都是so库直接拷贝来用的,我只能贴一下CNStream程序依赖库的信息:linux-vdso.so.1 (0x0000ffff9ae6a000) libcnstream_va.so.6.2.0 => /root/CNStream_target/lib/libcnstream_va.so.6.2.0 (0x0000ffff9a8b2000) libcnstream_core.so.6.2.0 => /root/CNStream_target/lib/libcnstream_core.so.6.2.0 (0x0000ffff9a69f000) libeasydk.so.3 => /root/CNStream_target/lib/libeasydk.so.3 (0x0000ffff9a592000) libopencv_highgui.so.3.4 => /root/CNStream_target/lib/libopencv_highgui.so.3.4 (0x0000ffff9a579000) libopencv_features2d.so.3.4 => /root/CNStream_target/lib/libopencv_features2d.so.3.4 (0x0000ffff9a4e5000 ) libgflags.so.2.2 => /root/CNStream_target/lib/libgflags.so.2.2 (0x0000ffff9a4c4000) libglog.so.0 => /root/CNStream_target/lib/libglog.so.0 (0x0000ffff9a477000) libpthread.so.0 => /lib/aarch64-linux-gnu/libpthread.so.0 (0x0000ffff9a44b000) libdl.so.2 => /lib/aarch64-linux-gnu/libdl.so.2 (0x0000ffff9a436000) libopencv_flann.so.3.4 => /root/CNStream_target/lib/libopencv_flann.so.3.4 (0x0000ffff9a3d3000) libcnrt.so => /root/CNStream_target/lib/libcnrt.so (0x0000ffff99bcf000) libcndrv.so => /root/CNStream_target/lib/libcndrv.so (0x0000ffff99acc000) libcncodec.so => /root/CNStream_target/lib/libcncodec.so (0x0000ffff99a4b000) libion.so => /root/CNStream_target/lib/libion.so (0x0000ffff99a39000) libcncv.so.0.4.602 => /root/CNStream_target/lib/libcncv.so.0.4.602 (0x0000ffff97e85000) libopencv_videoio.so.3.4 => /root/CNStream_target/lib/libopencv_videoio.so.3.4 (0x0000ffff97e45000) libopencv_imgcodecs.so.3.4 => /root/CNStream_target/lib/libopencv_imgcodecs.so.3.4 (0x0000ffff97d24000) libopencv_imgproc.so.3.4 => /root/CNStream_target/lib/libopencv_imgproc.so.3.4 (0x0000ffff979ac000) libopencv_core.so.3.4 => /root/CNStream_target/lib/libopencv_core.so.3.4 (0x0000ffff97714000) libavcodec.so.58 => /root/CNStream_target/lib/libavcodec.so.58 (0x0000ffff96549000) libavformat.so.58 => /root/CNStream_target/lib/libavformat.so.58 (0x0000ffff96331000) libavutil.so.56 => /root/CNStream_target/lib/libavutil.so.56 (0x0000ffff962bb000) libswscale.so.5 => /root/CNStream_target/lib/libswscale.so.5 (0x0000ffff9624e000) libswresample.so.3 => /root/CNStream_target/lib/libswresample.so.3 (0x0000ffff9623c000) libliveMedia.so.81 => /root/CNStream_target/lib/libliveMedia.so.81 (0x0000ffff96107000) libUsageEnvironment.so.3 => /root/CNStream_target/lib/libUsageEnvironment.so.3 (0x0000ffff960f4000) libBasicUsageEnvironment.so.1 => /root/CNStream_target/lib/libBasicUsageEnvironment.so.1 (0x0000ffff960d a000) libgroupsock.so.8 => /root/CNStream_target/lib/libgroupsock.so.8 (0x0000ffff960ae000) libSDL2-2.0.so.0 => /root/CNStream_target/lib/libSDL2-2.0.so.0 (0x0000ffff95f45000) librdkafka.so.1 => /root/CNStream_target/lib/librdkafka.so.1 (0x0000ffff95cc1000) librt.so.1 => /lib/aarch64-linux-gnu/librt.so.1 (0x0000ffff95caa000) libstdc++.so.6 => /usr/lib/aarch64-linux-gnu/libstdc++.so.6 (0x0000ffff95b16000) libm.so.6 => /lib/aarch64-linux-gnu/libm.so.6 (0x0000ffff95a5d000) libgcc_s.so.1 => /lib/aarch64-linux-gnu/libgcc_s.so.1 (0x0000ffff95a37000) libc.so.6 => /lib/aarch64-linux-gnu/libc.so.6 (0x0000ffff958dd000) /lib/ld-linux-aarch64.so.1 (0x0000ffff9ae3f000) libjpu.so => /root/CNStream_target/lib/libjpu.so (0x0000ffff958b6000)
0
关于CNStream解码速率问题
我的回复:#2三叶虫回复您好,因已超期,您侧未更新回复信息,此帖超时关闭,后续遇到问题,请您发起新帖,版主会及时分析处理。好的,谢谢。
0
yolov5模型基于CNStream框架使用CNCV前处理报错
我的回复:#1fcam回复请补充 cnstream cntoolkit cncv 版本信息CNSTREAM VERSION:v6.2.0 其他两个版本咋看,跑sample也没有打印。
0
yolov5模型量化问题
我的回复:#6三叶虫回复请问您现在问题解决了吗?解决了解决了。
0
寒武纪支持pytorch量化感知训练后的模型吗?
我的回复:#1JCBCam回复220只能接受普通的fp32 pytorch模型好,谢谢。
0
寒武纪支持pytorch量化感知训练后的模型吗?
我的回复:#2fcam回复您好,MLU220不支持QAT训练后的量化模型。好的,谢谢。
0
yolov5模型量化问题
我的回复:#4fcam回复报错代码位置只是在load模型(CPU)阶段,和MLU没有任何关系。从提供的log信息看,没有发现model和checkpoint size不匹配,这个比较奇怪。如果怀疑和MLU相关,可以注释掉量化代码和其他MLU相关代码,先排查单纯的模型load是否有问题。展开你说得对,还没调用MLU的接口,这里错误是因为使用非量化模型加载了量化参数导致的错误。
0
yolov5模型量化问题
我的回复:量化代码如下:def quantification(imgfile, mlu220 = False): with torch.no_grad(): ckpt = torch.load(opt.weight, map_location=torch.device('cpu')) # load checkpoint state_dict = ckpt['model'] if 'model' in ckpt else ckpt model = Model(img_sizes = opt.img_size, conf_thres = 0.2, nms_thres = 0.4, maxBoxNum=1024, cfg=opt.cfg, ch=3, mlu_postprocess= opt.mlu_postprocess).to(torch.device('cpu')) # create model.load_state_dict(state_dict, strict=False) # load model.eval().float().fuse() model = model.to(torch.device('cpu')) model = mlu_quantize.quantize_dynamic_mlu(model, { 'iteration':1000,'mean': mean, 'std': std, 'data_scale':1.0, 'firstconv': mlu220,'perchannel':True, 'use_avg':False }, dtype='int8', gen_quant=True ) calibration(model, "./coco-eval",20) torch.save(model.state_dict(), save_path)
0
转换fasestdet模型报错
我的回复:#14含含回复1. 关于.data, .data是早期torch的用法,.data和.detach()框架内部的运算是不一样的2. 生成的离线模型会包括运行指令,会比.pt 大一些展开感谢感谢。
0
转换fasestdet模型报错
我的回复:#12含含回复可以尝试修改下代码将.data 更换成.detach:diff --git a/module/shufflenetv2.py b/module/shufflenetv2.pyindex 89d0eb7..80cd875 100644--- a/module/shufflenetv2.py+++ b/module/shufflenetv2.py@@ -54,7 +54,8 @@ class ShuffleV2Block(nn.Module): return torch.cat((self.branch_proj(x_proj), self.branch_main(x)), 1) def channel_shuffle(self, x):- batchsize, num_channels, height, width = x.data.size()+ #batchsize, num_channels, height, width = x.data.size()+ batchsize, num_channels, height, width = x.detach().size() assert (num_channels % 4 == 0) x = x.reshape(batchsize * num_channels // 2, 2, height * width) x = x.permute(1, 0, 2)展开按你说的修改,或者把“.data”去掉就能转换成功了,这是为什么?另外,转换完的.cambricon为啥比原来的.pt文件还大?
0
上一页
1
2
3
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭