切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
Gaoyujia
92
积分
3
赞
1
帖子
9
回复
0
收藏
TA的动态
TA的帖子
TA的回复
yolov5 量化参数加了firstconv = True 的量化后的离线模型,输入图片加载报错
我的回复:#14htujun回复你好,可以加个微信联系下吗,向您请教下,把问题解决了,这个问题很久没解决.可以,提供下您的帐号吧,我加您
0
cnstream无法调试debug版本的cns_launcher.cpp
我的回复:#4palmful回复你好,mlu270板卡,cnstream版本:V6.2.0,ubuntu20.04,使用官方cnstream动态库${CNSTREAM_DIR}/lib/*.so。测试同时推理两个视频文件(即在files.list_video中有两个demo.mp4)使用cmakelist编译cns_launcher.cpp,生成可执行文件,如果cmakelist中不加set(CMAKE_BUILD_TYPE "Debug")这一句,可执行文件可以正常运行,进行视频推理时两个结果结果均正常,但使用vscode无法debug可执行文件;在cmakelist中添加set(CMAKE_BUILD_TYPE "Debug")这一句,重新编译cns_launcher.cpp,可以使用vscode配置launch.json进行debug,在main函数debug过程中,到for (int i = 0; i < streams; i++, url_iter++)这一句时,程序卡住,卡在之前那个界面,无法继续debug下一句,此时关闭程序,直接运行可执行文件,程序也是卡在之前那个界面。只有重启电脑,重新编译debug版本,不debug程序,直接运行可执行文件,程序才正常运行;但是一旦进行debug,就会出现上述错误。另外,不知道您说的"另外,建议编译debug版本时,使用 cmake .. -DCMAKE_BUILD_TYPE=DEBUG 的方式"是否是指编译cnstream时加上这一句,以编译debug版本的cnstream?因为我编译运行debug版本的cns_launcher.cpp时没有用到这一句展开1,首先cnstream仅支持到ubuntu18.04,没有对ubuntu20.04进行过适配。2,编译时,在cmake这一步直接通过编译选项传入。也就是 cmake .. -DCMAKE_BUILD_TYPE=DEBUG3,可以尝试直接在terminal上gdb进行程序进行debug。在run.sh脚本中,在调用可执行文件前面加 gdb --args如下: gdb --args ${SAMPLE_DIR}/bin/cns_laucnher ........然后执行run.sh,再进行调试
0
cnstream无法调试debug版本的cns_launcher.cpp
我的回复:#2palmful回复好的,感谢回复您好,我这边没有复现到。能提供一下详细的复现条件吗。包括板卡类型,系统版本,编译方式,调试方式等。另外,建议编译debug版本时,使用 cmake .. -DCMAKE_BUILD_TYPE=DEBUG 的方式
0
yolov5 量化参数加了firstconv = True 的量化后的离线模型,输入图片加载报错
我的回复:#7htujun回复报错补充:“c” should be 3,but 4cnstream提供的示例前处理是和仓库中的模型对应的,你可以在原来的基础上进行修改。或者参考示例自定义自己的前处理类。当前报错是因为,VideoPreprocYolov5类只适用于不加firstconv的yolov5网络。如果加了firstconv需要:1,修改以下判断。2,修改前处理逻辑(模型输入为U8,并且不再需要mean std)VideoPreprocYolov5::Execute()中,将3改为4if (input_shape[c_idx] != 3) {LOGE(DEMO) << "[VideoPreprocYolov5] model input shape not supported, `c` should be 3, but " << input_shape[c_idx];return false;}
0
yolov5 量化参数加了firstconv = True 的量化后的离线模型,输入图片加载报错
我的回复:#4htujun回复修改json配置文件的model_input_pixel_format : RGBA、BGRA、ARGB、ABGR还会报错,请问下具体如何修改。展开根据log打印判断,设置的model_input_pixel_format和模型的输入shape的c通道不符合报错。麻烦再确认下,设置的value是 RGBA32/BGRA32/ARGB32/ABGR32 吗?(要加32)需根据模型输入pixel format设置model_input_pixel_format,假设为RGBA32, Inferencer2模块的配置如下:"model_input_pixel_format": "RGBA32"
0
MLU220-SOM基于CNStream框架解码rtsp流再推流测试中出现掉帧严重,帧损坏,且推流视频卡顿,出现灰屏的问题。
我的回复:首先输入源如果为rtsp流的时候,后续pipeline的处理速度如果低于rtsp流喂给pipeline的速度。那么cnstream会将一些rtsp流的数据丢掉,这个时候就可能会出现损坏帧的报错。那么,我们需要提高pipeline的性能来解决这个问题。pipeline中只有解码+RtspSink两个模块。1,解码应该不是性能瓶颈,220上解码1080P的性能应该在1000fps左右。2,RtspSink模块可能是瓶颈。我们需要给这个模块设置一个参数 "input_frame" : "mlu" 参数来避免内存的搬运。如果如果上述作法依然无法达到你的rtsp流的速度,那么就需要考虑丢帧是否是可以容忍的。如果可以的话,在DataSource模块丢帧是一个好的选择,通过设置“interval” : "2"参数,每2帧处理一帧。也可以设置更大。例如设置为4则代表每4帧处理一帧
0
MLU220-SOM基于CNStream框架解码rtsp流再推流测试中出现掉帧严重,帧损坏,且推流视频卡顿,出现灰屏的问题。
我的回复:首先输入源如果为rtsp流的时候,后续pipeline的处理速度如果低于rtsp流喂给pipeline的速度。那么cnstream会将一些rtsp流的数据,这个时候就可能会出现损坏帧的报错。那么,我们需要提高pipeline的性能来解决这个问题。pipeline中只有解码+RtspSink两个模块。1,解码应该不是性能瓶颈,220上解码1080P的性能应该在1000fps左右。2,RtspSink模块可能是瓶颈。我们需要给这个模块设置一个参数 "input_frame" : "mlu" 来避免内存的搬运。如果上述作法依然无法达到你的rtsp流的速度,那么就需要考虑丢帧是否是可以容忍的。如果可以的话,我们可以在DataSource插件丢帧,通过设置 "interval": "2" 每两帧丢一帧。
0
怎样提升MLU220 4k解码 推理性能?
我的回复:“实测结果 解码13fps,影响追踪,识别率为0.”解码会受到参考帧以及复用buffer影响,单路4k解码应该不是性能瓶颈。追踪的识别率为0,是什么原因导致的还需要查一下,除非输入为rtsp流导致解码丢帧否则source应该不会影响到追踪。
0
怎样提升MLU220 4k解码 推理性能?
我的回复:麻烦贴一下整个json配置文件
0
关于cnstream的使用
我的回复:#20tiger_k回复这个确定是s模型吗?为什么这么大呢?我的s模型转离线化之后只有14MB呀,而且速度也能到95fps。我只是在为了提高精度才像使用x模型的展开新上传的这个是s模型,也比较小十几M。
0
上一页
1
2
3
4
5
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭