切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
Gaoyujia
92
积分
3
赞
1
帖子
9
回复
0
收藏
TA的动态
TA的帖子
TA的回复
yolov5 量化参数加了firstconv = True 的量化后的离线模型,输入图片加载报错
我的回复:#14htujun回复你好,可以加个微信联系下吗,向您请教下,把问题解决了,这个问题很久没解决.可以,提供下您的帐号吧,我加您
0
cnstream无法调试debug版本的cns_launcher.cpp
我的回复:#4palmful回复你好,mlu270板卡,cnstream版本:V6.2.0,ubuntu20.04,使用官方cnstream动态库${CNSTREAM_DIR}/lib/*.so。测试同时推理两个视频文件(即在files.list_video中有两个demo.mp4)使用cmakelist编译cns_launcher.cpp,生成可执行文件,如果cmakelist中不加set(CMAKE_BUILD_TYPE "Debug")这一句,可执行文件可以正常运行,进行视频推理时两个结果结果均正常,但使用vscode无法debug可执行文件;在cmakelist中添加set(CMAKE_BUILD_TYPE "Debug")这一句,重新编译cns_launcher.cpp,可以使用vscode配置launch.json进行debug,在main函数debug过程中,到for (int i = 0; i < streams; i++, url_iter++)这一句时,程序卡住,卡在之前那个界面,无法继续debug下一句,此时关闭程序,直接运行可执行文件,程序也是卡在之前那个界面。只有重启电脑,重新编译debug版本,不debug程序,直接运行可执行文件,程序才正常运行;但是一旦进行debug,就会出现上述错误。另外,不知道您说的"另外,建议编译debug版本时,使用 cmake .. -DCMAKE_BUILD_TYPE=DEBUG 的方式"是否是指编译cnstream时加上这一句,以编译debug版本的cnstream?因为我编译运行debug版本的cns_launcher.cpp时没有用到这一句展开1,首先cnstream仅支持到ubuntu18.04,没有对ubuntu20.04进行过适配。2,编译时,在cmake这一步直接通过编译选项传入。也就是 cmake .. -DCMAKE_BUILD_TYPE=DEBUG3,可以尝试直接在terminal上gdb进行程序进行debug。在run.sh脚本中,在调用可执行文件前面加 gdb --args如下: gdb --args ${SAMPLE_DIR}/bin/cns_laucnher ........然后执行run.sh,再进行调试
0
cnstream无法调试debug版本的cns_launcher.cpp
我的回复:#2palmful回复好的,感谢回复您好,我这边没有复现到。能提供一下详细的复现条件吗。包括板卡类型,系统版本,编译方式,调试方式等。另外,建议编译debug版本时,使用 cmake .. -DCMAKE_BUILD_TYPE=DEBUG 的方式
0
yolov5 量化参数加了firstconv = True 的量化后的离线模型,输入图片加载报错
我的回复:#7htujun回复报错补充:“c” should be 3,but 4cnstream提供的示例前处理是和仓库中的模型对应的,你可以在原来的基础上进行修改。或者参考示例自定义自己的前处理类。当前报错是因为,VideoPreprocYolov5类只适用于不加firstconv的yolov5网络。如果加了firstconv需要:1,修改以下判断。2,修改前处理逻辑(模型输入为U8,并且不再需要mean std)VideoPreprocYolov5::Execute()中,将3改为4if (input_shape[c_idx] != 3) {LOGE(DEMO) << "[VideoPreprocYolov5] model input shape not supported, `c` should be 3, but " << input_shape[c_idx];return false;}
0
yolov5 量化参数加了firstconv = True 的量化后的离线模型,输入图片加载报错
我的回复:#4htujun回复修改json配置文件的model_input_pixel_format : RGBA、BGRA、ARGB、ABGR还会报错,请问下具体如何修改。展开根据log打印判断,设置的model_input_pixel_format和模型的输入shape的c通道不符合报错。麻烦再确认下,设置的value是 RGBA32/BGRA32/ARGB32/ABGR32 吗?(要加32)需根据模型输入pixel format设置model_input_pixel_format,假设为RGBA32, Inferencer2模块的配置如下:"model_input_pixel_format": "RGBA32"
0
MLU220-SOM基于CNStream框架解码rtsp流再推流测试中出现掉帧严重,帧损坏,且推流视频卡顿,出现灰屏的问题。
我的回复:首先输入源如果为rtsp流的时候,后续pipeline的处理速度如果低于rtsp流喂给pipeline的速度。那么cnstream会将一些rtsp流的数据丢掉,这个时候就可能会出现损坏帧的报错。那么,我们需要提高pipeline的性能来解决这个问题。pipeline中只有解码+RtspSink两个模块。1,解码应该不是性能瓶颈,220上解码1080P的性能应该在1000fps左右。2,RtspSink模块可能是瓶颈。我们需要给这个模块设置一个参数 "input_frame" : "mlu" 参数来避免内存的搬运。如果如果上述作法依然无法达到你的rtsp流的速度,那么就需要考虑丢帧是否是可以容忍的。如果可以的话,在DataSource模块丢帧是一个好的选择,通过设置“interval” : "2"参数,每2帧处理一帧。也可以设置更大。例如设置为4则代表每4帧处理一帧
0
MLU220-SOM基于CNStream框架解码rtsp流再推流测试中出现掉帧严重,帧损坏,且推流视频卡顿,出现灰屏的问题。
我的回复:首先输入源如果为rtsp流的时候,后续pipeline的处理速度如果低于rtsp流喂给pipeline的速度。那么cnstream会将一些rtsp流的数据,这个时候就可能会出现损坏帧的报错。那么,我们需要提高pipeline的性能来解决这个问题。pipeline中只有解码+RtspSink两个模块。1,解码应该不是性能瓶颈,220上解码1080P的性能应该在1000fps左右。2,RtspSink模块可能是瓶颈。我们需要给这个模块设置一个参数 "input_frame" : "mlu" 来避免内存的搬运。如果上述作法依然无法达到你的rtsp流的速度,那么就需要考虑丢帧是否是可以容忍的。如果可以的话,我们可以在DataSource插件丢帧,通过设置 "interval": "2" 每两帧丢一帧。
0
怎样提升MLU220 4k解码 推理性能?
我的回复:“实测结果 解码13fps,影响追踪,识别率为0.”解码会受到参考帧以及复用buffer影响,单路4k解码应该不是性能瓶颈。追踪的识别率为0,是什么原因导致的还需要查一下,除非输入为rtsp流导致解码丢帧否则source应该不会影响到追踪。
0
怎样提升MLU220 4k解码 推理性能?
我的回复:麻烦贴一下整个json配置文件
0
关于cnstream的使用
我的回复:#20tiger_k回复这个确定是s模型吗?为什么这么大呢?我的s模型转离线化之后只有14MB呀,而且速度也能到95fps。我只是在为了提高精度才像使用x模型的展开新上传的这个是s模型,也比较小十几M。
0
上一页
1
2
3
4
5
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭