切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
yinyin123456
105
积分
0
赞
12
帖子
63
回复
0
收藏
TA的动态
TA的帖子
TA的回复
MLU220 能否提供一个opencv实现拉取rtsp流实现图像硬解码以及硬编码的方法 谢谢
我的回复:#1lhscau回复您好,请参考CNStream 6.3.0分支以前的代码,https://gitee.com/cambricon/CNStream展开麻烦具体一些
0
mlu220离线模型测试,测试结果异常
我的回复:#3zhangyanting回复您好,我这边注意到您的第一张推理错误的图中,有许多低概率的画框出现在边缘位置,您可以尝试看看画框后处理是否存在问题。展开这边输出后处理了,包括得分与坐标过滤,现在测试视频流 都没有出现第一张图的情形,但目前不知道什么原因造成。
0
mlu220离线模型测试,测试结果异常
我的回复:#1zhangyanting回复您好,您可以先试试不使用python调用c++的方式,直接使用c++推理,看看结果是否正确;如果结果正确的话再去排查反复调用时的情况。展开本地python单独掉C++动态库 推理输出 正常 以及 调用C++可以执行文件 推理正常, 跑RTSP流进行推理 不正常
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#15zhangyanting回复您好,分配内存空间也可以放在构造函数中,您可以运行结束之后再释放,每次复用已分配的空间。测试mlu220离线模型 人头识别,出现这种情况 模型输出的坐标有问题,多个线程分别加载模型进行预测,图像是通过python 读取传入 C++ demo中,有的线程预测正常,有的线程预测错误。请看图:线程1:线程2:
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#13zhangyanting回复您好,调用类中方法时,只要该方法没有调用cnrtLoadModel接口就不会反复加载模型;您可以把cnrtLoadModel放在类的构造函数中。展开好的 谢谢!创建运行时 分配mlu 与 cpu 内存空间 是否也放在构造函数里面, 还是在类方法里面,掉完 就释放完 再次调用,再分配 再释放
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#11zhangyanting回复您好,您可以在c++里定义类成员方法用于接收数据和推理,在python脚本里反复调用类成员方法就可以了。python 调用类里面该方法,这样会反复出现加载模型情况吗 模型加载在哪里进性呢
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#9zhangyanting回复您好,python是可以解析c++结构体的,您可以去了解一下ctypes的用法。python这边需要定义类去接收结构体,类里面成员与结构体要一致,数据类型也要一致,但C++demo中,CNRT里面function结构体变量无法获取里面的成员,python端无法解析from ctypes import * INTARRAY8 = c_int * 8 class PyTestStruct(Structure): 'TestStruct_st 的 Python 版本' _fields_ = [ ("integer", c_int), ("c_str", c_char_p), ("ptr", c_void_p), ("array", INTARRAY8) ]首先对结构体里的 int 数组进行了重定义,也就是 INTARRAY8。接着,注意一下 _fields_ 的内容:这里就是对 C 数据类型的转换。左边是 C 的结构成员名称,右边则是在 python 中声明一下各个成员的类型
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#7zhangyanting回复您好,封装调用的流程是一样的,您只需要把自己想要的循环的内容和其余的内容分开,分别封装就可以了。您可以参考《CNRT用户手册》的介绍章节(介绍 — 寒武纪运行时库用户手册 4.10.0 文档 (cambricon.com)),这一章介绍了关于您需要用的主要接口功能。展开我看了C++demo代码。我这边是这么考虑的,python先调用C++里模型加载函数返回function,然后将function传入到另一个数据传入与推理函数,里面已创建好的CNRT运行实例中进行预测,主要是python这边无法解析C++结构体,没有结构体里面的成员属性,python端无法接收function结构体变量
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#3zhangyanting回复 您好,您可以在193行到301行之间循环传入图片地址,这样就不用反复加载model了。 loop{传入图片地址; 数据从cpu传入mlu; 推理; 数据从mlu传回cpu}展开您好 方便能否你这边提供一份代码 加载模型与 数据+推理分开的demo
0
关于视频流RTSP抓取图像进行在MLU220芯片盒子上进行推理的问题
我的回复:#3zhangyanting回复 您好,您可以在193行到301行之间循环传入图片地址,这样就不用反复加载model了。 loop{传入图片地址; 数据从cpu传入mlu; 推理; 数据从mlu传回cpu}展开目前项目采用的python语言进行模型推理与部署,我把C++ main源码编译成python可以调用的动态库了,python会调用里面动态库里面的函数也就是(main部分已封装), 如果想单独加载一次模型的话,是否要再定义一个函数,单独加载模型给python调用,然后加载完后,python再调用传入数据函数进行推理?
0
上一页
1
2
3
4
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭