切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
yinyin123456
98
积分
0
赞
11
帖子
61
回复
0
收藏
TA的动态
TA的帖子
TA的回复
mlu220边缘计算盒离线推理yolov5报错
我的回复:#6jiapeiyuan回复export LD_LIBRARY_PATH="/opt/yolov5_offline_simple_demo/3rd/cambricon/lib64/:/opt/yolov5_offline_simple_demo/3rd/opencv/lib/"。把所有需要的路径,一起加,中间用冒号分隔,不然后一次export就把前面一次的冲掉了。或者每次export LD_LIBRARY_PATH=" ...... :$LD_LIBRARY_PATH",追加进去也行展开谢谢!可以了 但运行可执行文件报错 opencv问题root@localhost:/opt/yolov5_offline_simple_demo# ./build/yolov5_offline_simple_demo model/yolov5s-220.cambricon subnet0 0 0 data/000000000872.jpg 2 data/label_map_coco.txtCNRT: 4.7.12 03ea1d9input shape:1 640 640 3output shape:1 1 1 7232OpenCV Error: Assertion failed (ssize.area() > 0) in resize, file /home/cambricon/sunsh/file_bak/opencv/opencv/modules/imgproc/src/imgwarp.cpp, line 1968terminate called after throwing an instance of 'cv::Exception' what(): /home/cambricon/sunsh/file_bak/opencv/opencv/modules/imgproc/src/imgwarp.cpp:1968: error: (-215) ssize.area() > 0 in function resize
0
mlu220边缘计算盒离线推理yolov5报错
我的回复:#1jiapeiyuan回复运行bin文件之前,执行export LD_LIBRARY_PATH=libcnrt.so所在目录加了 报 ./build/yolov5_offline_simple_demo: error while loading shared libraries: libopencv_core.so.2.4: cannot open shared object file: No such file or directory
0
mlu220边缘计算盒离线推理yolov5报错
我的回复:#2yinyin123456回复已添加 还是报错export LD_LIBRARY_PATH="/opt/yolov5_offline_simple_demo/3rd/cambricon/lib64/"export LD_LIBRARY_PATH="/opt/yolov5_offline_simple_demo/3rd/opencv/lib/"./build/yolov5_offline_simple_demo: error while loading shared libraries: libcnrt.so: cannot open shared object file: No such file or directory报错展开./build/yolov5_offline_simple_demo: error while loading shared libraries: libopencv_core.so.2.4: cannot open shared object file: No such file or directory
0
mlu220边缘计算盒离线推理yolov5报错
我的回复:#1jiapeiyuan回复运行bin文件之前,执行export LD_LIBRARY_PATH=libcnrt.so所在目录官方提供的编译CXX=aarch64-linux-gnu-g++ 能否在x86的服务器上进行编译 服务器端编译工具为gcc-linaro-6.2.1-2016.11-x86_64_aarch64-linux-gnu.tgz,已安装,目前已执行编译能生成可执行文件yolov5_offline_simple_demo
0
mlu220边缘计算盒离线推理yolov5报错
我的回复:#1jiapeiyuan回复运行bin文件之前,执行export LD_LIBRARY_PATH=libcnrt.so所在目录已添加 还是报错export LD_LIBRARY_PATH="/opt/yolov5_offline_simple_demo/3rd/cambricon/lib64/"export LD_LIBRARY_PATH="/opt/yolov5_offline_simple_demo/3rd/opencv/lib/"./build/yolov5_offline_simple_demo: error while loading shared libraries: libcnrt.so: cannot open shared object file: No such file or directory报错
0
关于cambricon_pytorch编译生成torch_mlu-0.15.0..whl问题
我的回复:#7jiapeiyuan回复不能在aarch64的盒子上转模型模型,在x86服务器上面转,然后把离线模型拷到盒子上,交叉编译盒子上的运行代码,才能运行起来。另外生成离线模型的时候,可以不依赖mlu卡,pytorch代码里设置 ct.set_device(-1) 即不使用mlu卡转换展开转化离线模型 是否需要安装cambricon_pytorch ,但cambricon_pytorch这个安装编译 需要依赖CNToolkits 以及mlu卡驱动以及对应的加速库包,目前手上只有一个mlu220的芯片盒子。根据您的意思cambricon_pytorch安装无需mlu卡?
0
关于cambricon_pytorch编译生成torch_mlu-0.15.0..whl问题
我的回复:#5jiapeiyuan回复参考 https://developer.cambricon.com/index/document/index/classid/3.html 里面的pytorch用户手册和cnrt用户手册展开想问一下 生成model_name.cambricon的离线模型文件,是否必须依赖cambricon_pytorch以及相应的硬件mlu220加速卡或270加速卡之类的,盒子芯片目前mlu220 但是arrch64架构,但目前没有找到安装基于arrch64下的cambricon_pytorch的方法,因此,是否需要相应的硬件以及x86平台系统进行离线模型生成在部署到盒子里面?
0
关于cambricon_pytorch编译生成torch_mlu-0.15.0..whl问题
我的回复:#3jiapeiyuan回复盒子上的软硬件资源(cpu和内存)不足以支撑pytorch的运行。一般的做法都是在服务器端先转好离线模型,再放到盒子上通过runtime的c++接口(cnrt)直接运行展开您好 这部分有没有相关资料可以查考 学习一下,谢谢您了!
0
关于cambricon_pytorch编译生成torch_mlu-0.15.0..whl问题
我的回复:#1jiapeiyuan回复生成arm的安装包,需要依赖其他组件的arm版本,目前没有现成的。建议在x86上转离线模型,然后部署在arm服务器上运行展开基于寒武纪芯片的边缘盒子进行部署话,盒子为arm64架构,采用python进行推理是否需要在盒子里面安装arm架构的cambricon_pytorch
0
多模型调度
我的回复:同问
0
上一页
1
2
3
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭