切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
Mingo
47
积分
3
赞
1
帖子
1
回复
0
收藏
TA的动态
TA的帖子
TA的回复
nram分配120k内存就报错
我的回复:#9WaterCH回复目前对这个问题出现的原因有了新的发现:我在同一个mlu文件中定义了多个__mlu_global__ 核函数,在前面的核函数中定义的nram空间可以达到200K甚至更多,但在后面的核函数里,空间逐渐变小。如果将前面核函数注释掉,后面的核函数在编译时就不会出错。展开现在这个问题解决了吗,咱们sdk中有一个示例跟你描述的比较像,neuware/samples/BANG/bang-c++/union4/pipeline_nmem_union4/main.mlu
0
nram分配120k内存就报错
我的回复:#7WaterCH回复srcimg 1920*1080 pw为1920 16核运行srcimg的大小是1920*8,但是你16核运行的时候,1-15核上的taskId分别是1-15,所以memcpy的偏移太大了,已经超出了分配的大小。你试下单核是不是可以正常运行。
0
nram分配120k内存就报错
我的回复:#5RichardZQ回复实际使用中,nram的分配远不到512KB就会爆这个错误,是因为内部某些透明的内容占用了空间,导致实际在编码中可使用的空间没有那么多么?展开还能提供更详细一点的信息吗,srcimg1和srcimg2分别是多大,参数pw是多少,几个核运行。
0
BANG C nms后处理算子嵌入
我的回复:#14zjunk回复老师现在尝试在internal中返回2个tensor输出(但是mlu中是3个),CHECK_RETURN_TO_FUSE(op, std::make_tuple(output1, output2));这是2个在foward中是3个如下 TORCH_CNML_CHECK(cnmlComputePluginPpyoloenmsOpForward(op, input_addrs, 1, output_addrs, 3, &func_param, queue));但是现在报错信息如下:[图片]表示syncQueue同步队列出错。现在不晓得有什么原因会导致这个错误。定位不到问题的发生。希望老师指导一下展开你可以结合topk_internal.cpp和yolov3_detection_output_internal.cpp的例子,再核对一下自己的代码,topk是一个多输出的算子,yolov3后处理算子是有一个tmp_buf,跟你需要做的事是相似的。
0
BANG C nms后处理算子嵌入
我的回复:#11zjunk回复欧老师您好想请问一下以下为mlu算子 :__mlu_entry__ void mluNmsThresh(int* result_Index, half* resultScoreClsIdx, int* result_count, half* source)已知source为输入 ,result_Index,resultScoreClsIdx,result_count为输出。如何在/torch_mlu/csrc/operators/internal/mluNmsThresh_internal.cpp中定义output将三个不同类型输出整合在一起,或者有什么其他方法或者示例提供展开你好,如proposal_fpn_internal.cpp算子就是一个3输出的算子,多输出的话可以参考。如果要整合3个输出tensor到一个tensor的话不太方便,首先你这3个输出的类型都不同,如果是相同的数据类型,可以根据相应的偏移把三个输出放到一个half *tensor中,重新实现bangc代码,但是不建议这么做。
0
BANG C nms后处理算子嵌入
我的回复:#9zjunk回复老师声明了的:如下图所示[图片]检查一下接口的参数,好像数量都不对。
0
BANG C nms后处理算子嵌入
我的回复:#7zjunk回复 老师这个问题解决了,现在我在重新编译catch在catch/torch_mlu/csrc/aten/operators/cnml/internal/mlunmsthresh_internal.cpp(mlunmsthresh_internal.cpp为自己待嵌入算子)其中用到cnplugin声明接口的结构体等,在该文件没有声明具体如下:[图片]之前怀疑是cnplugin编译动态库有问题 后面编译后仍然出现该问题。请问老师这是什么情况展开cnplugin.h头文件里有声明吗
0
BANG C nms后处理算子嵌入
我的回复:#5欧式鹏回复python setup.py clean后重新编译一下看看。编译pytorch之前需要执行./apply_patches_to_pytorch.sh脚本,README中应该有写到。
0
BANG C nms后处理算子嵌入
我的回复:#4zjunk回复编译完成了 还是会出现相同的文件缺失python setup.py clean后重新编译一下看看。
0
BANG C nms后处理算子嵌入
我的回复:#2zjunk回复老师您好当前 已经cnplugin编译成动态库生成,cnplugin.so 文件并替换 接下来就是在编译好之后将build目录下的动态库文件 复制到neuware/lib64目录下接下来就是算子pytorch框架集成例如 在1catch/torch_mlu/tools/mlu_functions.yaml中声明算子2添加OpMethods基类中的CPU实现3添加wrapper最后重新编译catch(python setpu.py install)在最后一部重新编译catch时候会报错 缺少"aten/operators/cnml/cnml kernel.h" 文件不存在 pytorch/c1a/macros/cmake macros.h也不存在而是pytorch/c1a/macros/cmake macros.h.in文件如图所示[图片]当前环境是在doker环境下torch目录结构如下examplessrcvenv2venv3wheel_py2wheel_py3pytorch 激活环境为/torch/venv3/pytorch/bin/activate以上在重新编译catch时候文件缺失报错我不知道是什么原因 希望老师能看看展开是编译的问题,如果是docker中自带的pytorch,第一次手动编译需要重新先编译一次pytorch,然后再进行catch的编译,此后如果还对catch有修改,可以直接执行python setup.py install编译catch。
0
上一页
1
2
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭