切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
WaterCH
81
积分
0
赞
5
帖子
22
回复
0
收藏
TA的动态
TA的帖子
TA的回复
nram分配120k内存就报错
我的回复:#10Mingo回复现在这个问题解决了吗,咱们sdk中有一个示例跟你描述的比较像,neuware/samples/BANG/bang-c++/union4/pipeline_nmem_union4/main.mlu展开问题暂时解决了。需要将每一个__mlu_global__核函数 单独写在一个.mlu文件里,形成单独的编译单元。
0
nram分配120k内存就报错
我的回复:#6Mingo回复还能提供更详细一点的信息吗,srcimg1和srcimg2分别是多大,参数pw是多少,几个核运行。目前对这个问题出现的原因有了新的发现:我在同一个mlu文件中定义了多个__mlu_global__ 核函数,在前面的核函数中定义的nram空间可以达到200K甚至更多,但在后面的核函数里,空间逐渐变小。如果将前面核函数注释掉,后面的核函数在编译时就不会出错。
0
nram分配120k内存就报错
我的回复:#6Mingo回复还能提供更详细一点的信息吗,srcimg1和srcimg2分别是多大,参数pw是多少,几个核运行。srcimg 1920*1080 pw为1920 16核运行
0
cnrtDeviceInfo_t输出设备信息错误
我的回复:谢谢,问题解决了
0
使用cnrtFree释放cnrtMalloc分配的空间时出错
我的回复:问题解决了。由于我释放内存是类析构函数释放的,而在我的程序中这个类的实例在程序结束时才会释放,而在此之前我已经执行了cnrtDestroy(),因此cnrtFree()找不到对应的内存。
0
nram分配120k内存就报错
我的回复:请不要在版本方面给予回复,版本应该是没问题的。具体报错截图如下:
0
nram分配120k内存就报错
我的回复:你好,请问有什么解决的方法没?这个BUG给编码带来了很多困难,现在卡在这个地方一直没法解决。
0
nram分配120k内存就报错
我的回复:【寒武纪硬件产品型号】:MLU270【使用操作系统】:ubuntu【使用驱动版本】:v4.20.6【SDK版本】:1.7.0【CNToolkit版本】:1.7.3
0
使用cnrtFree释放cnrtMalloc分配的空间时出错
我的回复:270 ,空间是分配上了的,可以正常参与计算,但是在Free时就会出问题
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭