切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
誓约
208
积分
1
赞
24
帖子
117
回复
1
收藏
TA的动态
TA的帖子
TA的回复
cnml和Op错误
我的回复:#9andy_marvelous回复您好: 1. 常见的加速方法有: (1). 使用融合模式 (2)参考《cnml用户手册》第8章(性能调优指南) 2. 算子调试方法:参考《cnml用户手册》,使用export NEUWARE_LOGINFO=1 或export CNML_PRINT_INFO=1,打印算子信息,若有mlu不支持的算子,则可通过打印信息看到。展开您好,我用NEUWARE_LOGINFO=1 和CNML_PRINT_INFO=1分别试了一下模型推理程序,请问如果遇到mlu不支持的算子,返回的信息是啥样的呢,如果找到这个返回信息要怎么才能定位到不支持的算子呢?我把返回的一些信息的图片放到此贴的评论里,请您看一下
0
加急:如何调试寒武纪pytorch程序
我的回复:#8andy_marvelous回复x = torch.stack([torch.from_numpy(fi) for fi in framed_imgs], 0) 这条语句里的framed_imgs由preprocess()生成,但preprocess()是从utils导入的,因此,即使去除了utils的依赖,我还是无法复现您的报错情况。另外,您这边想使用单步调试的原因是?与http://forum.cambricon.com/show-33-1178-1-6.html 这个帖子的需求是一致的吗?展开您好是一致的,utils我疏忽了,抱歉,我似乎已经明白错误的原因了,感谢您的解答
0
cnml和Op错误
我的回复:#8andy_marvelous回复您好: 1. 使用pdb的n 命令调试,可顺利运行,使用s 命令调试也并未复现您的报错信息,另外,使用s命令是进入到函数语句的内部,使用n命令是不进入函数语句内部,请问您现在想使用单步调试的目的是? 2. 由于使用mlu进行异构计算,包含数据的host to device ,device to host 操作,且mlu需要进行设备初始化等操作,因此,如果运算任务相对简单,则实际运算耗时相对较少,host to device ,device to host 操作以及mlu设备初始化等操作的耗时相对较多,因此导致总体耗时较大。若使用mlu进行更为复杂的运算,例如运行yolo系列网络,则运算耗时相比于mlu初始化耗时会更大,由此方可体现mlu的计算速度。展开您好,首先十分感谢您的耐心解答,使我获益匪浅,对耽误的您的宝贵时间说声抱歉。我单步调试的原因是因为之前第一次单步调试报了cnml错误,但程序还可以继续运行,所以想一直试试这个单步调试,想找出错误的原因。现在我似乎已经懂了为什么报错的原因了,再次感谢您的耐心解答。
0
cnml和Op错误
我的回复:用pdb调试的结果
0
cnml和Op错误
我的回复:#4andy_marvelous回复您好,建议您直接在服务器终端使用pdb 进行调试。mlu上使用cat,slice等算子的调用方式与cuda 类似,您贴的程序示例便体现了如何在mlu上调用cat slice算子展开您好,我用pdb的s命令调试我写的模型推理的程序还是报错了,我发现一直是abs,ne,eq,masks_select这几个算子,而且还伴有cnml错误,不调试直接运行程序没有问题,但是运行的很慢,比在cpu上慢,这是怎么回事呢?
0
加急:如何调试寒武纪pytorch程序
我的回复:#6andy_marvelous回复由于我这缺乏utils等库文件,暂时无法复现您的现象。建议您尝试,先对x 进行d2h 操作,再从x 列表中取元素。仍然建议您使用终端命令行与 import pdb的方式调试mlu 代码。展开好的,谢谢您的解答,我那些导入的utils等文件没用到,贴代码的时候我忘记删了,很多导入的都用不到,我就是随便找个了图片测试了一下这个slice的功能,您复现的时候把报错的语句删掉应该就没问题了
0
cnml和Op错误
我的回复:#4andy_marvelous回复您好,建议您直接在服务器终端使用pdb 进行调试。mlu上使用cat,slice等算子的调用方式与cuda 类似,您贴的程序示例便体现了如何在mlu上调用cat slice算子展开好的,谢谢您,我现在用某个网络在mlu上推理一张图片,能够推理成功,程序运行无错,但是速度很慢,请问我该如何加速呢,我准备直接从写bang C算子入手,请问有什么便捷的方法可以找出我运行的这个网络中哪些算子没有在mlu上跑和哪些算子不能在mlu上跑呢?
0
cnml和Op错误
我的回复:#1andy_marvelous回复您好,已在本地运行该段代码,可以顺利产出推理结果,无报错信息。请问您这边的环境是?目前是单步调试的时候出错吗?展开您好,我调试的方式是在vscode上单步调试的,使用的是mlu270,如果不调试直接运行的话不报错误,,但是在vscode使用默认的调试文件进行单步调试就会报上面的错误和警告,是我的环境变量没配好吗?还是我的调试配置文件没配好?还是不能像我的那种方式进行调试呢? 还有一个问题想问您,在mlu环境上使用cat,slice等算子的调用方式和在pytorch+cuda里调用算子的写法是一样的吗?或者说两种机器上的算子里面传入的参数是一样的吗?
0
加急:如何调试寒武纪pytorch程序
我的回复:#1andy_marvelous回复您好,请问您目前是用 逐层模式 还是 融合模式 运行程序呢?同时,辛苦您提供测试代码以及测试环境。展开您好,跑的是逐层模式
0
加急:如何调试寒武纪pytorch程序
我的回复:#1andy_marvelous回复您好,请问您目前是用 逐层模式 还是 融合模式 运行程序呢?同时,辛苦您提供测试代码以及测试环境。展开您好,测试代码放在了该贴的评论里,再次麻烦您给看一下
0
上一页
1
2
3
4
5
6
7
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭