切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
lyt_1010
49
积分
0
赞
5
帖子
23
回复
1
收藏
TA的动态
TA的帖子
TA的回复
离线推理错误
我的回复:我查了下官方文档,我想请问下第三个参数,模型类型是什么意思
0
离线推理示例程序mlp的疑问
我的回复:#12wyy回复接口就是cnrt的接口,您可以参考cnrt文档查看。离线推理load的就是cambricon文件哦。好的,谢谢您!
0
离线推理示例程序mlp的疑问
我的回复:#9wyy回复流程步骤是这样的,这个例子里好像是缺了将输入数据拷入到cpu这一步。 你还可以参考论坛中其他离线推理的例子:http://forum.cambricon.com/show-3-688-1.html展开您给的网址里的例子的输入数据的预处理部分,使用到了opencv的接口,当输入数据集本身就是一个.npy文件即16*3*224*224的tensor的数据,而且不是单纯的RGB三通道图像,而是一些有小数的tensor时,该如何处理呢?感谢您的回答!
0
离线推理示例程序mlp的疑问
我的回复:#7wyy回复不是人为设置的,这些参数是对应网络结构的输入输出个数的,生成离线模型后保存在其中,通过接口获取到。我按照示例程序写(input是16个3*224*224的图片): cnrtFunction_t function; cnrtCreateFunction(&function); cnrtExtractFunction(&function, model, name); int inputNum, outputNum; int64_t *inputSizeS, *outputSizeS; printf(\"inputNum: %d.\\n\", inputNum); printf(\"outputNum: %d.\\n\", outputNum); cnrtGetInputDataSize(&inputSizeS, &inputNum, function); cnrtGetOutputDataSize(&outputSizeS, &outputNum, function); 输出的inputNum和outputNum并不是16和16,而是0和1024。您知道这是怎么回事吗?这是属于默认设置吗?您说是通过接口获得的,这个接口是保存在模型中的吗,具体的接口是什么呢?我还有一个疑问就是示例程序中是load的模型的后缀是.mef,我们的离线模型生成的时候出现的是.cambricon和.cambricon_twins为后缀名的两个文件,所以我load时load的是.cambricon文件,我的这个操作是否 是错误的呢? 谢谢您!刚刚接触这部分,可能问题比较多
0
离线推理示例程序mlp的疑问
我的回复:#2wyy回复2、void **inputCpuPtrS = (void **)malloc(inputNum * sizeof(void *));void **outputCpuPtrS = (void **)malloc(outputNum * sizeof(void *));这两个是为cpu上的输入、输出构建了对应输入、输出个数的指针空间真正的数据处理是在下面的代码中:[代码][代码]展开请问流程是不是: 1.先分配cpu内存 2.根据cpu内存分配相应的mlu内存 3.将cpu上的数据拷贝到mlu 4.数据在mlu上做离线推理 5.将推理结果放到cpu上 这里我有一个疑问:第3步的数据是如何放入cpu的,这个离线示例程序里边有这一步吗? 谢谢您的解答
0
离线推理示例程序mlp的疑问
我的回复:#3wyy回复3.模型可能有多个输入、输出,*inputSizeS存储每个输入大小, *outputSizeS存储每个输出大小展开如果我输入的数据是16个3*224*224的数据,那么我*inputSizeS的大小是3*224*224的,还是16*3*224*224的?这个*inputSizeS是人为给定的吗(人为开辟一个空间,令指针指向这个空间)?谢谢您的解答
0
离线推理示例程序mlp的疑问
我的回复:#1wyy回复1、输入输出相关信息是存储在离线模型中的,也可以在其孪生文件.cambricon_twins中查看到,然后可以使用cnrtGetInputDataSize()和cnrtGetOutputDataSize()接口获取展开我想问下您,我可以人为设置int inputNum=1, outputNum=1吗?还是说inputNum和outputNum是通过某个接口得到的结果,不可以人为设置?谢谢您的解答
0
离线推理
我的回复:#3寂寞的季节回复eg.:g++ -g -std=c++11 -fPIC -lstdc++ -Wall -L/usr/local/neuware/lib64 -lcnrt -I/usr/local/neuware/include -o example展开谢谢您!
0
请问哪位大佬有有关离线推理的比较简单的入门材料?
我的回复:#1wyy回复你可以参考这个链接哦:https://www.cambricon.com/docs/cnrt/user_guide_html/example/offline_mode.html展开好的,谢谢您!
0
离线推理
我的回复:#1寂寞的季节回复检查下链接选项是否加了-lcnrt我直接就运行g++ example.cpp,请问如何添加链接选项? 不好意思,python用多了,c++不太会使,模型量化、在线推理、离线模型生成我都是用python写的,离线推理好像只能用c++,所以提出的问题比较幼稚
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭