切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
Sunshine
342
积分
1
赞
34
帖子
120
回复
4
收藏
TA的动态
TA的帖子
TA的回复
MLU100 SDKv8.1.0 Pytorch框架可以跑FasterRCNN吗
我的回复:MLU100 SDKv8.1.0 Pytorch 版本是1.0 torchvision版本是0.2.1; torchvision的model里面有fasterrcnn,有没有办法在MLU100上编译一个高版本的Pytorch和torchvision呢?
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:#5zhaodeming回复您好,用gdb调试命令就可以。gdb --args "your command"Thread 1 \"python\" received signal SIGSEGV, Segmentation fault. 0x00007fff30948322 in torch_mlu::MLUTensorImpl::cpu_data() () from /torch/venv3/pytorch/lib/python3.6/site-packages/torch_mlu/csrc/lib/libaten_mlu.so (cn-gdb) 错误是这个, 麻烦问下回复怎么删除呢?
0
MLU270 Pytorch-v1.7.0SDK 使用MLU模式量化工具
我的回复:#1zhaodeming回复您好,不需要加上述语句了。具体按照https://www.cambricon.com/docs/pytorch/index.html 手册中的模拟示例操作就可以了展开模型MLU量化推理的结果和CPU、MLU均不一致,和MLU逐层输出的误差较小,这种情况能说明误差是由量化引起的吗?
0
MLU270 Pytorch-v1.7.0SDK 使用MLU模式量化工具
我的回复:#1zhaodeming回复您好,不需要加上述语句了。具体按照https://www.cambricon.com/docs/pytorch/index.html 手册中的模拟示例操作就可以了展开好的 谢谢
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:#3zhaodeming回复您好,请问是否有按照模型量化工具 — 寒武纪PyTorch用户手册 0.15.0 文档 (cambricon.com)中的逐层dump步骤进行操作呢。另外,可以发一下core dumped后的back trace截图,我们看下详细的信息展开是按照https://www.cambricon.com/docs/pytorch/pytorch_11_tools/Pytorch_tools.html#dump 这个手册进行的,back trace怎么操作?
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:模拟MLU量化推理工具 是运行在CPU模式下吗?
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:模拟MLU量化推理工具
0
MLU270 tensorflow-keras模型离线部署移植失败
我的回复:#1lanhao回复keras的h5模型很多情况下会出现控制流,控制流会造成模型融合时发生分段的情况,因此在发生分段时需要检查是否有控制流影响。当出现这种情况可以使用const去替换该节点展开感谢回复: 训练后保存的是pb模型,不是h5;环境变量设置了; 手册提示:如果使用的是Keras接口,在生成量化参数文件时需要在最后添加以下代码。这是由于量化参数文件是在Session对象析构前保存的,但是Keras内部的Session并不会进行自动析构,因此需要手动析构。 from tensorflow.python.keras import backend session = backend.get_session() session.close() 这个我也设置了,还是不行,压缩包是整个工程,方便的话您可以调试下试试,确实是有问题的;
0
MLU270 tensorflow pb模型离线部署移植: 离线模型中输入shape和模型不对应
我的回复:#8zhaodeming回复另外,发现网络的定义中有关于训练的内容,但是MLU板卡目前主要支持推理,建议着重看下该部分训练代码是否影响了断层展开感谢回复 模型保存的是save_model.pb格式,然后在板卡上进行推理; 报错中有如下提示: I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating batch_normalization/cond/FusedBatchNorm:0 from batch_normalization/cond/FusedBatchNorm/Switch:1 to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating conv2d/Conv2D:0 from conv2d_input to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating dense_1/MatMul:0 from dropout/cond/Merge to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating dropout/cond/dropout/GreaterEqual:0 from dropout/cond/dropout/random_uniform/RandomUniform to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating flatten/Reshape:0 from max_pooling2d_2/MaxPool to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating max_pooling2d/MaxPool:0 from batch_normalization/cond/Merge to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_graph.cc:702][32337] Updating data edge from batch_normalization/cond/my_mlu_op_0:0 to batch_normalization/cond/Merge:1 这些层都是不支持的;但我不知道原因是什么,都在算子支持列表里呢; 微信:sunshine-jzj, 方便的话您加下我微信,我发您全部的日志和代码;
0
MLU270 tensorflow pb模型离线部署移植: 离线模型中输入shape和模型不对应
我的回复:#4zhaodeming回复您好,图中的Conv1D算子是不支持的。您好 我现在把Conv1D算子用Conv2D算子替换了,Conv2D的卷积核大小(3, 1); 还有一个MaxPool1D改为了Maxpool2D, step=(2,1)也替换了; 生成离线时依然是分段的,没法您给看下 还有可能是什么造成的呢?
0
上一页
1
2
3
4
5
6
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭