切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
MLU200系列AI加速产品
MLU370系列AI加速卡
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
Sunshine
342
积分
1
赞
34
帖子
120
回复
4
收藏
TA的动态
TA的帖子
TA的回复
MLU100 SDKv8.1.0 Pytorch框架可以跑FasterRCNN吗
我的回复:MLU100 SDKv8.1.0 Pytorch 版本是1.0 torchvision版本是0.2.1; torchvision的model里面有fasterrcnn,有没有办法在MLU100上编译一个高版本的Pytorch和torchvision呢?
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:#5zhaodeming回复您好,用gdb调试命令就可以。gdb --args "your command"Thread 1 \"python\" received signal SIGSEGV, Segmentation fault. 0x00007fff30948322 in torch_mlu::MLUTensorImpl::cpu_data() () from /torch/venv3/pytorch/lib/python3.6/site-packages/torch_mlu/csrc/lib/libaten_mlu.so (cn-gdb) 错误是这个, 麻烦问下回复怎么删除呢?
0
MLU270 Pytorch-v1.7.0SDK 使用MLU模式量化工具
我的回复:#1zhaodeming回复您好,不需要加上述语句了。具体按照https://www.cambricon.com/docs/pytorch/index.html 手册中的模拟示例操作就可以了展开模型MLU量化推理的结果和CPU、MLU均不一致,和MLU逐层输出的误差较小,这种情况能说明误差是由量化引起的吗?
0
MLU270 Pytorch-v1.7.0SDK 使用MLU模式量化工具
我的回复:#1zhaodeming回复您好,不需要加上述语句了。具体按照https://www.cambricon.com/docs/pytorch/index.html 手册中的模拟示例操作就可以了展开好的 谢谢
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:#3zhaodeming回复您好,请问是否有按照模型量化工具 — 寒武纪PyTorch用户手册 0.15.0 文档 (cambricon.com)中的逐层dump步骤进行操作呢。另外,可以发一下core dumped后的back trace截图,我们看下详细的信息展开是按照https://www.cambricon.com/docs/pytorch/pytorch_11_tools/Pytorch_tools.html#dump 这个手册进行的,back trace怎么操作?
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:模拟MLU量化推理工具 是运行在CPU模式下吗?
0
MLU270 Pytorch-v1.7.0SDK 逐层dump失败
我的回复:模拟MLU量化推理工具
0
MLU270 tensorflow-keras模型离线部署移植失败
我的回复:#1lanhao回复keras的h5模型很多情况下会出现控制流,控制流会造成模型融合时发生分段的情况,因此在发生分段时需要检查是否有控制流影响。当出现这种情况可以使用const去替换该节点展开感谢回复: 训练后保存的是pb模型,不是h5;环境变量设置了; 手册提示:如果使用的是Keras接口,在生成量化参数文件时需要在最后添加以下代码。这是由于量化参数文件是在Session对象析构前保存的,但是Keras内部的Session并不会进行自动析构,因此需要手动析构。 from tensorflow.python.keras import backend session = backend.get_session() session.close() 这个我也设置了,还是不行,压缩包是整个工程,方便的话您可以调试下试试,确实是有问题的;
0
MLU270 tensorflow pb模型离线部署移植: 离线模型中输入shape和模型不对应
我的回复:#8zhaodeming回复另外,发现网络的定义中有关于训练的内容,但是MLU板卡目前主要支持推理,建议着重看下该部分训练代码是否影响了断层展开感谢回复 模型保存的是save_model.pb格式,然后在板卡上进行推理; 报错中有如下提示: I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating batch_normalization/cond/FusedBatchNorm:0 from batch_normalization/cond/FusedBatchNorm/Switch:1 to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating conv2d/Conv2D:0 from conv2d_input to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating dense_1/MatMul:0 from dropout/cond/Merge to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating dropout/cond/dropout/GreaterEqual:0 from dropout/cond/dropout/random_uniform/RandomUniform to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating flatten/Reshape:0 from max_pooling2d_2/MaxPool to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_nodes.cc:1354][32337] Updating max_pooling2d/MaxPool:0 from batch_normalization/cond/Merge to InputPH_0 I tensorflow/compiler/tf2mlu/convert/convert_graph.cc:702][32337] Updating data edge from batch_normalization/cond/my_mlu_op_0:0 to batch_normalization/cond/Merge:1 这些层都是不支持的;但我不知道原因是什么,都在算子支持列表里呢; 微信:sunshine-jzj, 方便的话您加下我微信,我发您全部的日志和代码;
0
MLU270 tensorflow pb模型离线部署移植: 离线模型中输入shape和模型不对应
我的回复:#4zhaodeming回复您好,图中的Conv1D算子是不支持的。您好 我现在把Conv1D算子用Conv2D算子替换了,Conv2D的卷积核大小(3, 1); 还有一个MaxPool1D改为了Maxpool2D, step=(2,1)也替换了; 生成离线时依然是分段的,没法您给看下 还有可能是什么造成的呢?
0
上一页
1
2
3
4
5
6
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭