切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
含含
148
积分
2
赞
6
帖子
9
回复
0
收藏
TA的动态
TA的帖子
TA的回复
Init kernel intmd memory failed
我的回复:1.目前的测试代码是基于cnrt 的接口进行封装的?生成的模型是几core的?2.可以先确认下单线程内存使用情况?如果内存占用很小,跑下多进程看下是否会报错,如果多进程不报错应该是多线程代码写的有问题,可以参照SDK offline 代码进行修改
0
RuntimeError: Can not call cpu_data on an empty tensor.
我的回复:1.检查下你的输入shape 是否满足模型输入格式要求2.可以基于cpu trace下,然后基于CPU 运行下trace的模型,看下网络本身是否能够正常运行3.生成离线模型代码参看: example_mlu = torch.randn(1, 3, in_h, in_w, dtype=torch.float) net = torch.jit.trace(net.to(device), example_mlu.to(device), check_trace=False) trace_input = torch.randn(batch_size, 3, in_h, in_w, dtype=torch.float) print(trace_input.shape) ct.save_as_cambricon(mname) net(trace_input.to(device)) ct.save_as_cambricon('')
0
MLU370— BANG 3.0 编程优化直播课【FAQ合集】
我的回复:#3JueXiao回复请问bangc中数据量太大超过NRAM内存有什么方法可以切分数据再运算吗如果数据量超过NRAM,可以把计算任务切片成多个计算任务进行分次运行,并不限制切分方式
0
已有集群加入寒武纪硬件该怎么监控
我的回复:我理解可以使用k8s 管理设备,同时可以使用cnmon 或者是对接cndev接口进行设备信息查看。
0
请问caffe框架下的python接口怎么使用?
我的回复:#1c936637238回复还有平时开发的话时使用c++的接口多和python的接口呢,更推荐哪种?调试验证阶段看个人习惯,最终离线部署 大多数应该都用C++。
0
大数据+深度学习=人工智能吗?
我的回复:没有特定的标准,当前似乎是这样的。
0
咨询关于框架编译报错问题
我的回复:您是编译标准的框架还是寒武纪提供的框架代码?
0
cnrt接口介绍
我的回复:谢谢,如果是多卡的使用 cnrtSetCurrentDevice 进行设置?
0
如何使用CNStream实现拉流、解码、推理、编码、推流?
我的回复:推流可以配置jason ,使用rtsp sink 模块。
0
FP16数据类型转换
我的回复:是不是也可以使用bangc算子写一个算子进行类型转换?
0
上一页
1
2
3
4
5
6
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭