切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
首页
>
寒武纪开发者论坛
>
标签分类
技术答疑
使用求助
经验交流
社区交流
干货资源
高校课程
通知公告
版务相关
技术答疑
使用求助
经验交流
社区交流
干货资源
高校课程
通知公告
版务相关
全部时间
最近更新
ARM HiLinux交叉编译CNStream
zhupengdong
2020/06/09 20:09:26
回复1
查看1661
6
综合实验“自然语言处理-BERT”里kernel的参数scale和pos的具体含义
liujing
2020/06/08 13:42:10
回复0
查看546
0
运行.py文件tensorflow调用这个算子接口的时候,就会出现cnrt报错。
liujing
2020/06/08 11:29:36
回复0
查看410
0
离线推理时core dump了,定位错误出现在post_processor,这个文件没有需要修改,为什么会出错呢
liujing
2020/06/08 11:15:40
回复1
查看396
0
post_processor出错
bitxsy
2020/06/05 11:59:47
回复1
查看335
0
请问离线推理是什么意思?
liujing
2020/06/05 11:38:03
回复0
查看1259
0
[cnrtError] [34752] [Card : 0] This is NOT a cambricon file !
bitxsy
2020/06/04 17:55:58
回复3
查看516
0
请问这种MLU unfinished的问题怎么解决呢?
liujing
2020/06/03 17:56:06
回复0
查看357
0
在编写inference.cpp文件时用到cnrtExtractFunction函数,运行的时候总是报错symbol不存在,请问这个函数中的symbol是什么呢
liujing
2020/06/03 17:52:41
回复0
查看584
0
tensorflow训练好的一个模型(saved_model),如何使用Cambricon Neuware将模型部署到容器中,并快速调用推理服务?
karajan
2020/06/03 03:57:40
回复3
查看803
2
上一页
1
...
206
207
208
209
210
211
212
213
214
..
231
下一页
.
热门帖子
发帖前先看这里!怎样在论坛上提问能更快获得满意的答案
Ashelly
13 回复
南京智算中心携手寒武纪、苏宁科技,上线全国产芯DeepSeek,助力国产硬件生态+零售业务场景
三叶虫
6 回复
【OpenBioMed大模型适配】OpenBioMed在寒武纪MLU370板卡上的试用
fengyunkai
1 回复
【小编推荐】寒武纪大模型相关热帖合集(持续更新)
三叶虫
3 回复
【全流程完整版】如何注册开发者社区账号并下载 SDK 及文档(建议收藏)
Ashelly
13 回复
精华帖子
Benchmark Docker 申请流程和使用指南
goodchong
21 回复
Proxmox直通-寒武纪MLU
fengyunkai
0 回复
【PyTorch 大模型适配】通义千问在寒武纪MLU370板卡上的试用
jyjyjyjyjy
3 回复
FFMpeg-MLU命令行进行抽帧方法总结
博博
2 回复
【PyTorch 大模型移植】CogView2适配
jyjyjyjyjy
0 回复
CP值排行榜
1
LV.9
kikyo
5000CP值
2
LV.6
三叶虫
2082CP值
3
LV.5
opabinia
1267CP值
4
LV.5
天山小和尚
1071CP值
5
LV.5
007
962CP值
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭