切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
HelloAI
414
积分
5
赞
5
帖子
26
回复
4
收藏
TA的动态
TA的帖子
TA的回复
请问寒武纪软件栈和英伟达的软件栈是否有区别和联系
我的回复:英伟达的软件那可就复杂了,有支持科学计算的,支持图形处理的,机器学习相关的库只是其中一部分。而寒武纪是专注于机器学习的加速芯片,所以只能拿机器学习相关的库对比了。寒武纪的CNML里边实现了很多深度学习常用的算子,比如Conv,FC,激活之类的,而英伟达的CuDNN也是深度神经网络的算子库,算是对应关系吧。寒武纪也支持自定义算子编程,编程语言叫BangC,配套的CNCC编译器汇编器,对标的是英伟达的CUDA C的NVCC编译器。目前支持编程语言的AI加速器好像也就只有寒武纪和英伟达了吧,别的还没听说。寒武纪二次开发过的框架,可以讲框架原生的模型转换为一个.cambricon模型,然后就可以用CNRT库直接加载部署了,其实有点类似于英伟达的TensorRT,先Build了一个Engine,然后直接用Engine部署。不过背后的优化策略除了一些图融合以为,应该还各有神通。
0
如何利用cnperf获取程序在MLU270上的内存带宽、FLOPS等信息?
我的回复:cnperf依赖cnpapi和cndev,如果你是安装了neuware的repo源,然后apt install cnperf,应该会自动安装依赖的cnpapi和cndev,如果没有安装,你可以手动apt install -y cnpapi cndev再试试
1
pytorch build offline model
我的回复:这个错误是由于看不到class DataProvider的定义导致的,检查下你是否修改了代码,去掉了pytorch/src/catch/examples/common/include/pipeline.hpp文件的#include "data_provider.hpp"语句?或者做了其他导致看不到class DataProvider的修改?
0
量化和生成离线模型 跟CPU架构有关系吗
我的回复:离线模型其实是dump出来的MLU上执行的指令,理论上和生成离线模型过程的CPU架构没有关系,在X86的CPU上,只需要设置core_version为MLU220就可以生成MLU220的离线模型,在任意其他架构CPU上部署。
0
上一页
1
...
14
15
16
17
18
19
20
21
22
23
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭