切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
helloworld
59
积分
0
赞
5
帖子
13
回复
1
收藏
TA的动态
TA的帖子
TA的回复
离线模型
我的回复:生成离线模型时会将网络算子进行融合
0
caffe-mlu的怎么测试cpu精度
我的回复:caffe-sdk中的demo,在线运行的可执行文件,可以通过传-mmode为CPU,在cpu上进行推理,可以参考寒武纪提供的caffe用户手册
0
模型驱动安装出错。
我的回复:neuware-driver.intx-dkms_3.3_all.deb是终端模式的驱动安装包,需要结合使用的系统来选择
0
MLU是否有硬件监测器工具
我的回复:可以使用cnmon,cnmon是附带在驱动中的,完成驱动安装之后,可以使用cnmon来查看硬件状态cnmon info
0
请问寒武纪软件栈和英伟达的软件栈是否有区别和联系
我的回复:#1HelloAI回复英伟达的软件那可就复杂了,有支持科学计算的,支持图形处理的,机器学习相关的库只是其中一部分。而寒武纪是专注于机器学习的加速芯片,所以只能拿机器学习相关的库对比了。寒武纪的CNML里边实现了很多深度学习常用的算子,比如Conv,FC,激活之类的,而英伟达的CuDNN也是深度神经网络的算子库,算是对应关系吧。寒武纪也支持自定义算子编程,编程语言叫BangC,配套的CNCC编译器汇编器,对标的是英伟达的CUDA C的NVCC编译器。目前支持编程语言的AI加速器好像也就只有寒武纪和英伟达了吧,别的还没听说。寒武纪二次开发过的框架,可以讲框架原生的模型转换为一个.cambricon模型,然后就可以用CNRT库直接加载部署了,其实有点类似于英伟达的TensorRT,先Build了一个Engine,然后直接用Engine部署。不过背后的优化策略除了一些图融合以为,应该还各有神通。展开学习了,多谢
0
寒武纪的硬件codec支持opencv的接口吗
我的回复:当前好像还没支持opencv吧
0
安装neuware报错
我的回复:使用apt install -f修复安装一下,可以补充尚缺少的依赖包
0
在调试寒武纪Caffe框架的模型时,有哪些可用的精度优化手段?
我的回复:可以使用分通道量化,以及量化成INT16
0
CNStream与DeepStream、Gstreamer有哪些区别和共性?
我的回复:寒武纪的编解码可以支持gstreamer的插件,通过gsteramer的API接口来调用底层的codec
1
寒武纪的编解码功能支持哪些标准?
我的回复:1. h264、h265、jpeg2. 这要看模型前处理的算子我们板卡是否支持,我们当前仅支持一部分前处理算子,如果不支持就需要拷贝到cpu做3. 是的
1
上一页
1
2
3
4
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭