切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
cambridge
36
积分
0
赞
4
帖子
14
回复
0
收藏
TA的动态
TA的帖子
TA的回复
mlu220模型量化
我的回复:#3ccheee回复不支持cpu转模型是吗?可以在x86 cpu上完成量化和离线模型生成,只是不能逐层调试,MLU270不是必需的。
0
cnrtTransOrderAndCast函数耗时过长
我的回复:#1JCBCam回复您好,关于问题1:cnrtTransOrderAndCast性能取决于CPU,暂无优化空间;关于问题2:可以尝试,是否有性能提升还需要实际测试展开性能有较大提升,只用cnrtCastDataType取出float32数据,后处理直接读NHWC数据,总耗时减少了100多ms.
0
MLU220 int16 量化精度问题
我的回复:#4JCBCam回复"其中包括一个自定义算子"你这个自定义算子在那一层,是否可以先去掉自定义算子,看一下int16量化是否正常?展开是中间的一个算子,不好去掉,见quantize.py:
0
MLU220 int16 量化精度问题
我的回复:#1jiachangbin回复您好,方便提供复现环境吗?您好,是定制的环境,镜像很大,麻烦了。链接: https://pan.baidu.com/s/1IUlz0il3i0mkQvP5N5d10w 提取码: m3x7
0
MLU220 PointPillars模型移植
我的回复:#1寒武纪回复开发者你好,目前我们并无此模型的移植案例供参考。你好还有几个问题麻烦解答:1. 是否可以通过onnx转MLU220离线模型?2. MLU220支持的算子列表可以在哪里查看?3. BANG C编写的自定义算子库cnplugin我理解应该是在边缘端运行的,那么如何在使用pytorch docker转离线模型时建立自定义算子的映射关系?
0
MLU270移植PointPillars模型
我的回复:请问楼主移植成功了吗?
0
关于yolov5后处理算子的开发
我的回复:#2tiger_k回复其实比友商的产品还是灵活很多的友商?只用过NVIDIA,只能说生态差距太大
0
关于yolov5后处理算子的开发
我的回复:附议,寒武纪的资料是真的少
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭