切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
cambridge
36
积分
0
赞
4
帖子
14
回复
0
收藏
TA的动态
TA的帖子
TA的回复
mlu220模型量化
我的回复:#3ccheee回复不支持cpu转模型是吗?可以在x86 cpu上完成量化和离线模型生成,只是不能逐层调试,MLU270不是必需的。
0
cnrtTransOrderAndCast函数耗时过长
我的回复:#1JCBCam回复您好,关于问题1:cnrtTransOrderAndCast性能取决于CPU,暂无优化空间;关于问题2:可以尝试,是否有性能提升还需要实际测试展开性能有较大提升,只用cnrtCastDataType取出float32数据,后处理直接读NHWC数据,总耗时减少了100多ms.
0
MLU220 int16 量化精度问题
我的回复:#4JCBCam回复"其中包括一个自定义算子"你这个自定义算子在那一层,是否可以先去掉自定义算子,看一下int16量化是否正常?展开是中间的一个算子,不好去掉,见quantize.py:
0
MLU220 int16 量化精度问题
我的回复:#1jiachangbin回复您好,方便提供复现环境吗?您好,是定制的环境,镜像很大,麻烦了。链接: https://pan.baidu.com/s/1IUlz0il3i0mkQvP5N5d10w 提取码: m3x7
0
MLU220 PointPillars模型移植
我的回复:#1寒武纪回复开发者你好,目前我们并无此模型的移植案例供参考。你好还有几个问题麻烦解答:1. 是否可以通过onnx转MLU220离线模型?2. MLU220支持的算子列表可以在哪里查看?3. BANG C编写的自定义算子库cnplugin我理解应该是在边缘端运行的,那么如何在使用pytorch docker转离线模型时建立自定义算子的映射关系?
0
MLU270移植PointPillars模型
我的回复:请问楼主移植成功了吗?
0
关于yolov5后处理算子的开发
我的回复:#2tiger_k回复其实比友商的产品还是灵活很多的友商?只用过NVIDIA,只能说生态差距太大
0
关于yolov5后处理算子的开发
我的回复:附议,寒武纪的资料是真的少
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭