切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
Fu
36
积分
2
赞
1
帖子
4
回复
0
收藏
TA的动态
TA的帖子
TA的回复
目标检测常用的性能指标有哪些
我的回复:MAP
0
caffe-mlu的怎么测试cpu精度
我的回复:也可以用 test_forward_online
0
【解决办法】克隆GitHub上源码RPC错误
我的回复:666
8
多线程调用离线模型推理,使用同一个ctx,不同queue,效率是否有影响
我的回复:不要这么干,建议使用 共享 Context 权值和指令内存 ,参考CNRT用户使用手册,cnrtForkRuntimeContext
0
驱动安装问题
我的回复:估计是卡没安装好,或者电源线有问题,MLU270没有被识别。lspci 看下先
0
问模型量化原理
我的回复:value = i * 2^position/scale 可以参考代码, int critical_value = std::pow(2, 7) - 1; if (data_type == DT_INT8) { critical_value = std::pow(2, 7) - 1; } else if (data_type == DT_INT16) { critical_value = std::pow(2, 15) - 1; } BlobDataType blob_dtype; for (int i = 0; i < abs_max.size(); i++) { if (abs_max[i] == 0) { position[i] = 0; scale[i] = 1; } else { position[i] = log2(abs_max[i] / critical_value); position[i] += position[i] > 0 ? 1 : 0; scale[i] = critical_value * pow(2, static_cast<int>(position[i])) / abs_max[i]; }
1
推理多线程CPU占用高怎么处理?
我的回复:#2opabinia回复使用这个接口对于多进程有没有优化?理论上是BLOCK了线程,减轻了CPU负担,所以对于多进程应该也是有效的,建议尝试一下。
2
cnrt例程cmake不成功
我的回复:CMakeLists.txt 修改一下,只保留你对应的板卡型号。
0
cnrt例程cmake不成功
我的回复:
0
Benchmark Docker 申请流程和使用指南
我的回复:
14
上一页
1
2
3
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭