切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
HelloAI
414
积分
5
赞
5
帖子
26
回复
4
收藏
TA的动态
TA的帖子
TA的回复
请问有租用mlu270的平台吗?
我的回复:抱歉,没有短期租用的270。在南京智能计算中心,有MLU270-X5K租用,但主要面向企业的长期租用。
0
MLU220---Yolov5离线模型移植出错
我的回复:#5yy999回复是一样的,没有修改那这问题就很难判断了,一般这类现象都是anchor引起的。那就联系下买设备的销售代表,找技术支持看看源码吧。
0
使用ffmpeg创建h264编码器失败
我的回复:ctx->framerate.den = 1;ctx->framerate.num=25;ctx->time_base = (AVRational) {1, 25};ctx->framerate = (AVRational) {25, 1};
0
如何配置yolov3_mlu220_config_usb_camera.json,使用USB摄像头demo
我的回复:#4shuyang回复可以告知下如何运行吗VideoCapture capture = VideoCapture(0);Mat fram;capture>>fram;imwrite("output.jpg", fram);
0
MLU220 OCR模型量化问题mobilenet v3主干dbnet量化精度损失
我的回复:#2qiuming回复你好,我试过INT16的但没啥太大改善,你们有使用量化感知训练模型转正常模型文件部署的例子吗没有相关的例子。如果设置INT16没有改善的话,那可能问题出在非量化算子的部分。输入是FP16还是FP32呢?
0
cnnl 卷积计算中的定点量化问题
我的回复:#7刘好念回复请问是#define CNNL_QUANTIZE_POSITION_SCALE_OFFSET 么?我在文档中没找到说需要设置 这个宏变量。不过,我还是先去尝试下。展开1、设置CNNL_QUANTIZE_POSITION_SCALE_OFFSET的是quantizeparam接口,是在线求量化参数的算子用的。得到的量化参数在device memory上,不能用cpu的cnnlSetTensorDescriptorPositionScaleAndOffset来设置2、如果是已有量化参数,直接调用cnnlSetTensorDescriptorPositionScaleAndOffset接口设到tensor里,如果conv的计算接口是cnnlconvolutionforward,offset非0就进行非对称量化了,如果是cnnlconvolutionforwardinference,接口上有个castmode,也需要设置成非对称量化
0
magicmind推理失败
我的回复:#5bravomao回复arm版本的模型生成也是没有成功,请问有相关的资料可以借鉴吗最好再找一个x86的环境,排除问题是由ARM引起的,还是别的原因。另外,支持ARM的MagicMind还没有正式发布呢,你是从哪里获取的呢?
0
使用onnx_build转换rtmdet导出的onnx时出现问题
我的回复:是不是又int64类型的量?打开这个配置试试: {"opt_config": {"type64to32_conversion": true}}
0
转换成离线模型的工具可以在没有硬件平台的环境下安装吗,想测试一下把一个pth模型转换为离线模型
我的回复:可以,set_devices的时候,设置-1。但是这种方式生成的模型,性能可能不是最优的。
0
MLU220 OCR模型量化问题mobilenet v3主干dbnet量化精度损失
我的回复:INT8精度不够的话,可以试试INT16。另外,量化感知训练产生的模型,如果保存成正常格式的模型文件,也是可以的,这种模型的精度量化后应该损失更小。
0
上一页
1
2
3
4
5
6
7
8
9
10
..
23
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭