切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
HelloAI
414
积分
5
赞
5
帖子
26
回复
4
收藏
TA的动态
TA的帖子
TA的回复
模型在GPU达到75fps,但在mlu220上却达不到实时
我的回复:#2mcj回复就离线模型生成成batchsize为4,然后推理代码将4张图片放到一个指针inputCpuPtrS[0]里,还需要修改其他地方吗?[图片]展开对输出结果做后处理的代码也跟着按照batch_size=4处理就可以了,注意按照输出的shape和datatype处理好数据指针的偏移来获取对应batch的输出结果,比如你这里输出的shape是2*416*416,输出datatype是FLOAT16,那指针的编译就是2*416*416*2个字节
0
怎么在MLU220上用layer命令分析离线模型
我的回复:cnperf在如下路径:/usr/local/neuware/bin/cnperf-cli可将/usr/local/neuware/bin假如到PATH环境变量中。
0
ML270 Docker 环境下重新编译 cambricom_pytorch
我的回复:再cambricon_pytorch的docker容器中编译源码可参考如下步骤:cd /torch/src/catchexport PYTORCH_HOME=/torch/src/pytorch/export VISION_HOME=/torch/src/vision/./script/build_catch.sh 0 1
0
有没有哪个语义分割模型移植到270或220后速度基本不下降的
我的回复:您试试SegNet或者DeepLab-V3
0
yolov4-tiny转caffe模型失败
我的回复:darknet2caffe.py这个脚本对yolov4支持的不太好,你可以试试用pytorch去转darknet的模型,可参考如下链接的教程:https://gitee.com/cambriconknight/dev-env-ubuntu/tree/master/pytorch/yolov4
0
用deconv替换双线性插值,参数该怎么取?
我的回复:用deconv去替代upstream可以按照如下公式设置参数:kernel_size = 2*upscale_factor - upscale_factor%2stride=upscale_factorpadding = int(upscale_factor/2)bias=FalseTFU对算子规模的支持受限于很多因素,只能支持当前已经支持的规模,短时间内不会再新增规模了
0
cnperf分析中的POLL是什么操作
我的回复:POOL相当于是SYNC操作,一般伴随NOTIFY出现,可能是多核协同时在等待其他核一起完成操作,在性能分析时,可不必在意这个算子的时间,优先查看其他算子的耗时。
0
yolox部署
我的回复:yolox的移植demo:https://forum.cambricon.com/index.php?m=content&c=index&a=show&catid=141&id=2007
0
yolov5 离线模型转换支持 yolov5x.pt 转换吗
我的回复:#2user-bing回复你们有支持 yolox_s 和 yolov5s 的例子吗?yolox的移植可参考如下例子:https://forum.cambricon.com/index.php?m=content&c=index&a=show&catid=141&id=2007
0
cnperf分析中的POLL是什么操作
我的回复:是否有AddLoopBody这种Op?
0
上一页
1
...
13
14
15
16
17
18
19
20
21
..
23
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭