切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
mcj
296
积分
0
赞
32
帖子
96
回复
0
收藏
TA的动态
TA的帖子
TA的回复
UNet模型MagicMind创建 MagicMind Parser报错'NoneType' object has no attribute 'set_dimension'
我的回复:#1HelloAI回复可以把你的json配置文件贴出来吗?看样子是json配置文件有问题你好。请问是什么json配置文件?我没有json配置文件。我是仿着yolov5 magicmind 推理demo写的
0
pytorch jic.trace融合后.cpu().numpy()不支持
我的回复:#2HelloAI回复可以在具体描述下你问题的背景信息吗?是要用torch with magicmind跑某个模型的推理?unet
0
pytorch jic.trace融合后.cpu().numpy()不支持
我的回复:新的报错:
0
WideDeep逐层推理错误
我的回复:#1踏雪寻梅回复尊敬的开发者你好,请帮忙提供板卡和SDK版本信息。您好,MLU270,Pytorch版本:1.3.0a0附完整代码推荐系统出错求助.zip
0
有没有哪个语义分割模型移植到270或220后速度基本不下降的
我的回复:#2Aiyoungino回复unet++也会吗unet还行,但不换成转置卷积也挺慢,++没试,
0
cnperf分析中的POLL是什么操作
我的回复:#2HelloAI回复POOL相当于是SYNC操作,一般伴随NOTIFY出现,可能是多核协同时在等待其他核一起完成操作,在性能分析时,可不必在意这个算子的时间,优先查看其他算子的耗时。展开好的,确实调用了NOTIFY
0
使用最优检索离线模型报warning
我的回复:#1HelloAI回复在检索最优模型的时候,出现如上Warning是正常现象,说明在检索某些方案的时候,在某些分支无法得到正确的结果。请问您是在生成什么模型时遇到的这个问题?可否提供参考模型?我们可以尝试完善优化方案。展开用自己改的
0
自动检索最优模型可以生成mlu220的配置文件吗
我的回复:#1HelloAI回复当前自动检索最优模型只支持MLU270,还没有MLU220好的,那加速的话还可以怎么优化呢,目前用batchsize=4的方式,前、推、后3个线程一起执行。
0
关于多batch如何在前处理和后处理进行拼接或分离图片
我的回复:#1HelloAI回复前处理部分,为什么拼接的时候是:ptr+=inputSizeS[0]*2/4;就拼接一个416x416x3大小的矩阵,inputSizeS[0]是float16的,*2就是4个字节的,然后除了batch_size=4
0
语义分割多batch推理完之后怎么把推理结果进行后处理
我的回复:#1HelloAI回复查看.cambricon_twins文件的output节点的shape信息,比如output的shape是416*416*2,datatype是fp16,那么每个图片结果的指针偏移就是416 * 416 * 2 * 2 Byte展开感谢,解决了
0
上一页
1
2
3
4
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭