切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
大模型专区
寒武纪® AIDC® MLU370®系列加速卡
MLU200系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
mcj
296
积分
0
赞
32
帖子
96
回复
0
收藏
TA的动态
TA的帖子
TA的回复
UNet模型MagicMind创建 MagicMind Parser报错'NoneType' object has no attribute 'set_dimension'
我的回复:#1HelloAI回复可以把你的json配置文件贴出来吗?看样子是json配置文件有问题你好。请问是什么json配置文件?我没有json配置文件。我是仿着yolov5 magicmind 推理demo写的
0
pytorch jic.trace融合后.cpu().numpy()不支持
我的回复:#2HelloAI回复可以在具体描述下你问题的背景信息吗?是要用torch with magicmind跑某个模型的推理?unet
0
pytorch jic.trace融合后.cpu().numpy()不支持
我的回复:新的报错:
0
WideDeep逐层推理错误
我的回复:#1踏雪寻梅回复尊敬的开发者你好,请帮忙提供板卡和SDK版本信息。您好,MLU270,Pytorch版本:1.3.0a0附完整代码推荐系统出错求助.zip
0
有没有哪个语义分割模型移植到270或220后速度基本不下降的
我的回复:#2Aiyoungino回复unet++也会吗unet还行,但不换成转置卷积也挺慢,++没试,
0
cnperf分析中的POLL是什么操作
我的回复:#2HelloAI回复POOL相当于是SYNC操作,一般伴随NOTIFY出现,可能是多核协同时在等待其他核一起完成操作,在性能分析时,可不必在意这个算子的时间,优先查看其他算子的耗时。展开好的,确实调用了NOTIFY
0
使用最优检索离线模型报warning
我的回复:#1HelloAI回复在检索最优模型的时候,出现如上Warning是正常现象,说明在检索某些方案的时候,在某些分支无法得到正确的结果。请问您是在生成什么模型时遇到的这个问题?可否提供参考模型?我们可以尝试完善优化方案。展开用自己改的
0
自动检索最优模型可以生成mlu220的配置文件吗
我的回复:#1HelloAI回复当前自动检索最优模型只支持MLU270,还没有MLU220好的,那加速的话还可以怎么优化呢,目前用batchsize=4的方式,前、推、后3个线程一起执行。
0
关于多batch如何在前处理和后处理进行拼接或分离图片
我的回复:#1HelloAI回复前处理部分,为什么拼接的时候是:ptr+=inputSizeS[0]*2/4;就拼接一个416x416x3大小的矩阵,inputSizeS[0]是float16的,*2就是4个字节的,然后除了batch_size=4
0
语义分割多batch推理完之后怎么把推理结果进行后处理
我的回复:#1HelloAI回复查看.cambricon_twins文件的output节点的shape信息,比如output的shape是416*416*2,datatype是fp16,那么每个图片结果的指针偏移就是416 * 416 * 2 * 2 Byte展开感谢,解决了
0
上一页
1
2
3
4
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭