切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
lanhao
202
积分
5
赞
1
帖子
5
回复
4
收藏
TA的动态
TA的帖子
TA的回复
活动帖 | 2023~7月CP值兑换开始了! (已结束)
我的回复:1. 您的昵称:lanhao2. 您的CP值总额:200 CP值3. 您要扣减的CP值额:150CP值4. 您要兑换的礼品:定制充电宝套装
0
x8单卡只有一个节点运行
我的回复:#5Asher_Z回复换个port可以运行,但提示mlulink显示3,4端口不能通信,还是运行在单节点。不知道是不是这个原因?[图片]展开检查下mlu link是不是正常吧
0
magicmind推理失败
我的回复:检查下模型路径
0
x8单卡只有一个节点运行
我的回复:#3Asher_Z回复torch的torch.nn.parallel.ddp方法?init_method参数如何设置?我用IP:Port,提示被占用。展开一般经验下是ip:port没有配置成功,可以追溯到torch源码中把ip和port打印出来看一下
0
x8单卡只有一个节点运行
我的回复:#1lanhao回复使用分布式计算的方法寒武纪提供了寒武纪版本的deepspeed,https://sdk.cambricon.com/download?sdk_version=V1.13.0&component_name=Basis 也可以使用torch的分布式接口
0
x8单卡只有一个节点运行
我的回复:使用分布式计算的方法
0
langchain-chatglm6b 在 寒武纪MLU370-X8板卡上的试用
我的回复:#4疯狂的hyz回复上传一份新的知识库文件,会覆盖掉之前的文件数据吗?不会,做过上传新知识库再问原知识库的实验,是可以回答原知识库的问题的
5
langchain-chatglm6b 在 寒武纪MLU370-X8板卡上的试用
我的回复:#1jyjyjyjyjy回复这个除了chatglm6b之外还可以有别的吗?可以的,当前代码对vicuna、belle都有支持
5
关于空洞卷积的问题
我的回复:暂时不能确定,可以先运行逐层模式看看有没有问题,通过逐层模式看具体是哪一层发生了多2这个问题。如果逐层模式能正常运行,再继续定位融合(生成离线)
0
cnjpegEncOutput这个结构体在头文件里的声明跟文档描述的不符,会有兼容性问题吗?
我的回复:以头文件和实际代码为准
0
上一页
1
2
3
4
5
6
7
8
9
10
下一页
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭