切换版块
×
基础软件平台
PyTorch开发
TensorFlow开发
编解码及SDK开发
BANG语言与计算库
开发工具链
MagicMind开发
软件栈百科
云平台集成
硬件产品专区
MLU370系列AI加速卡
MLU270系列AI加速卡
MLU220系列AI加速产品
经验方案交流区
经验案例与实践分享
开发者服务
开发者活动
公告与版务
高校支持
《智能计算系统》
签到
版块
社区
文档
SDK下载
370系列
200系列
开发平台
官网首页
注册
登录
全部版块
基础软件平台
硬件产品专区
经验方案交流区
开发者服务
高校支持
发布新帖
登录/注册
LV.1
jyjyjyjyjy
23
积分
4
赞
3
帖子
5
回复
1
收藏
TA的动态
TA的帖子
TA的回复
langchain-chatglm6b 在 寒武纪MLU370-X8板卡上的试用
我的回复:这个除了chatglm6b之外还可以有别的吗?
5
寒武纪二次开发过的模型支持转onnx吗?
我的回复:#3jyjyjyjyjy回复pytorch可以直接转onnxtorch.onnx.export(model, input_data, \"x.onnx\", export_params=True, verbose=True, training=False)
0
寒武纪二次开发过的模型支持转onnx吗?
我的回复:pytorch可以直接转onnx
0
cnrt接口介绍
我的回复:#1含含回复谢谢,如果是多卡的使用 cnrtSetCurrentDevice 进行设置?CNRT_CHECK(cnrtGetDeviceHandle(&dev, dev_id)); CNRT_CHECK(cnrtSetCurrentDevice(dev));
0
FP16数据类型转换
我的回复:#2含含回复是不是也可以使用bangc算子写一个算子进行类型转换?bangc有专门的__float2half
0
caffe离线模型生成
我的回复:MLU100吗?
0
firstconv设置成false 时,要如何输入数据?
我的回复:firstconv设置成false时,将输入数据设为fp32或者fp16,需要做减均值除方差。
0
Github
开发平台
文档中心
新手必读
官方微信
版权所有 © 2025 寒武纪 Cambricon.com 备案/许可证号:
京ICP备17003415号-1
关闭