×

签到

分享到微信

打开微信,使用扫一扫进入页面后,点击右上角菜单,

点击“发送给朋友”或“分享到朋友圈”完成分享

并行编程 已完结 sys2021-11-01 18:00:02 回复 1 查看 技术答疑 使用求助
并行编程
分享到:

import torch_mlu.core.mlu_model as ct
ct.set_device(0)// 当前设备0卡使用默认Queue计算
x = torch.randn((64, 128, 24, 24), dtype=torch.float32)
x_mlu = x.to(torch.device('mlu'))out = torch.abs(x_mlu)...// 设定MLU 1卡的Queue进行计算
with torch_mlu.core.mlu_model.Queue(1):
x = torch.randn((64, 128, 24, 24), dtype=torch.float32)
x_mlu = x.to(torch.device('mlu'))
out = torch.abs(x_mlu)...// 设定MLU 2卡的Queue进行计算with torch_mlu.core.mlu_model.Queue(0):
x = torch.randn((64, 128, 24, 24), dtype=torch.float32)
x_mlu = x.to(torch.device('mlu'))
out = torch.abs(x_mlu)...

您好,我查看了pytorch中的任务调度的示例,这个示例支持的是多个MLU270加速卡上完成任务的调度,我希望在一个MUL270上,实现不同的任务通过指定不同的执行类型(如使用1核的任务和使用4核的任务并行执行),不知是否能通过python代码实现,还是需要异构编成来实现,是否有示例可以参考一下呢?


版权所有 © 2024 寒武纪 Cambricon.com 备案/许可证号:京ICP备17003415号-1
关闭