打开微信,使用扫一扫进入页面后,点击右上角菜单,
点击“发送给朋友”或“分享到朋友圈”完成分享
import torch_mlu.core.mlu_model as ct ct.set_device(0)// 当前设备0卡使用默认Queue计算 x = torch.randn((64, 128, 24, 24), dtype=torch.float32) x_mlu = x.to(torch.device('mlu'))out = torch.abs(x_mlu)...// 设定MLU 1卡的Queue进行计算 with torch_mlu.core.mlu_model.Queue(1): x = torch.randn((64, 128, 24, 24), dtype=torch.float32) x_mlu = x.to(torch.device('mlu')) out = torch.abs(x_mlu)...// 设定MLU 2卡的Queue进行计算with torch_mlu.core.mlu_model.Queue(0): x = torch.randn((64, 128, 24, 24), dtype=torch.float32) x_mlu = x.to(torch.device('mlu')) out = torch.abs(x_mlu)... 您好,我查看了pytorch中的任务调度的示例,这个示例支持的是多个MLU270加速卡上完成任务的调度,我希望在一个MUL270上,实现不同的任务通过指定不同的执行类型(如使用1核的任务和使用4核的任务并行执行),不知是否能通过python代码实现,还是需要异构编成来实现,是否有示例可以参考一下呢?
热门帖子
精华帖子