Pytorch 实现 DistributedDataParallel *** 作

Pytorch 实现 DistributedDataParallel  *** 作,第1张

一、DataParalle缺点

Pytorch单机多卡(GPU)运行的基本方法是使用torch.DataParlle()函数,具体 *** 作参考:

其主要原理:假设有四个GPU,batch_size=64,input_dim为输入数据特征维度。nn.DataParallel() 将随机样本集(64, input_dim)分成四份输入到每个GPU。每个GPU处理(16, input_dim)的数据集(前向传播计算)。然后第一个GPU合并四份输出数据,并计算Loss(反向传播计算)。因此第一个GPU计算量大,负载不均衡。

官方也推荐DistributedDataParallel方法。

二、DistributedDataParallel 原理

待续ing

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/langs/904703.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-05-15
下一篇2022-05-15

发表评论

登录后才能评论

评论列表(0条)

    保存