Pytorch

Pytorch: Writing Distributed Applications with PyTorch

総論

Collective Communicationの種類は以下がある。

  • Scatterはデータを各ノードに分散させる。0,1,2,3というデータがあればあるノードには0を、別のノードには1をなどのように振り分ける。つまり、1:Nの通信である。
  • GatherScatterの逆で各データに散らばったデータを集約する。つまりN:1の通信である。
  • Reduce
python3 -m venv test
source test/bin/activate
pip3 install torch