Pytorch¶
Pytorch: Writing Distributed Applications with PyTorch¶
総論¶
Collective Communicationの種類は以下がある。
Scatter
はデータを各ノードに分散させる。0,1,2,3
というデータがあればあるノードには0
を、別のノードには1
をなどのように振り分ける。つまり、1:N
の通信である。Gather
はScatter
の逆で各データに散らばったデータを集約する。つまりN:1
の通信である。Reduce
は
python3 -m venv test
source test/bin/activate
pip3 install torch