amp distributed pytorch
2020.07.14 07:37
python -m torch.distributed.launch --nproc_per_node=4 main.py \ | |
--batch_size 60 \ | |
--num_workers 2 \ | |
--gpu_devices 0 1 2 3\ | |
--distributed \ | |
--log_freq 100 |
이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
184 | topsite | WHRIA | 2008.11.13 | 7019 |
183 | Clinical Study | WHRIA | 2007.08.13 | 7041 |
182 | 사랑에 빠지다 | WHRIA | 2007.07.06 | 7051 |
181 | 제 홈페이지를 두배로 즐기려면??? | 한승석 | 2000.06.09 | 7062 |
180 | Medicalphoto 홈페이지 개편 | WHRIA | 2012.04.10 | 7116 |
179 | Deep learning 기반 DEMO | WHRIA | 2018.09.16 | 7120 |
178 | MS 가 리눅스개발자를 구한다는데 | WHRIA | 2012.01.29 | 7128 |
177 | 피부암 | WHRIA | 2008.08.13 | 7138 |
176 | go~ go~ go~ | WHRIA | 2008.08.19 | 7163 |
175 | inception | WHRIA | 2017.01.23 | 7197 |
174 | 인생의 방향 | WHRIA | 2007.09.18 | 7219 |
173 | 신한 | WHRIA | 2008.10.27 | 7229 |
172 | ssl | WHRIA | 2008.06.09 | 7230 |
171 | 인생 헛살지는 않았다. | WHRIA | 2007.07.24 | 7235 |
170 | 버릴 것은 버리십시요. | WHRIA | 2007.08.09 | 7245 |
https://medium.com/daangn/pytorch-multi-gpu-%ED%95%99%EC%8A%B5-%EC%A0%9C%EB%8C%80%EB%A1%9C-%ED%95%98%EA%B8%B0-27270617936b