amp distributed pytorch
2020.07.14 07:37
python -m torch.distributed.launch --nproc_per_node=4 main.py \ | |
--batch_size 60 \ | |
--num_workers 2 \ | |
--gpu_devices 0 1 2 3\ | |
--distributed \ | |
--log_freq 100 |
이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
1686 | 나야~ 혜진... 오랜만인걸.. | 김혜진 | 2000.06.22 | 3381 |
1685 | 홈페이지 넘 멋있어요~ | 한양의대본4 | 2000.06.24 | 3316 |
1684 | 승석아 | 김재호 | 2000.06.27 | 3361 |
1683 | 앗 다시보니..새로운 문제점들이 | 김재호 | 2000.06.27 | 3311 |
1682 | Re: 앗 다시보니..새로운 문제점들이 | 한승석 | 2000.06.27 | 3621 |
1681 | Re: 승석아 | 한승석 | 2000.06.27 | 3302 |
1680 | 들어와본 소감 ...이거 대회에 도움되려나? | 강승민 | 2000.06.27 | 3160 |
1679 | 사진들이 업데이트 되었습니다. | 한승석 | 2000.06.28 | 3206 |
1678 | 승석아 홈페이지 참 멋있다. | 정석원 | 2000.07.03 | 3638 |
1677 | 버전은 어떻게 높이나요? | 박병선 | 2000.07.04 | 3361 |
1676 | 소스를 고쳐보세요. | 한승석 | 2000.07.05 | 3573 |
1675 | 사진 더 추가해줘잉 | 재호 | 2000.07.07 | 3608 |
1674 | 홈페이지가 너무 멋있군요, | kraye | 2000.07.10 | 3343 |
1673 | .승무. | 나비가루 | 2000.07.10 | 3476 |
1672 | 음란전화.... | 윤재원 | 2000.07.10 | 3648 |
https://medium.com/daangn/pytorch-multi-gpu-%ED%95%99%EC%8A%B5-%EC%A0%9C%EB%8C%80%EB%A1%9C-%ED%95%98%EA%B8%B0-27270617936b