amp distributed pytorch
2020.07.14 07:37
python -m torch.distributed.launch --nproc_per_node=4 main.py \ | |
--batch_size 60 \ | |
--num_workers 2 \ | |
--gpu_devices 0 1 2 3\ | |
--distributed \ | |
--log_freq 100 |
이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
1716 | 이건 비밀글이얍 | J | 2004.04.23 | 2 |
1715 | 아저씨에게 [1] | ^&^ | 2004.04.25 | 3 |
1714 | 아저씨~ [1] | ^&^ | 2004.05.15 | 5 |
1713 | 다시 이곳으로... | WHRIA | 2024.03.02 | 6 |
1712 | 모든 연구 자료를 정리. 이것으로 마무리 짓기로. | WHRIA | 2024.03.03 | 14 |
1711 | MedicalPhoto MSVC 2015 와 최신 boost 로... | WHRIA | 2016.08.26 | 17 |
1710 | Visual Studio 설치후 Excel 2002 (XP) 종료시 에러 문제 | WHRIA | 2015.11.20 | 21 |
1709 | headless PC 를 위한 dummy plug in 을 구입해서 달다. | WHRIA | 2015.11.22 | 21 |
1708 | XP shutdown 시 강제종료 시키기 | WHRIA | 2016.08.16 | 21 |
1707 | XE 에 tinymce 에디터를 달다. | WHRIA | 2015.11.22 | 22 |
1706 | USB 에뮬레이션 램디스트 imdisk | WHRIA | 2016.09.02 | 27 |
1705 | 학술저널 받는법 | WHRIA | 2015.11.30 | 28 |
1704 | imbalanced dataset | WHRIA | 2018.12.26 | 28 |
1703 | raid monitor | WHRIA | 2019.12.15 | 31 |
1702 | 지급명세서 | WHRIA | 2015.10.14 | 32 |
https://medium.com/daangn/pytorch-multi-gpu-%ED%95%99%EC%8A%B5-%EC%A0%9C%EB%8C%80%EB%A1%9C-%ED%95%98%EA%B8%B0-27270617936b