amp distributed pytorch
2020.07.14 07:37
python -m torch.distributed.launch --nproc_per_node=4 main.py \ | |
--batch_size 60 \ | |
--num_workers 2 \ | |
--gpu_devices 0 1 2 3\ | |
--distributed \ | |
--log_freq 100 |
이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
154 | 구글 넥서스(nexus) 4 주문하는법 | WHRIA | 2012.12.14 | 7528 |
153 | 우분투에서 NETBIOS 설정 | WHRIA | 2012.04.02 | 7542 |
152 | Ambition vs Passion | WHRIA | 2007.08.08 | 7596 |
151 | deskzoom | WHRIA | 2012.05.22 | 7621 |
150 | whria.net 홈페이지에 음악 삽입 | WHRIA | 2013.01.17 | 7625 |
149 | whria.net 복구 | WHRIA | 2012.12.09 | 7674 |
148 | gomphoto 1.0.1 | WHRIA | 2013.01.10 | 7679 |
147 | Face It. | WHRIA | 2007.08.09 | 7682 |
146 | Minor update | WHRIA | 2007.08.09 | 7689 |
145 | frame | WHRIA | 2008.12.11 | 7704 |
144 | 추석 | WHRIA | 2007.09.25 | 7708 |
143 | Interpretation of the Outputs of Deep Learning Model Trained with Skin Cancer Dataset [1] | WHRIA | 2018.06.02 | 7713 |
142 | 이랬으면 좋겠네. | WHRIA | 2012.07.15 | 7731 |
141 | Pidgin | WHRIA | 2007.09.01 | 7733 |
140 | 토미그린 (tomygreen) 해외 핸드폰 (nexus 4) 에 설치하기 | WHRIA | 2013.04.03 | 7736 |
https://medium.com/daangn/pytorch-multi-gpu-%ED%95%99%EC%8A%B5-%EC%A0%9C%EB%8C%80%EB%A1%9C-%ED%95%98%EA%B8%B0-27270617936b