amp distributed pytorch
2020.07.14 07:37
python -m torch.distributed.launch --nproc_per_node=4 main.py \ | |
--batch_size 60 \ | |
--num_workers 2 \ | |
--gpu_devices 0 1 2 3\ | |
--distributed \ | |
--log_freq 100 |
이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
1656 | rsynccp | WHRIA | 2023.02.20 | 49 |
1655 | color pallate | WHRIA | 2019.04.07 | 50 |
1654 | cloudfront | WHRIA | 2023.04.09 | 50 |
1653 | 싸이월드도 없어지는구나 | WHRIA | 2015.10.10 | 51 |
1652 | boost 1.35 build | WHRIA | 2016.05.01 | 51 |
1651 | software validation [1] | WHRIA | 2020.05.10 | 51 |
» | amp distributed pytorch [1] | WHRIA | 2020.07.14 | 51 |
1649 | WOL shutdown | WHRIA | 2016.01.22 | 52 |
1648 | psexec | WHRIA | 2016.07.28 | 52 |
1647 | center % crop | WHRIA | 2018.12.27 | 52 |
1646 | 멀티캐스트 | WHRIA | 2015.11.03 | 53 |
1645 | startup | WHRIA | 2020.05.08 | 53 |
1644 | 이율초재 | WHRIA | 2014.10.20 | 54 |
1643 | 증시의 허풍 예언들 | WHRIA | 2015.11.20 | 55 |
1642 | DD-WRT 펌웨어로 버팔로 G450H 를 업그레이드 | WHRIA | 2015.11.22 | 56 |
https://medium.com/daangn/pytorch-multi-gpu-%ED%95%99%EC%8A%B5-%EC%A0%9C%EB%8C%80%EB%A1%9C-%ED%95%98%EA%B8%B0-27270617936b