Skip to content

amp distributed pytorch

2020.07.14 07:37

WHRIA 조회 수:52

 

python -m torch.distributed.launch --nproc_per_node=4 main.py \
  --batch_size 60 \
  --num_workers 2 \
  --gpu_devices 0 1 2 3\
  --distributed \
  --log_freq 100


이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.

번호 제목 글쓴이 날짜 조회 수
1819 mAP 계산법 WHRIA 2019.02.24 45560
1818 epitope spreading han 2006.05.09 40978
1817 encfs WHRIA 2020.05.17 34921
1816 Heinrich Law (1:29:300 Law) WHRIA 2007.08.12 24967
1815 일본 주소 [2] WHRIA 2008.06.28 24014
1814 사주팔자 프로그램 file 한승석 2003.02.16 20306
1813 simple adblock file WHRIA 2012.04.13 18076
1812 도란사민 WHRIA 2011.04.19 18069
1811 탤런트 이윤지씨와 함께 file WHRIA 2010.02.04 17011
1810 penicillin han 2003.12.10 15673
1809 SSH tunnel WHRIA 2007.10.01 15079
1808 geexbox [1] han 2006.12.01 14603
1807 아이피부과 개원 WHRIA 2010.01.18 14410
1806 세무회계 WHRIA 2010.01.31 14383
1805 증명사진 WHRIA 2010.03.14 14308

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소