Skip to content

amp distributed pytorch

2020.07.14 07:37

WHRIA 조회 수:60

 

python -m torch.distributed.launch --nproc_per_node=4 main.py \
  --batch_size 60 \
  --num_workers 2 \
  --gpu_devices 0 1 2 3\
  --distributed \
  --log_freq 100


이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.

번호 제목 글쓴이 날짜 조회 수
154 작전 [4] WHRIA 2009.06.23 7517
153 우분투에서 NETBIOS 설정 WHRIA 2012.04.02 7533
152 Ambition vs Passion WHRIA 2007.08.08 7585
151 deskzoom file WHRIA 2012.05.22 7605
150 whria.net 홈페이지에 음악 삽입 WHRIA 2013.01.17 7608
149 whria.net 복구 WHRIA 2012.12.09 7654
148 gomphoto 1.0.1 file WHRIA 2013.01.10 7658
147 Face It. WHRIA 2007.08.09 7681
146 Minor update WHRIA 2007.08.09 7685
145 Interpretation of the Outputs of Deep Learning Model Trained with Skin Cancer Dataset [1] WHRIA 2018.06.02 7688
144 frame WHRIA 2008.12.11 7694
143 추석 WHRIA 2007.09.25 7702
142 이랬으면 좋겠네. WHRIA 2012.07.15 7720
141 토미그린 (tomygreen) 해외 핸드폰 (nexus 4) 에 설치하기 file WHRIA 2013.04.03 7723
140 Pidgin WHRIA 2007.09.01 7731

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소