Skip to content

amp distributed pytorch

2020.07.14 07:37

WHRIA 조회 수:60

 

python -m torch.distributed.launch --nproc_per_node=4 main.py \
  --batch_size 60 \
  --num_workers 2 \
  --gpu_devices 0 1 2 3\
  --distributed \
  --log_freq 100


이 코드를 실행할 때는 다음 명령어를 사용해서 실행합니다. Torch.distributed.launch를 통해 main.py를 실행하는데 노드에서 4개의 프로세스가 돌아가도록 설정합니다. 각 프로세스는 GPU 하나에서 학습을 진행합니다. 만약 GPU가 2개라면 nproc_per_node를 2로 수정하면 됩니다. main.py에 batch_size와 num_worker를 설정하는데 각 GPU 마다의 batch_size와 worker 수를 의미합니다. batch size가 60이고 worker의 수가 2라면 전체적으로는 batch size가 240이며 worker의 수는 8입니다.

번호 제목 글쓴이 날짜 조회 수
169 나양 2001.01.09 2174
168 RE:119번 이야기 구름 2001.01.02 2087
167 *^^* 구름 2001.01.02 2250
166 넘 바쁘고 장난 아니다. 으..죽겠다. 2000.12.25 2071
165 승석 뭐하노? 2000.12.25 2077
164 허거덕 재호 2000.12.22 2076
163 승써가 가을동화 2000.11.29 2237
162 으~승석아... 신나남 2000.11.27 2250
161 내과 홈페이지 노가다가 일부 끝나다. 한승석 2000.11.19 2122
160 승석아... 신나남 2000.11.16 2076
159 야호.. CDSPACE 이름 짓기에 당첨.. 한승석 2000.11.14 2382
158 홈피 잘 구경하고 가요 *^^* viere♥ 2000.11.13 2075
157 야... 신나남 2000.11.06 2547
156 이런 홈페이지는 처음 봐요. 최훈성 2000.11.03 2188
155 요즘 나는 한승석 2000.10.30 2070

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소