Skip to content

mixed precision training

조회 수 121 추천 수 0 2018.11.06 07:56:13

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100


WHRIA

2018.12.02 08:40:01
*.0.0.1

MIXED 셋팅

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

FP32

default_forward_type: FLOAT
default_backward_type: FLOAT
default_forward_math: FLOAT
default_backward_math: FLOAT

FP16

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT16
default_backward_math: FLOAT16

 

 

CUDA 8.0 으로 하면 속도 향상이 없다.

 

CUDA10.0 기준, cudnn 7.4.1, ResNeXt-50 , 100 iter

 

FP32 - 82 sec, 4779

FP16 - 69 sec+ test 오래걸림 , 2623

Mixed - store 16bit - 69 sec, 2623

Mixed - store 32bit - 69 sec, 2769

 

solver_data_type: FLOAT16 가 16bit 인 경우 memory 를 약간 더 잡아먹는다.

Mixed train 하는 경우

pascal 에서 속도가 30% 향상있고 메모리는 50% 감소한다.

List of Articles
번호 제목 글쓴이 날짜 조회 수sort
1571 Heinrich Law (1:29:300 Law) WHRIA 2007-08-12 24836
1570 일본 주소 [2] WHRIA 2008-06-28 23534
1569 사주팔자 프로그램 file 한승석 2003-02-16 20230
1568 simple adblock file WHRIA 2012-04-13 18027
1567 도란사민 WHRIA 2011-04-19 17980
1566 탤런트 이윤지씨와 함께 file WHRIA 2010-02-04 16951
1565 penicillin han 2003-12-10 15590
1564 SSH tunnel WHRIA 2007-10-01 14990
1563 geexbox [1] han 2006-12-01 14558
1562 아이피부과 개원 WHRIA 2010-01-18 14360
1561 세무회계 WHRIA 2010-01-31 14354
1560 증명사진 WHRIA 2010-03-14 14277
1559 2만원 WHRIA 2010-02-11 14147
1558 WHRIA WORLD (http://whria.net) 한승석 2002-04-12 14058
1557 서버가 노후되었음 WHRIA 2010-04-11 13873

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소