Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1778

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1564 kakao WHRIA 2018.02.25 151
1563 delayed network drive connect WHRIA 2018.10.07 152
1562 Micro- and macro-averages WHRIA 2019.11.28 153
1561 stuff [2] WHRIA 2019.07.15 154
1560 startup , 미국 WHRIA 2020.07.30 154
1559 file lock WHRIA 2020.09.22 155
1558 SAS controller SAS 9212-4i WHRIA 2019.12.08 156
1557 fast rcnn cudnn 5.0 WHRIA 2017.01.08 157
1556 역시 개원해서는 돈 버는 재미밖에 없다. WHRIA 2016.06.17 158
1555 yolo custom WHRIA 2019.07.25 158
1554 pytorch optimize WHRIA 2020.08.01 160
1553 Transformer WHRIA 2020.10.09 160
1552 pROC package [3] WHRIA 2019.05.11 161
1551 concat network [3] WHRIA 2020.08.27 167
1550 pytorch pretrained WHRIA 2020.10.28 167

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소