Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1777

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
244 label noise [1] WHRIA 2019.04.18 537
243 이미지 비교 [1] WHRIA 2019.04.23 112
242 pROC package [3] WHRIA 2019.05.11 160
241 LG 21 세기 brain hunt - USA file WHRIA 2019.05.23 434
240 리눅스 samba mount 정리 [1] WHRIA 2019.05.26 200
239 모든 code 를 python3 로 migration 중 WHRIA 2019.06.08 148
238 윈도우 파일 검색 옵션 WHRIA 2019.06.14 114
237 image clip [1] WHRIA 2019.07.06 2441
236 은행은 믿을 곳이 못 되는군... WHRIA 2019.07.12 136
235 결극 senet 이 문제 WHRIA 2019.07.13 87
234 batch normalization explain WHRIA 2019.07.14 448
233 stuff [2] WHRIA 2019.07.15 153
232 yolo custom WHRIA 2019.07.25 157
231 python with upload WHRIA 2019.07.28 866
230 crontab 사용법 WHRIA 2019.08.04 720

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소