Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1757

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1581 모든 code 를 python3 로 migration 중 WHRIA 2019.06.08 138
1580 리눅스 samba mount 정리 [1] WHRIA 2019.05.26 194
1579 LG 21 세기 brain hunt - USA file WHRIA 2019.05.23 422
1578 pROC package [3] WHRIA 2019.05.11 143
1577 이미지 비교 [1] WHRIA 2019.04.23 97
1576 label noise [1] WHRIA 2019.04.18 522
1575 드리블 WHRIA 2019.04.12 64
1574 high impact journals WHRIA 2019.04.07 112
1573 color pallate WHRIA 2019.04.07 50
1572 good luck ! WHRIA 2019.03.21 301
1571 swap memory WHRIA 2019.03.14 59
1570 이궁 WHRIA 2019.03.12 139
1569 HASh benchmark WHRIA 2019.03.10 430
1568 opencv rotate WHRIA 2019.03.09 106
1567 mAP 계산법 WHRIA 2019.02.24 45555

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소