Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1757

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1686 윈도우 raid ahci 전환 WHRIA 2019.12.26 37
1685 android / capture and crop [5] WHRIA 2020.05.10 37
1684 plum WHRIA 2020.04.03 38
1683 youtube WHRIA 2016.09.30 39
1682 lvm [2] WHRIA 2020.01.09 39
1681 회귀분석 종류 WHRIA 2020.04.14 39
1680 sql replication 성공 [1] WHRIA 2020.02.20 40
1679 서피스 3 질렀다. ㅎㅎ WHRIA 2015.12.15 41
1678 webapp [1] WHRIA 2020.05.10 41
1677 nvidia docker WHRIA 2020.01.15 42
1676 acquihire [1] WHRIA 2020.05.05 42
1675 onnx broswer WHRIA 2020.09.15 42
1674 multiple NIC ubuntu [6] WHRIA 2020.03.10 43
1673 raid 6 WHRIA 2020.07.23 43
1672 batch normalize WHRIA 2020.02.06 44

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소