Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1757

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1581 MS bot framework [3] WHRIA 2020.06.13 99
1580 file lock WHRIA 2020.09.22 99
1579 popup WHRIA 2020.12.31 99
1578 KMA 연수교육 주소 WHRIA 2016.10.05 100
1577 opencv rotate WHRIA 2019.03.09 106
1576 caffe WHRIA 2016.10.19 106
1575 indexeddb [2] WHRIA 2021.02.07 106
1574 fast rcnn WHRIA 2017.01.08 107
1573 high impact journals WHRIA 2019.04.07 112
1572 PHP7 으로 업그레이드 WHRIA 2016.05.05 116
1571 공유 메모리 예제 WHRIA 2016.09.09 121
1570 벤츠 E300 2010 년형 터치스크린 자가 수리 WHRIA 2015.12.25 122
1569 Visual Studio 필요없는 파일 삭제 for SVN file WHRIA 2016.09.04 125
1568 pytorch optimize WHRIA 2020.08.01 126
1567 은행은 믿을 곳이 못 되는군... WHRIA 2019.07.12 127

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소