Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1757

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1626 sql 중복제거 WHRIA 2020.02.10 46
1625 airplane WHRIA 2020.02.10 168
1624 batch normalize WHRIA 2020.02.06 44
1623 exif remove WHRIA 2020.01.28 34
1622 nvidia docker WHRIA 2020.01.15 42
1621 lvm 축소 확장 [4] WHRIA 2020.01.13 57
1620 xml json pascal [4] WHRIA 2020.01.12 64
1619 nvidia caffe WHRIA 2020.01.12 46
1618 retinanet nvidia [3] WHRIA 2020.01.12 68
1617 lvm [2] WHRIA 2020.01.09 39
1616 usb 3.1 + DP WHRIA 2020.01.07 167
1615 raid 6 rebuild WHRIA 2020.01.07 35
1614 add extra raid disk WHRIA 2020.01.05 80
1613 참고 또 참고 WHRIA 2020.01.03 69
1612 R graph WHRIA 2019.12.29 228

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소