Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1757

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1701 CORS WHRIA 2021.01.22 133
1700 popup WHRIA 2020.12.31 99
1699 bay trail ubuntu 20.04 [1] WHRIA 2020.12.24 57
1698 32 bit UEFI [6] WHRIA 2020.12.24 205
1697 sroc [1] WHRIA 2020.12.10 61
1696 test WHRIA 2020.12.03 47
1695 dkms for r8125 WHRIA 2020.11.12 96
1694 unattended upgrade WHRIA 2020.11.01 478
1693 pytorch pretrained WHRIA 2020.10.28 150
1692 steamlit WHRIA 2020.10.15 211
1691 sample size WHRIA 2020.10.13 4235
1690 Transformer WHRIA 2020.10.09 155
1689 file lock WHRIA 2020.09.22 99
1688 onnx broswer WHRIA 2020.09.15 42
1687 fda 인증 WHRIA 2020.09.03 213

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소