Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1774

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1819 Gujarati - ગુજરાતી WHRIA 2024.05.24 0
1818 Norwegian - norsk WHRIA 2024.05.24 0
1817 Russian - русский WHRIA 2024.05.24 0
1816 Galician - galego WHRIA 2024.05.24 1
1815 Hungarian - magyar WHRIA 2024.05.24 1
1814 Latvian - latviešu WHRIA 2024.05.24 1
1813 Maltese - Malti WHRIA 2024.05.24 1
1812 Nepali - नेपाली WHRIA 2024.05.24 1
1811 Odia - ଓଡ଼ିଆ WHRIA 2024.05.24 1
1810 이건 비밀글이얍 secret J 2004.04.23 2
1809 Malay - bahasa Malaysia WHRIA 2024.05.24 2
1808 Pashto - پښتو WHRIA 2024.05.24 2
1807 Persian - فارسی WHRIA 2024.05.24 2
1806 아저씨에게 [1] secret ^&^ 2004.04.25 3
1805 Hebrew - עברית WHRIA 2024.05.24 3

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소