Skip to content

mixed precision training

2018.11.06 06:56

WHRIA 조회 수:1757

train (math) 는 FP16 으로 하고 storage 는 FP32 로 해서 BVLC Caffe 에서도 잘 동작하는듯.

정확도는 아직 더 test 해봐야한다. scale factor 는 100~1000 이 적당한듯.

 

NVCaffe 에서 trainval.prototxt 에 아래와 같이 추가 

default_forward_type: FLOAT16
default_backward_type: FLOAT16
default_forward_math: FLOAT
default_backward_math: FLOAT

global_grad_scale:100

번호 제목 글쓴이 날짜 조회 수
1714 MDR - PL WHRIA 2023.05.11 69
1713 언어 , 국가 WHRIA 2023.04.15 80
1712 cloudfront WHRIA 2023.04.09 50
1711 원격 진료 WHRIA 2023.03.23 63
1710 AI papers [6] WHRIA 2023.03.02 68
1709 gpt2 WHRIA 2023.02.21 386
1708 rsynccp WHRIA 2023.02.20 49
1707 disk error WHRIA 2023.02.16 48
1706 정량화 논문들 WHRIA 2023.02.16 60
1705 chat GPT WHRIA 2023.02.16 62
1704 Google vs Microsoft: The good, bad, and ugly of the AI arms race WHRIA 2023.02.14 135
1703 insync WHRIA 2023.02.09 47
1702 indexeddb [2] WHRIA 2021.02.07 107
1701 CORS WHRIA 2021.01.22 134
1700 popup WHRIA 2020.12.31 99

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소