Writer: Joonwon Jang

Contact: [email protected]

0. Floating Point

스크린샷 2024-05-04 오전 11.35.23.png

→ fp32 대비 Exponent와 Fraction을 둘다 줄여 DL모델의 inference시 연구자들이 주로 사용하는 precision. (일반적으로 fp32으로 모델학습, fp16으로 inference을 하나 실험적으로 fp32대비 분명한 성능하락 확인)

→ sign (1) | exponent(5) | fraction (10)

→ 비트가 줄기 때문에 더 적은 메모리를 사용한다.

→ BF16은 fp16과 다르게 자릿수를 대표하는 exponent를 fp32와 동일한 8비트로 설정함으로써 더 넓은 범위의 수를 표현할 수 있음.

→ sign (1) | exponent(8) | fraction (7)