메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

최강 (한양대학교, 한양대학교 대학원)

지도교수
서지원
발행연도
2021
저작권
한양대학교 논문은 저작권에 의해 보호받습니다.

이용수5

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
심층 신경망에서 Quantization은 입력 데이터와 가중치와 같이 연속된 실수로 표현된 값을 이산적인 정수로 근사하여 계산하는 기법이다. Quantization은 정수 형태로 근사를 하기 위해 정수형 구간을 정해 영점(Zero-Point)을 설정하고 스케일링(Scale)을 통해 진행하게 된다. 하지만 많은 입력 데이터에 대해 정확도를 유지하면서 영점과 스케일링을 찾기 위해 Fine-Tuning을 학습하게 되면 시간적인 비용이 많이 들게 된다.
본 논문에서는 Quantization을 하기 위해 요구되는 영점과 스케일을 찾기 위해 Fine-Tuning 학습 시, 시간 대비 정확도의 Trade-Off를 분석하고 모델에 따른 이상적인 학습 수행량을 찾는 것에 목표가 있다.

목차

제 1장 서론 1
제 1절 연구의 필요성과 목적 . 1
제 2장 관련 연구 5
제1절 Integer-Arithmetic-Only Inference 5
제2절 Fine-Tuning 7
제 3장학습 시간과 정확도의 Trade-Off 9
제 1절 문제 정의 9
제 2절 제안 방법 9
제3 절 다양한 모델에서의 Quantization 10
제 4장 실험 . 12
제 1절 실험환경 12
제2 절Float-Point학습시간 vs Quantization 학습 시간 13
제 3절 Quantization 학습 시간 vs 정확도 15
제4절 1-Epoch Quantization vs Quantization-Aware-Training 17
제 5장 결론 . 20

최근 본 자료

전체보기

댓글(0)

0