메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
노연수 (인하공업전문대학교) 김철진 (인하공업전문대학교)
저널정보
한국산학기술학회 한국산학기술학회 논문지 한국산학기술학회논문지 제25권 제9호
발행연도
2024.9
수록면
211 - 221 (11page)
DOI
10.5762/KAIS.2024.25.9.211

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
트랜스포머(Transformer) 아키텍처 기반의 대규모 언어 모델(LLM: Large Language Models)은 자연어 처리 작업에서 매우 높은 수준의 성능을 보인다. 크기와 성능 효율성을 고려한 여러 모델이 개발되었으나, 여전히 모델 운용에는 많은 메모리 자원이 필요하기에 메모리 효율성을 고려한 모델의 경량화가 중요한 과제로 대두되고 있다. 기존 모델의 구조를 유지하면서 파라미터를 저정밀도 데이터 타입으로 변환하는 양자화는 메모리 사용량을 크게 줄일 수 있으며, 추가적인 훈련 없이도 적용할 수 있어 응용 프로그램 통합시 접근성과 효율성을 높여준다. 본 연구에서는 비트 앤 바이트(BitsAndBytes) 양자화 모듈을 활용하여 오픈소스 한국어 언어 모델을 경량화하고, 메모리 사용량과 성능을 비교하여 LLM의 효율적 운용 방안을 제시한다. 8비트 및 4비트 양자화를 통해 각각 평균 약 38%, 67%의 메모리 감소를 확인했으며, 언어 모델 평가 벤치마크에서 평균 성능 변화율이 5% 미만으로 나타나 양자화에 의한 성능 손실이 크지 않음을 확인했다. 또한, 메모리 사용량이 유사한 양자화된 대형 모델과 소형 모델의 성능을 비교한 결과, 13개 벤치마크 중 양자화된 대형 모델이 0-shot 9개, 5-shot 8개 항목에서 성능 우위를 보여, 대형 모델을 양자화하여 사용하는 것이 일반화 성능과 자원 효율성 측면에서 더 효과적임을 입증했다.

목차

요약
Abstract
1. 서론
2. 이론적 배경 및 관련 연구
3. 연구 방법론
4. 실험 및 결과 분석
5. 결론 및 향후 연구
References

참고문헌 (38)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0