메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
백지수 (서강대학교) 방나모 (서강대학교) 연희연 (서강대학교) 김민주 (서강대학교) 구명완 (서강대학교)
저널정보
Korean Institute of Information Scientists and Engineers 정보과학회 컴퓨팅의 실제 논문지 정보과학회 컴퓨팅의 실제 논문지 제30권 제3호
발행연도
2024.3
수록면
137 - 142 (6page)
DOI
10.5626/KTCP.2024.30.3.137

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
자연어 생성 모델 간의 상징적 지식 증류 프롬프트 엔지니어링 기법을 제안한다. 이 기법은 특정 다운스트림 태스크에 대한 각 모델의 추론 결과 텍스트를 "상징적 증류 지식" (Symbolic Distilled Knowledge)으로 정의한다. 아울러 각 생성 모델이 다른 생성 모델에서 증류한 지식을 학습하도록 하여 인간의 노동력을 최소화하는 방식으로 다운스트림 태스크에 대한 추론 능력을 향상하는 것을 목표로 한다. 이 연구에서는 모델 구조와 파라미터 규모에 차이가 있는 GPT-J와 T5 모델로 실험하였다. 그 결과 상호상징적 지식 증류를 진행한 모델들이 실험 대상 다운스트림 태스크에서 베이스라인 대비 우수하거나 유사한 성능을 나타내었다. 일례로 Intent Classification 태스크 벤치마크 SLURP에 대해서는 GPT-J의 증류지식을 학습한 T5는 일반 T5보다 10% 이상 향상된 81.95%의 정확도를, T5의 증류 지식을 학습한 GPT-J는 일반 GPT-J보다 7.38% 오른 29.76%의 정확도를 기록했다.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. 파이프라인 개요
4. 실험 결과 분석
5. 결론
References

참고문헌 (9)

참고문헌 신청

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-24-02-089494702