메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
김혜린 (부산대학교) 조상현 (부산대학교) 이정훈 (동의대학교) 신중민 (부산대학교) 권혁철 (부산대학교)
저널정보
한국정보통신학회 한국정보통신학회 종합학술대회 논문집 한국정보통신학회 2023년도 추계종합학술대회 논문집 제27권 제2호
발행연도
2023.10
수록면
189 - 192 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
최근 거대 언어 모델(Large Language Models, LLMs)에 대한 관심이 뜨거워지면서 이를 활용하는 경우가 증가하고 았다. 자연스럽게 모델이 각 상황에 맞게 학습할 데이터 또한 중요해지는데, 데이터셋의 제작에는 상당한 비용과 노력이 들어가게 된다. 보다 빠르고, 비용이 적게 들지만 동시에 퀄리티는 유지할 수 있는 방법이 필요해지고 있음을 의미한다.
따라서 본 연구에서는 거대 언어 모델을 학습하기 위한 질적 데이터 증강 기법에 대해 제안하고자 한다. 한국어 어휘의미망인 KorLex 1.5를 활용하여 단어의 동의어 및 유의어를 찾아 대체해 언어 모델이 비슷한 표현에도 다양한 어휘를 학습 가능함에 중점을 두었다. 제안 증강 방법을 네 가지 한국어 데이터셋에 적용하여 나타난 성능 차이를 통해 데이터셋의 중요성과 방법의 유의미함을 확인할 수 있었고, 앞으로의 발전 방향성에 대해서도 재고할 수 있었다.

목차

요약
ABSTRACT
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 데이터셋
Ⅳ. 실험
Ⅴ. 결론
References

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0