메뉴 건너뛰기

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
(고려대학교) (고려대학교) (고려대학교) (고려대학교)
저널정보
대한산업공학회 대한산업공학회지 대한산업공학회지 제47권 제4호
발행연도
수록면
342 - 350 (9page)
DOI
10.7232/JKIIE.2021.47.4.342

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
이 논문의 연구방법이 궁금하신가요?
🏆
연구결과
이 논문의 연구결과가 궁금하신가요?
AI에게 요청하기
추천
검색
질문

초록· 키워드

Language models (LMs) pretrained on a large text corpus and fine-tuned on a task data have a remarkable performance for document classification task. Recently, an adaptive pretraining method that re-pretrains the pretrained LMs using an additional dataset in the same domain with the given task to make up the domain discrepancy has reported significant performance improvements. However, current adaptive pretraining methods only focus on the domain gap between pretraining data and fine-tuning data. The writing style is also different because the pretraining data, e.g., Wikipedia, is written in a literary style, but the task data, e.g., customer review, is usually written in a colloquial style. In this work, we propose a colloquial-adaptive pretraining method that re-pretrains the pretrained LM with informal sentences to generalize the LM to colloquial style. We verify the proposed method based on multi-emotion classification datasets. The experimental results show that the proposed method yields improved classification performance on both low- and high-resource data.
상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지
정보가 잘못된 경우 알려주세요!

목차

  1. 1. 서론
  2. 2. 관련연구
  3. 3. 방법론
  4. 4. 실험 설계
  5. 5. 실험 결과
  6. 6. 결론
  7. 참고문헌

참고문헌

참고문헌 신청

최근 본 자료

전체보기
UCI(KEPA) : I410-ECN-0101-2021-530-001929547