메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
조상연 (중앙대학교) 김준영 (중앙대학교)
저널정보
대한전자공학회 대한전자공학회 학술대회 2023년도 대한전자공학회 하계학술대회 논문집
발행연도
2023.6
수록면
2,895 - 2,898 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
In this paper, we propose with a novel knowledge distillation learning methodology that extracts the representation of a pre-trained model in a specific domain and trains it on a model that solves the problem of a specific task. The main motivation of our proposed model is to transfer domain knowledge. We implemented and experimented with the BERT-based method, and expanded the use and universality of pre-trained models by learning additional domains (language, expertise, etc.) that were not included in the pre-training data of the language model.

목차

Abstract
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 본론
Ⅳ. 구현 및 데이터셋
Ⅴ. 실험/결과 및 고찰
Ⅵ. 결론 및 향후 연구 방향
참고문헌

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0