메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학술저널
저자정보
박권식 (고려대학교) 김성태 (고려대학교) 송상헌 (고려대학교)
저널정보
한국언어정보학회 언어와 정보 언어와 정보 제25권 제3호
발행연도
2021.11
수록면
1 - 21 (21page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색

초록· 키워드

오류제보하기
Syntactic studies make use of the minimally pairwise sentences as an argumentation tool, because the pairs allow us to pay attention to the constraints of interest. Likewise, it is helpful to use a set of minimal pairs in deep learning-based experiments for assessing the syntactic ability of neural language models. In this context, this study verifies whether the deep learning Korean model has the ability to properly distinguish the well-formed expressions and the corresponding ill-formed expressions. In the meanwhile, this study serves to examine the feasibility of the language resource constructed by the Korean government for deep learning architecture. The research is three-fold. First, we conducted an acceptability judgment testing to verify whether and how the language resource used in this study is indeed trustworthy. The results indicate that the judgments provided in the language resource converge with the judgments of our own experiment well enough. Second, we employed four Korean models such as mBERT, KoBERT, KR-BERT, KorBERT in order to evaluate how the language resource has a potentiality to predict the well-formedness of Korean expressions. The different models yield different results, the reason of which is fully discussed. Third, we made use of an independent test-set for evaluating the deep learning systems. It turns out that the results are still challenging, which implies that the current Korean models may have room for improvement to understand the syntactic phenomena.

목차

등록된 정보가 없습니다.

참고문헌 (29)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0