메뉴 건너뛰기
소속 기관 / 학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

(연세대학교, 연세대학교 대학원)

지도교수
최희준
발행연도
저작권
연세대학교 논문은 저작권에 의해 보호받습니다.

이용수19

표지
AI에게 요청하기
추천
검색

초록· 키워드

상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지
정보가 잘못된 경우 알려주세요!
자연어 처리(NLP) 분야 중 한 분야인 기계 번역(MT)은 딥 러닝(DL)이라는 기술에 힘입어 비약적인 발전을 이룬 분야 중 하나이다. 기계 번역(MT)은 크게 규칙기반 기계 번역(RBMT), 통계기반 기계 번역(SMT), 그리고 신경망 기계 번역(NMT) 등 세 가지 종류로 구분할 수 있다. 현재, 사용되고 있는 방식은 신경망 기계 번역(NMT)으로 기존 통계기반 기계 번역(SMT)이나 규칙기반 기계 번역(RBMT)보다 성능이 뛰어난 것으로 알려져 있다. 특히, 신경망 기계 번역(NMT)은 딥 러닝(DL) 방식을 이용하여 문맥을 파악하기 때문에 기존 방식들보다 우수한 번역 결과를 얻을 수 있다.
그러나 블랙박스 형태로 되어 있어 신경망 기계 번역(NMT)의 성능이 어떠한 조건에서 최적화를 이루는지 구체적으로 알기 어려운 상황이다. 여기에 성능 최적화와 관련하여 고려해야 할 부분이 많다. 가장 많이 사용되고 있는 구글 번역기에서도 아직 개선해야 할 부분이 많다고 할 수 있다.
서론에서는 연구 목적, 배경 및 의의에 대하여 논하고. 본론에서는 기계 번역(MT)의 정의와 종류, 신경망 기계 번역(NMT) 관련 연구 등에 대하여 살펴보았다. 이어 순환 신경망(RNN) 계열인 GRU를 사용했을 때 성능을 측정하고, 이 때 최소 학습시간, loss 값 등을 측정하여 이와 관련한 최적화 조건을 찾고자 하였다.
결론에서는 측정 결과를 바탕으로 각 수치들이 보이는 양상을 제시하였는데, 전체적으로 embedding size와 배치 사이즈(batch size)를 단계적으로 늘릴수록 학습 시간과 loss 값이 줄어드는 것으로 나타났다. fine-tuning을 통하여 최적화 조건에 어느 정도 근접하였으나, fine-tuning만으로는 우리가 원하는 만큼의 최적화된 성능을 기대하기 어렵다는 한계를 보였으며, pytorch-nlp와 향후 정식 공개될 TensorFlow2.0 라이브러리를 이용하는 등 다양한 관점에서 접근할 필요가 있다.

목차

등록된 정보가 없습니다.

최근 본 자료

전체보기