인문학
사회과학
자연과학
공학
의약학
농수해양학
예술체육학
복합학
개인구독
소속 기관이 없으신 경우, 개인 정기구독을 하시면 저렴하게
논문을 무제한 열람 이용할 수 있어요.
지원사업
학술연구/단체지원/교육 등 연구자 활동을 지속하도록 DBpia가 지원하고 있어요.
커뮤니티
연구자들이 자신의 연구와 전문성을 널리 알리고, 새로운 협력의 기회를 만들 수 있는 네트워킹 공간이에요.
논문 기본 정보
- 자료유형
- 학위논문
- 저자정보
- 지도교수
- 최희준
- 발행연도
- 2019
- 저작권
- 연세대학교 논문은 저작권에 의해 보호받습니다.
이용수19
초록· 키워드
상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지정보가 잘못된 경우 알려주세요!
자연어 처리(NLP) 분야 중 한 분야인 기계 번역(MT)은 딥 러닝(DL)이라는 기술에 힘입어 비약적인 발전을 이룬 분야 중 하나이다. 기계 번역(MT)은 크게 규칙기반 기계 번역(RBMT), 통계기반 기계 번역(SMT), 그리고 신경망 기계 번역(NMT) 등 세 가지 종류로 구분할 수 있다. 현재, 사용되고 있는 방식은 신경망 기계 번역(NMT)으로 기존 통계기반 기계 번역(SMT)이나 규칙기반 기계 번역(RBMT)보다 성능이 뛰어난 것으로 알려져 있다. 특히, 신경망 기계 번역(NMT)은 딥 러닝(DL) 방식을 이용하여 문맥을 파악하기 때문에 기존 방식들보다 우수한 번역 결과를 얻을 수 있다.
그러나 블랙박스 형태로 되어 있어 신경망 기계 번역(NMT)의 성능이 어떠한 조건에서 최적화를 이루는지 구체적으로 알기 어려운 상황이다. 여기에 성능 최적화와 관련하여 고려해야 할 부분이 많다. 가장 많이 사용되고 있는 구글 번역기에서도 아직 개선해야 할 부분이 많다고 할 수 있다.
서론에서는 연구 목적, 배경 및 의의에 대하여 논하고. 본론에서는 기계 번역(MT)의 정의와 종류, 신경망 기계 번역(NMT) 관련 연구 등에 대하여 살펴보았다. 이어 순환 신경망(RNN) 계열인 GRU를 사용했을 때 성능을 측정하고, 이 때 최소 학습시간, loss 값 등을 측정하여 이와 관련한 최적화 조건을 찾고자 하였다.
결론에서는 측정 결과를 바탕으로 각 수치들이 보이는 양상을 제시하였는데, 전체적으로 embedding size와 배치 사이즈(batch size)를 단계적으로 늘릴수록 학습 시간과 loss 값이 줄어드는 것으로 나타났다. fine-tuning을 통하여 최적화 조건에 어느 정도 근접하였으나, fine-tuning만으로는 우리가 원하는 만큼의 최적화된 성능을 기대하기 어렵다는 한계를 보였으며, pytorch-nlp와 향후 정식 공개될 TensorFlow2.0 라이브러리를 이용하는 등 다양한 관점에서 접근할 필요가 있다.
그러나 블랙박스 형태로 되어 있어 신경망 기계 번역(NMT)의 성능이 어떠한 조건에서 최적화를 이루는지 구체적으로 알기 어려운 상황이다. 여기에 성능 최적화와 관련하여 고려해야 할 부분이 많다. 가장 많이 사용되고 있는 구글 번역기에서도 아직 개선해야 할 부분이 많다고 할 수 있다.
서론에서는 연구 목적, 배경 및 의의에 대하여 논하고. 본론에서는 기계 번역(MT)의 정의와 종류, 신경망 기계 번역(NMT) 관련 연구 등에 대하여 살펴보았다. 이어 순환 신경망(RNN) 계열인 GRU를 사용했을 때 성능을 측정하고, 이 때 최소 학습시간, loss 값 등을 측정하여 이와 관련한 최적화 조건을 찾고자 하였다.
결론에서는 측정 결과를 바탕으로 각 수치들이 보이는 양상을 제시하였는데, 전체적으로 embedding size와 배치 사이즈(batch size)를 단계적으로 늘릴수록 학습 시간과 loss 값이 줄어드는 것으로 나타났다. fine-tuning을 통하여 최적화 조건에 어느 정도 근접하였으나, fine-tuning만으로는 우리가 원하는 만큼의 최적화된 성능을 기대하기 어렵다는 한계를 보였으며, pytorch-nlp와 향후 정식 공개될 TensorFlow2.0 라이브러리를 이용하는 등 다양한 관점에서 접근할 필요가 있다.
목차
등록된 정보가 없습니다.