본문 바로가기
[학술저널]

  • 학술저널

이영현(인제대학교) 석경하(인제대학교)

DOI : 10.7465/jkdi.2019.30.5.997

표지

북마크 0

리뷰 0

이용수 0

피인용수 0

초록

준지도학습 (semi-supervised learning)은 목표값 (target value)이 있는 데이터만 이용하는 지도학습과는 달리 목표값이 없는 데이터도 이용하여 학습한다. 목표값 획득의 어려움 때문에 준지도 학습에 대한 연구가 활발한데 최근에는 심층생성망 (deep generative model)을 이용한 준지도학습에 많은 관심을 가진다. 이 학습에서 오분류율과 함께 손실함수 역할을 하는 근거기반하한 9 (evidence lower bound)은 복원오차 (reconstruction error)와 벌칙항(regularization term) 그리고 엔트로피로 구성된다. 그리고 복원오차와 벌칙항에서 사용되는 잠재변수의 분포를 정규분포로 가정하고, 벌칙항은 쿨백-라이블러 정보량 (Kullback-Leibler divergence; KL)을 이용하여 계산한다. 본 연구에서는 잠재변수의 분포와 정보량이 준지도학습의 성능에 미치는 영향을 살펴본다. 실험 결과, 실험에 사용된 MNIST와 Fashion-MNIST 데이터에서는 정규분포를 따르는 잠재변수와 KL, Neyman 그리고 Jeffrey 정보량을 이용할 때 성능이 우수한 것으로 나타난다. 그리고 Fashion-MNIST 데이터에서는 KL, Neyman 그리고 Jeffrey을 제외한 나머지 정보량은 잠재변수의 분포에 많은 영향을 받는 것으로 나타나는데 특히 베타분포에서 낮은 정확도를 보인다. 또한 잠재변수가 코시분포를 따르면 강건한 성능을 보이는 등 잠재변수의 분포와 정보량이 심층생성망 기반 준지도학습의 성능에 많은 영향을 줄 수 있는 것으로 나타났다.

Semi-supervised learning uses unlabeled data, unlike supervised learning, which uses labeled data only. Because of the difficulty in obtaining the target values, study on semi-supervised learning is active. Recently, there is much interest in semi-supervised learning using deep generative model (SSL-DG). In this learning, the evidence lower bound, which serves as a loss function with a misclassification rate, consists of reconstruction error, regularization term, and entropy. The latent variables required for reconstruction error and penalty terms are assumed to follow normal distributions and penalty terms are calculated using Kullback-Leibler divergence. In this study, we investigate the effect of the latent variable distribution and divergence on the performance of SSL-DG with MNIST and Fashion-MNIST data. Experimental results show that SSL-DG performs well when latent variables follow the normal distribution and the divergence is Kullback-Leibler or Neyman or Jeffrey. The other divergences appear to be heavily influenced by the distribution of latent variables, especially in beta distribution. In addition, when the latent variable follows the Cauchy distribution. SSL-DG yields more robust performance than other distributions. In this way, we can conclude that the distribution of latent variables and the divergences can have a great influence on the performance of SSL-DG.

목차

요약
1. 서론
2. 심층생성망 기반 준지도학습
3. 분석테이터 및 실험환경
4. 실험
5. 결론 및 제안
References
Abstract

참고문헌(0)

리뷰(0)

도움이 되었어요.0

도움이 안되었어요.0

첫 리뷰를 남겨주세요.
Insert title here