메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
유찬우 (라인플러스) 김희천 (한국방송통신대학교)
저널정보
한국디지털콘텐츠학회 디지털콘텐츠학회논문지 디지털콘텐츠학회논문지 제21권 제3호
발행연도
2020.3
수록면
587 - 592 (6page)
DOI
10.9728/dcs.2020.21.3.587

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
개인화 추천을 위한 머신러닝 모델에 사용될 사용자 또는 품목에 대한 임베딩을 만들어 내기 위해서 차원 축소 기법이 널리 사용된다. 그러나 특이값 분해와 같은 모형을 사용하는 차원 축소 기법은 그 성질이 잘 알려져 있다는 장점에도 불구하고 산업계에서 발생하는 빅데이터에는 수행시간이나 메모리 측면에서 적용하기 어렵다는 단점이 있다. 이 경우에는 모형을 사용하지 않는 랜덤 투영과 같은 보다 빠르고 자원을 소모하지 않는 기법이 사용된다. 본 논문에서는 랜덤 투영과 같이 모형을 사용하지 않아 가벼운 방법이지만 랜덤 투영보다 본래 데이터 포인트 사이의 코사인 유사도를 더 잘 보존할 수 있는 방법을 제안하였다. 개인화 추천분야의 공개된 데이터셋에 대해서 실험을 한 결과 제안한 방법이 모든 차원에서 랜덤 투영보다 코사인 유사도를 더 잘 보존하고, 수행 시간 면에서도 우위에 있는 것으로 나타났다. 또한 모형을 생성하는 특이값 분해와도 비교를 수행하였는데, 제안한 방법이 일정 이상의 차원에서는 특이값 분해와 코사인 유사도 보존 측면에서 차이가 없었고, 수행 시간에서는 우위를 보였다.

목차

[요약]
[Abstract]
Ⅰ. 서론
Ⅱ. 관련 개념
Ⅲ. 모형을 사용하지 않는 차원 축소 기법
Ⅳ. 결론
참고문헌

참고문헌 (17)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2020-004-000541064