인문학
사회과학
자연과학
공학
의약학
농수해양학
예술체육학
복합학
지원사업
학술연구/단체지원/교육 등 연구자 활동을 지속하도록 DBpia가 지원하고 있어요.
커뮤니티
연구자들이 자신의 연구와 전문성을 널리 알리고, 새로운 협력의 기회를 만들 수 있는 네트워킹 공간이에요.
논문 기본 정보
- 자료유형
- 학술저널
- 저자정보
- 발행연도
- 2026.2
- 수록면
- 34 - 41 (8page)
- DOI
- 10.5391/JKIIS.2026.36.1.31
이용수
초록· 키워드
AI 생성 뉴스는 실제 뉴스 기사와 유사한 문체와 구조를 가지며 빠르게 확산되고 있으나, 신뢰성, 윤리적 안전성, 사용자 친화성 측면에서 다양한 위험 요소를 내포하고 있다. 기존 AI 생성 뉴스 품질 평가는 사실 검증, 편향 탐지, 가독성 평가와 같이 주로 단일 차원에 초점을 맞추어 왔으며, AI가 생성하는 뉴스의 품질을 다차원적으로 정의하고 이를 생성 과정 전반에 반영하려는 시도는 제한적이었다. 본 논문에서는 이러한 한계를 극복하기 위해 RLAIF(Reinforcement Learning from AI Feedback)를 기반으로 뉴스 기사를 의미 단위로 분할하여 평가하는 Segment-Level PPO 학습 전략을 통해 신뢰성, 윤리적 안전성, 사용자 친화성을 동시에 고려하는 다차원 품질 최적화 프레임워크를 제안한다. 실험 결과, 제안한 방법은 기존 방식 대비 AI 생성 뉴스의 전반적인 품질을 다차원적으로 개선하는 데 효과적임을 확인하였다.
#강화학습
#거대 언어 모델
#AI 생성 뉴스
#AI 피드백 기반 학습(RLAIF)
#Reinforcement Learning
#Large Language Model
#AI-Generated News
#RLAIF(Reinforcement Learning from AI Feedback)
상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지정보가 잘못된 경우 알려주세요!
목차
- 요약
- Abstract
- 1. 서론
- 2. 관련 연구
- 3. 제안 방법
- 4. 실험 결과
- 5. 결론 및 향후 연구
- References