본 연구는 Google Spain 판례를 중심으로 ‘잊혀질 권리’의 개념을 심층적으로 고찰하고, 이를 생성형 AI 모델, 특히 대규모 언어 모델(LLM)에 적용할 때 발생하는 법적, 기술적, 윤리적 문제를 다각도로 분석하였다. 디지털 시대의에 개인정보 보호에서 ‘잊혀질 권리’의 중요성이 급격히 증대되고 있으나, 생성형 AI 모델의 등장으로 인해 이 권리의 적용 범위와 방식에 대한 검토가 필요하다. 연구 결과, 생성형 AI 모델의 대규모 데이터 학습, 정보 재생성 능력, 블랙박스적 특성 등으로 인해 기존의 개인정보 보호 체계로는 대응이 어려운 새로운 도전이 제기되고 있음을 확인하였다. 특히 데이터 출처의 불명확성, 책임 소재의 모호함, 그리고 국제적 관할권 문제가 주요 쟁점으로 부각되었다. 이러한 문제들은 개인의 프라이버시권과 정보 자기결정권을 위협할 수 있으며, 동시에 AI 기술 발전과 혁신을 저해할 수 있는 잠재적 위험을 내포하고 있다. 본 연구는 법적, 기술적, 윤리적 접근이 유기적으로 통합된 다차원적 해결 방안을 제시한다. 구체적으로 AI 특화 ‘잊혀질 권리’ 개념의 재정립, 설명 가능한 AI(XAI)와 차등 프라이버시 등의 기술적 해결책 고도화, AI의 의사결정에 대한 책임 소재를 명확히 하는 새로운 법적 체계, 그리고 초국가적 AI 서비스에 대한 국제 협력 프레임워크 개발 등을 향후 연구 과제로 제안한다. 또한, EU AI Act와 같은 최신 규제 프레임워크에 대한 심층 연구의 필요성도 강조한다. EU AI Act가 제시하는 위험 기반 접근법이 ‘잊혀질 권리’를 포함한 개인의 권리 보호에 미칠 영향과, 생성형 AI 모델의 특성을 어떻게 반영할 수 있을지에 대한 분석이 요구된다. 더불어 EU AI Act와 GDPR, 그리고 기존의 ‘잊혀질 권리’ 관련 판례들 간의 상호작용과 잠재적 충돌 가능성에 대한 연구도 필요하다. 결론적으로 본 연구는 ‘잊혀질 권리’와 AI 기술 혁신 사이의 균형을 모색하는 것이 디지털 시대의 개인의 자유와 존엄성 보장, 그리고 기술 발전의 혜택을 동시에 추구하기 위한 핵심 과제임을 주장한다. 이를 위해서는 법학, 컴퓨터 과학, 윤리학, 사회학 등 다양한 학문 간의 협력과, 정책 입안자, 기술 개발자, 시민 사회 등 다양한 이해관계자들의 적극적인 참여가 필요하다. 본 연구는 이러한 복합적인 문제에 대한 종합적인 이해를 제공함으로써, 생성형 AI 시대의 개인정보 보호에 관한 학술적・정책적 논의를 한 단계 발전시키는 데 기여하고자 한다.
This study examines the concept of the ‘Right to be Forgotten’, focusing on the Google Spain case, and analyzes the legal, technical, and ethical issues that arise when applying this right to generative AI models, particularly Large Language Models (LLMs). While the importance of the ‘Right to be Forgotten’ in protecting personal information in the digital age is increasing, the rise of generative AI models necessitates a reconsideration of the scope and methods of applying this right. The research confirms that generative AI models present new challenges that are difficult to address using existing personal information protection systems due to their large-scale data learning, information regeneration capabilities, and black-box characteristics. In particular, issues such as data source ambiguity, accountability gaps, and international jurisdictional complexities have emerged as major concerns. In response to these challenges, this study proposes a multidimensional solution that integrates legal, technical, and ethical approaches. It suggests future research tasks such as redefining the concept of the ‘Right to be Forgotten’ for AI, advancing technical solutions like explainable AI(XAI), researching AI accountability frameworks, and developing international cooperation mechanisms. The study also highlights the need for in-depth research on recent regulatory frameworks, such as the EU AI Act. Furthermore, the study explores how the risk-based approach proposed by the EU AI Act could impact the protection of individual rights, including the ‘Right to be Forgotten’, and how it could address the unique characteristics of generative AI models. It also underscores the need for research on the interactions and potential conflicts between the EU AI Act, GDPR, and existing case law related to the ‘Right to be Forgotten’. In conclusion, this study argues that finding a balance between the ‘Right to be Forgotten’ and AI technological innovation is a crucial for safeguarding individual freedom and dignity while harnessing the benefits of technological advancements in the digital age. Achieving this requires interdisciplinary research across fields such as law, computer science, ethics, and sociology, as well as active participation and dialogue among various stakeholders, including policymakers, technology developers, and civil society. By providing a comprehensive understanding of these complex issues, this study aims to contribute to advancing academic and policy discussions on personal information protection in the era of generative AI.