본문 바로가기
  • 학술저널
  • Top 0.5%

표지

이상헌 (세종대)

  • 2018.08
  • 261 - 281 (21 pages)

DOI : 10.20293/jokps.2018.147.261

이용수 1,479

내서재 21

DBpia에서 서비스 중인 논문에 한하여 피인용 수가 반영됩니다. 내서재에 논문을 담은 이용자 수의 총합입니다.

초록·키워드 목차

이 논문은 인공지능으로 인한 인류의 위험에 대한 최근의 논의를 다룰 것이다. 인공지능을 협의의 인공지능(ANI), 인공 일반지능(AGI), 인공 초지능(ASI)으로 구분하여 살펴볼 것이다. 먼저, ANI 즉 약한 인공지능 시스템이 불러올 수 있는 위험에 대해 살펴본다. 인간이 효율성의 극대화를 위해 자율형 인공지능에게 작업의 권한을 상당 부분 이양하고 인간의 개입 없이 판단하고 행동하게 함으로써 발생할 수 있는 위험을 예상해 볼 수 있다. 아무리 정교한 시스템이라고 하더라도 인간이 만든 인공지능 시스템은 불완전하기 마련이며, 바이러스 감염이나 버그 등으로 오류가 발생할 수도 있다. 그래서 인공지능에게 맡기는 일에 한계가 있어야 한다고 본다. 대표적으로 살상용 자율무기는 허용되지 않아야 한다고 생각한다. 강한 인공지능 연구자들은 인공 일반지능과 초지능의 출현을 낙관한다. 초지능은 모든 면에서 인간의 능력을 월등하게 능가하는 인공지능 시스템이므로 인간의 이익에 반하는 행동을 하거나 인간에게 해를 입힐 수도 있다. 그래서 초지능을 통제하는 문제가 심각하게 거론되고 있다. 이 논문에서는 초지능을 통제할 수 있을지를 현재까지 제안된 통제방안들을 중심으로 개략적으로 살펴보았다. 만일 초지능이 출현한다면, 인간이 초지능을 완벽하게 통제할 방안이 현재로서는 없다고 판단된다. 하지만 초지능의 출현이 허구적인 가정일 수도 있다. 이럴 경우에도 통제 문제에 대한 연구는 인공지능 연구의 방향을 설정하는 데 있어 실용적인 가치가 있다. #인공지능 #초지능 #통제 문제 #지능폭발 #능력 통제 방법 #동기 제어방법 #우호적인 인공지능 #Artificial intelligence #superintelligence #control problem #intelligence explosion #capability control method #motivation control method #friendly artificial intelligence

[논문개요]
1. 자율형 인공지능의 위험
2. 윤리적 인공지능에 대한 연구
3. 초지능과 인류의 존재적 위험
4. 초지능을 통제할 방안들
5. 마무리
참고문헌
〈Abstract〉

저자의 논문

DBpia에서 서비스 중인 논문에 한하여 피인용 수가 반영됩니다.
논문의 정보가 복사되었습니다.
붙여넣기 하세요.