메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학술저널
저자정보
김진아 (독립연구자)
저널정보
고려대학교 법학연구원 고려법학 고려법학 제105호
발행연도
2022.6
수록면
81 - 127 (47page)
DOI
https://doi.org/10.36532/kulri.2022.105.81

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
인공지능 오류사고는 인공지능을 이용하는 한 피할 수 없는 문제이다. 인공지능을 작동시키는 알고리즘이 귀납적 방식으로 개발되기 때문이다. 이러한 인공지능 오류사고를 어떠한 귀책원리로 규율해야 하는지에 관한 연구가 활발하다. 그중 적지 않은 연구가 인공지능 오류사고에서는 과실 인정이 어렵다는 등의 이유로, 그에 대한 무과실책임을 주장한다. 이 논문은 이에 대한 비판적 태도에서, 현재 나타나고 있고 가까운 장래에 나타날 것으로 예상되는 인공지능(약한 인공지능)에 집중하여, 인공지능 오류사고를 과실책임으로 규율할 수 있음을 논증하였다. 구체적으로 말하면, 이 논문은 인공지능 오류사고 손해배상책임에 대해 과실 판단을 중심으로 크게 세 가지 쟁점을 다루었다. 첫 번째 쟁점은 ‘주의의무 판단’이다. 어떠한 위험방지조치가 주의의무로 인정되기 위해서는 ① ‘예견가능성’과 ② ‘회피가능성’이 필요하다. 법은 불가능한 것을 요구할 수 없기 때문이다. ① 예견가능성 판단의 핵심적인 문제는 무엇에 대한 예견가능성인지, 즉 예견가능성 ‘대상’을 판단하는 문제이다. 이 논문은 예견가능성 ‘대상’은 피해자가 주장하는 위험방지조치 내용의 구체성에 비례하여 정해진다는 판단기준을 제시하였다. 이를 위해 예견가능성 대상에 관한 학계의 논의와 판례의 태도 등을 살펴 기초논의를 진행하고, 불법행위법의 목적에 부합하고 예견가능성의 본질적 역할에 맞는 방향으로 예견가능성 대상에 관한 판단기준을 정립하였다. 나아가 판단기준을 구체화하기 위해, 서빙로봇의 구체적 오류사고를 가정하여 그 상황에서 예견가능성 대상이 어떻게 판단되는지를 논하였다. 만약 ② 예견가능성이 긍정되면 회피가능성에 대한 판단이 필요한데, 이는 비용편익기준, 즉 위험방지조치를 함으로써 희생되는 이익(비용)과 증진되는 이익(편익) 간의 비교형량을 통하여 판단될 수 있다. 이런 차원에서 이 논문은 인공지능 오류사고에서의 비용과 편익의 크기를 가늠하는 데 있어서 고려할 필요가 있는 주요요소를 제시하였다. 그리고 이러한 비용과 편익의 크기를 비교하는 것은 상당한 난도가 있는바, 외적으로 드러난 고려요소인 관행, 기술수준, 공법상 규제 등을 통하여 비용편익기준을 보완할 필요가 있음을 지적하였다. 두 번째 쟁점은 ‘위험방지조치의 구체화’이다. 이를 위해 이 논문은 실제 발생한 오류사고 등을 기반으로 인공지능 오류사고를 6가지 유형으로 구분하고, 국내외 법률, 법안, 윤리 등을 고찰하여 각 유형별로 개발자 또는 이용자가 할 수 있는 위험방지조치가 구체적으로 무엇인지에 대해 분석하였다. 즉, 개발자 또는 이용자의 주의의무로 인정될 개연성이 높은 위험방지조치를 ‘잘못된 입력값 투입’에 의한 오류사고, ‘불완전한 알고리즘’에 의한 오류사고, ‘외부 공격’에 의한 오류사고, ‘재발방지 미흡’에 의한 오류사고, ‘오용’에 의한 오류사고, ‘불완전한 오류대처’에 의한 오류사고 등 6가지 유형의 인공지능 오류사고별로 제시하였다. 세 번째 쟁점은 ‘과실의 증명’이다. 인공지능 오류사고 피해자는 개발자에 비하여 낮은 수준의 전문지식과 적은 양의 정보를 보유하고 있어 과실 증명에 상당한 어려움을 겪을 수 있다. 이에, 이 논문은 피해자에게 개발자의 과실을 직접적으로 증명하도록 요구하는 대신에, ‘그 오류사고가 개발자의 과실 없이는 통상 발생하지 아니한다는 사정’, 달리 말하면 ‘개발자의 과실이 있었을 개연성이 높은 사고상황’에 대한 증명을 통하여 과실을 사실상 추정하도록 하여(간접사실의 증명), 피해자의 증명책임을 완화할 필요가 있다고 주장하였다. ‘개발자의 과실이 있을 개연성이 높은 사고상황’의 예로는, 오류사고가 인공지능이 직면할 것으로 전형적으로 예상되는 상황에서 발생한 경우를 들 수 있다. 개발자는 인공지능이 처할 것으로 예상되는 전형적 상황을 학습시키고, 그러한 상황에서 정확한 판단을 내리는지 검증할 것이 일반적으로 기대되기 때문이다. 따라서 이러한 전형적 상황에서 오류사고가 발생하였다는 것은, 개발자의 주의의무로 인정될 개연성이 높은 위험방지조치(인공지능이 직면할 것으로 전형적으로 예상되는 상황을 학습시키는 것 등)를 충분히 하지 않았다는 것으로 해석될 수 있다. 이상과 같은 연구결과는 인공지능 일반을 다루고 있어 개별 인공지능의 특수성을 고려하지 못하였다는 등의 한계가 있지만, 현재 나타나고 있고 가까운 장래에 나타날 수 있는 약한 인공지능에 공통으로 적용될 수 있다. 따라서 인공지능 오류사고로 발생한 손해를 귀속시키는 법리를 발전시키는 데 조금이나마 도움이 되기를 기대하여 본다.

목차

등록된 정보가 없습니다.

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0