인공지능 오류사고는 인공지능을 이용하는 한 피할 수 없는 문제이다. 인공지능을 작동시키는 알고리즘이 귀납적 방식으로 개발되기 때문이다. 이러한 인공지능 오류사고를 어떠한 귀책원리로 규율해야 하는지에 관한 연구가 활발하다. 그중 적지 않은 연구가 인공지능 오류사고에서는 과실 인정이 어렵다는 등의 이유로, 그에 대한 무과실책임을 주장한다. 이 논문은 이에 대한 비판적 태도에서, 현재 나타나고 있고 가까운 장래에 나타날 것으로 예상되는 인공지능(약한 인공지능)에 집중하여, 인공지능 오류사고를 과실책임으로 규율할 수 있음을 논증하였다. 구체적으로 말하면, 이 논문은 인공지능 오류사고 손해배상책임에 대해 과실 판단을 중심으로 크게 세 가지 쟁점을 다루었다.
첫 번째 쟁점은 ‘주의의무 판단’이다. 어떠한 위험방지조치가 주의의무로 인정되기 위해서는 ① ‘예견가능성’과 ② ‘회피가능성’이 필요하다. 법은 불가능한 것을 요구할 수 없기 때문이다. ① 예견가능성 판단의 핵심적인 문제는 무엇에 대한 예견가능성인지, 즉 예견가능성 ‘대상’을 판단하는 문제이다. 이 논문은 예견가능성 ‘대상’은 피해자가 주장하는 위험방지조치 내용의 구체성에 비례하여 정해진다는 판단기준을 제시하였다. 이를 위해 예견가능성 대상에 관한 학계의 논의와 판례의 태도 등을 살펴 기초논의를 진행하고, 불법행위법의 목적에 부합하고 예견가능성의 본질적 역할에 맞는 방향으로 예견가능성 대상에 관한 판단기준을 정립하였다. 나아가 판단기준을 구체화하기 위해, 서빙로봇의 구체적 오류사고를 가정하여 그 상황에서 예견가능성 대상이 어떻게 판단되는지를 논하였다. 만약 ② 예견가능성이 긍정되면 회피가능성에 대한 판단이 필요한데, 이는 비용편익기준, 즉 위험방지조치를 함으로써 희생되는 이익(비용)과 증진되는 이익(편익) 간의 비교형량을 통하여 판단될 수 있다. 이런 차원에서 이 논문은 인공지능 오류사고에서의 비용과 편익의 크기를 가늠하는 데 있어서 고려할 필요가 있는 주요요소를 제시하였다. 그리고 이러한 비용과 편익의 크기를 비교하는 것은 상당한 난도가 있는바, 외적으로 드러난 고려요소인 관행, 기술수준, 공법상 규제 등을 통하여 비용편익기준을 보완할 필요가 있음을 지적하였다.
두 번째 쟁점은 ‘위험방지조치의 구체화’이다. 이를 위해 이 논문은 실제 발생한 오류사고 등을 기반으로 인공지능 오류사고를 6가지 유형으로 구분하고, 국내외 법률, 법안, 윤리 등을 고찰하여 각 유형별로 개발자 또는 이용자가 할 수 있는 위험방지조치가 구체적으로 무엇인지에 대해 분석하였다. 즉, 개발자 또는 이용자의 주의의무로 인정될 개연성이 높은 위험방지조치를 ‘잘못된 입력값 투입’에 의한 오류사고, ‘불완전한 알고리즘’에 의한 오류사고, ‘외부 공격’에 의한 오류사고, ‘재발방지 미흡’에 의한 오류사고, ‘오용’에 의한 오류사고, ‘불완전한 오류대처’에 의한 오류사고 등 6가지 유형의 인공지능 오류사고별로 제시하였다.
세 번째 쟁점은 ‘과실의 증명’이다. 인공지능 오류사고 피해자는 개발자에 비하여 낮은 수준의 전문지식과 적은 양의 정보를 보유하고 있어 과실 증명에 상당한 어려움을 겪을 수 있다. 이에, 이 논문은 피해자에게 개발자의 과실을 직접적으로 증명하도록 요구하는 대신에, ‘그 오류사고가 개발자의 과실 없이는 통상 발생하지 아니한다는 사정’, 달리 말하면 ‘개발자의 과실이 있었을 개연성이 높은 사고상황’에 대한 증명을 통하여 과실을 사실상 추정하도록 하여(간접사실의 증명), 피해자의 증명책임을 완화할 필요가 있다고 주장하였다. ‘개발자의 과실이 있을 개연성이 높은 사고상황’의 예로는, 오류사고가 인공지능이 직면할 것으로 전형적으로 예상되는 상황에서 발생한 경우를 들 수 있다. 개발자는 인공지능이 처할 것으로 예상되는 전형적 상황을 학습시키고, 그러한 상황에서 정확한 판단을 내리는지 검증할 것이 일반적으로 기대되기 때문이다. 따라서 이러한 전형적 상황에서 오류사고가 발생하였다는 것은, 개발자의 주의의무로 인정될 개연성이 높은 위험방지조치(인공지능이 직면할 것으로 전형적으로 예상되는 상황을 학습시키는 것 등)를 충분히 하지 않았다는 것으로 해석될 수 있다.
이상과 같은 연구결과는 인공지능 일반을 다루고 있어 개별 인공지능의 특수성을 고려하지 못하였다는 등의 한계가 있지만, 현재 나타나고 있고 가까운 장래에 나타날 수 있는 약한 인공지능에 공통으로 적용될 수 있다. 따라서 인공지능 오류사고로 발생한 손해를 귀속시키는 법리를 발전시키는 데 조금이나마 도움이 되기를 기대하여 본다.
Accidents arising from errors in weak artificial intelligence (hereinafter “AI”) are considered unavoidable as long as AI is in use. The further the areas in which AI is applied extend, the more important the issue of attributing liability for damages from AI errors becomes. At the core of this issue is the determination of ‘negligence’. This thesis aims to deal with liability for damages from AI errors, with a particular focus on the determination of negligence.
This thesis mainly deals with three issues regarding the determination of negligence.
The first issue is the ‘determination of the duty of care’. For a risk prevention measure to be recognized as fulfilling the duty of care, ① ‘foreseeability’ and ② ‘avoidability’ are necessary. ① The key to determining foreseeability is to identify the ‘subject’ of foreseeability. This thesis presents a criterion for determining the subject of foreseeability ? that the subject of foreseeability is determined according to the specificity of the risk prevention measure called for by the aggrieved. As a basic study for presenting such a criterion, this thesis reviews the related debates within academia and the tendencies of court decisions regarding the subject of foreseeability. Then, in order to examine the specific applicability of the criterion, this thesis hypothesizes an incident involving an error in a serving robot to examine how the subject of foreseeability could be determined in such a situation. ② Once foreseeability is established, avoidability needs to be determined. Avoidability can be determined using cost-benefit criteria. In other words, it can be determined through a balancing test between the interests that are sacrificed (costs) and the interests that are promoted (benefits) by a risk prevention measure. Thus, this thesis presents key factors that need to be considered in measuring the scale of the costs and the benefits related to an incident involving an AI error. However, it is difficult both to measure the absolute scale of costs and benefits and to compare their relative scales. Therefore, it is necessary to supplement the cost-benefit criteria with external factors to be considered, such as customary practices, technology level, and regulation by public law, etc.
The second issue is the ‘development of specific risk prevention measures’, which must be discussed preemptively in order to improve the accident prevention effect and to minimize unnecessary lawsuits. Against this backdrop, this thesis classifies accidents involving an AI error into six categories based on actual accidents and attempts to develop specific risk prevention measures that developers or users can take. To begin with, this thesis reviews the laws, legislative bills, and ethical standards at home and abroad in order to identify the proper direction and then analyzes several leading risk prevention measures. Then, it proposes risk prevention measures for developers and users to prevent the six respective types of AI error accidents.
The third issue is the ‘proof of negligence’. People aggrieved by AI error accidents may encounter significant difficulties in proving negligence due to the relatively low level of related professional knowledge and insufficient data compared to those of developers. This thesis argues that it is necessary to alleviate the victim’s burden of proof by allowing for deemed negligence by way of proving a ‘situation in which the developer is likely to have committed negligence (proof of indirect facts). In proving indirect facts, the operation record of AI is likely to be used as key evidence. However, if the victim does not possess the operation record, some legal means are required so as to secure this record. Nevertheless, the evidence collection rules under the current laws have their limitations in that they are not effective. This thesis emphasizes the necessity to supplement these through legislative efforts.
After touching upon the determination of negligence in AI error accidents centering on these three issues, this thesis deals with the legal grounds for liabilities for compensation. In particular, it examines the application of general tort, product liability, and structure liability as well as the possibility of analogical applications of supervisor liability, vicarious liability, and animal possessor’s liability. It then draws the conclusion that a person aggrieved by an AI error accident may seek compensation based on general tort, product liability (in the case where AI is installed on hardware), and structure liability (in the case where AI is installed on a structure).