그간의 인공지능 관련 규제들이 혁신기술의 진흥과 혁신으로 인한 위험의 통제라는 양단에서 균형의 조정을 통해 해법을 찾아왔다면, 현시점에서 인공지능 관련 규제는 규제강화나 규제약화의 차원에서의 논의에서 벗어나 개별 구체적인 차원에서 합리적이고 효율적인 맞춤형 규제를 고려하는 단계로 발전되어야 할 것이다. 현 단계의 인공지능 관련 혁신기술에 적절히 대응할 수 있는 규제적 균형을 찾기 위해서는 기존의 규제가 특정한 행위 유형의 폐해나 해택에 대하여 적용해왔던 암묵적인 전제들이 최근 관측되고 있거나 예측될 수 있는 특정 상황에서도 여전히 유효한 것인지를 따져보고, 특정한 규제 공백 내지 부족함을 채워줄 수 있는 맞춤형 규제를 실효적으로 적용하는 것이 필요하다. 또한 규제거버넌스의 전환이라는 관점에서 지속가능한 인공지능의 혁신을 도모하기 위해서는 혁신으로 인해 발행하고 있는 문제들을 해결할 뿐만 아니라, 발생 가능한 문제들에 대한 선제적인 대응에 대한 고려도 필요하다. 그러나 법의 외부성과 혁신의 예측불가능성은 혁신을 저해하지 않으면서 이로 인한 위험을 최소화하는 선제적인 규제대응을 현실적으로 불가능하게 하는 요인으로 작용하고 있다. 그렇지만 이러한 선제적 규제대응이 불가능한 것만은 아니다. 유럽연합의 ‘일반정보보호법’(이하 GDPR) 제22조에서 정보주체(평가대상)에게 사후적인 ‘설명요구권’(right to explanation)과 ‘개입요구권’(right to human-in-the-loope)을 부여하고, 이에 대응하기 위해 Inkedin이 당사의 알고리듬에 데이터 처리자를 사후 식별 가능하도록 하는 기술을 개발 적용한 사례는 혁신으로 인한 위험을 예측하고 규제적 대응을 통해 이를 통제할 수 있다는 가능성을 보여준다. 같은 맥락에서, 행정부가 인공지능 윤리원칙으로 알고리듬의 투명성, 책무성 등을 선제적으로 선언하는 것은 알고리듬의 기술 개발자들에게 규제의 방향성을 사전적으로 인식시키고, 기술개발의 단계에서부터 알고리듬의 불투명성이나 데이터의 편향성으로 인한 위험을 최소화할 수 있는 방향으로 기술을 전개하도록 유도할 수 있다. 물론 한편으로 인공지능 윤리원칙으로 인공지능의 공공성, 책무성, 통제성, 투명성 등의 원칙을 선언하는 비규제적 접근방식은 집행력이 없고 처벌에 대한 강제규정이 없기 때문에 규제의 실효성을 담보할 수 없다는 비판을 받을 수 있다. 또, 다른 한편으로는 이와 같은 인공지능 윤리원칙의 선언은 명시적인 조항이 아니더라도 이러한 윤리준칙들이 각 법령에 산재한 설명의무나 투명성 조항에 기해 알고리듬의 투명성을 요구할 수도 있다는 측면에서 행정부의 지나친 관련 지침이나 가이드라인의 발표가 과잉규제로 인한 중복규제, 규제충돌이라는 문제를 야기 시킬 수 있다는 비판을 받을 수도 있다. 그러나 이와 같은 인공지능 관련 윤리준칙의 선언이나 가이드라인의 발표들은 대부분 입법으로 발전하지 않고 강제력 없는 지침으로 머무는 경향이 높기 때문에 규제과잉이나 규제충돌의 문제를 심각하게 야기하지는 않는 반면, 기업들에게 자율규제의 방향성을 제시해 주어 일정부분 구속력을 발휘하면서 혁신의 저해를 최소화하는 규제수단으로 적용될 수 있다는 장점이 있다. 따라서 다양한 스펙트럼을 가진 인공지능 기술이 여러 분야에서 각기 다른 규제 이슈를 가지고 상용화되고 있고 기술혁신의 방향을 단정적으로 예단할 수 없는 현실을 감안할 때, 먼저 윤리원칙의 선언과 같은 다양한 방식으로 규제의 방향성을 제시하여 최소한의 위험을 통제하고, 관련 기술과 현장에 대한 정확한 이해를 축적한 후 점진적으로 필요한 분야에서만 규제를 강화하는 방식의 규제거버넌스 전환이 필요하다. 이에, 본고에서는 지속 가능한 혁신을 위한 규제거버넌스의 전환이라는 측면에서 인공지능 알고리듬 규제에서 다양한 직 간접적 규제수단을 적용하고 있는 최신 미국의 사례를 통해 혁신에 대응하기 위한 다양한 방식의 규제수단들과 이에 따른 규제거버넌스 변화의 필요성을 논의하였다. 그간의 관련 선행연구들에서는 인공지능과 법에 관한 포괄적인 논의를 바탕으로 주요 관련국들의 규제동향이 연구되어 왔다면, 본고에서는 주요국들의 인공지능 규제 전반을 포괄하기 보다는, 인공지능 기술을 선도하고 있는 미국의 연방행정부를 대상으로 2016년 이후의 최근 규제사례와 정책방향에 대하여 좀 더 밀도 있게 분석하는 것에 의미를 두었다.
The problems of artificial intelligence and law, which have been sought by both balance and coordination of innovative technology promotion and regulatory control of AI algorithms, should now be developed into a rational and efficient regulation on individual specific issues, not in terms of regulation strengthening or deregulation. In other words, it is necessary to effectively apply customized regulations that can fill specific regulatory gaps or deficiencies to determine whether the implicit assumptions that existing regulations have applied to certain types of harm or harm are still valid in certain situations observed or predicted today. In order to innovate sustainable artificial intelligence in terms of a shift in regulatory paradigm, not only do we need to solve problems caused by innovation, but also preemptive responses to possible problems. However, finding preemptive regulatory instruments that minimize the risk of innovation without hindering innovation due to the externalities of the law and the unpredictability of innovation is a very challenging task. An example of how it is not impossible to predict foreseeable risks and direct innovation through regulation is that the European Union"s “GDPR” authorized information subjects to explain and counter-argument, and Inkedin developed and applied technology to enable data processors to be identified post-mortem in our algorithms. In the same vein, the administration"s preemptive declaration of the explainability or accountability of the algorithm under artificial intelligence ethics leads the developers of the algorithm to recognize the direction of regulation and to deploy the technology in a direction that minimizes the risk of bias and opacity. Of course, non-regulatory approaches such as declaring artificial intelligence ethical principles or setting relevant standards can be criticized for their effectiveness because they are unenforceable and have no enforcement regulations. However, while only a few of these guidelines are developed into laws and are mostly non-forced, they are not as serious as feared, they can be used as regulatory means to minimize disruption to innovation while providing a direction for companies. Therefore, since artificial intelligence with diverse spectra is commercialized with different regulatory issues in different fields and the direction of innovation cannot be predicted, a regulatory approach is needed to establish regulatory orientation in this way and gradually strengthen it based on accurate understanding of relevant technologies and sites. Thus, this paper discusses the changes in regulatory means to respond to innovation through the latest US examples applying various regulatory and non-regulatory means in AI algorithm regulation in terms of the shift in regulatory paradigm for sustainable innovation and presents the direction of regulatory paradigm change at this point. In the past related prior studies, regulatory trends in major related countries have been studied based on comprehensive discussions on artificial intelligence and law. However, rather than covering the overall AI regulation of major countries, this paper meant a more detailed and dense analysis of recent regulatory cases and policy directions since 2017 for the leading U.S. administration of artificial intelligence-leading administration.