최근 유럽연합과 유네스코를 비롯하여 세계 각국은 인공지능의 투명성과 책임성을 강화하기 위한 규범적 노력을 보여주고 있다. 미국도 점차 인공지능에 대한 규범적 대응에 규제의 관점을 반영하고 있으며, “2022 알고리즘 책임법안”은 이러한 경향을 드러낸다. 이에 비하여 우리나라는 아직 인공지능 기술 및 관련 산업의 육성, 그와 관련된 교육 및 홍보 등에 집중하는 것으로 보인다. 적어도 2023년 3월 현재 국회에 계류 중인 인공지능 관련 법률안에서 인공지능의 투명성과 책임성을 확보하려는 적극적인 조치는 상대적으로 덜 주목받고 있다. 이에 본 논문은 “2022 알고리즘 책임법안”을 통하여 인공지능과 관련한 미국의 규범적 대응을 살펴보고, 우리의 법제 개선에 주는 시사점을 도출한다. “2022 알고리즘 책임법안”은 “2019 알고리즘 책임법안”을 대폭 수정한 것이다. 특히, 동 법안은 알고리즘 활용이 널리 확대됨에 따라 오류나 편향성 등으로 인하여 발생할 수 있는 새로운 위험을 예방하고자 한다. 이를 위한 방안으로 무엇보다 영향평가라는 사전 안전장치를 마련하는 것에 초점을 두고, 관련 내용을 비교적 상세히 규정하고 있다. 알고리즘을 개발, 배포하는 기업에 대해 자동화된 의사결정 시스템 또는 증강된 중요 의사결정 프로세스가 소비자에게 미치는 영향을 평가하도록 한다. 그리고 이러한 영향평가의 실효성을 보장하기 위하여 연방거래위원회에 대해 영향평가에 관한 구체적인 규정을 마련하도록 하고, 연차보고서를 발간하도록 하는 등 다양한 권한과 의무를 부여하고 있다. 이에 미국민의 삶에 큰 영향을 미치는 소프트웨어, 알고리즘 기타 자동화시스템에 대해 투명성과 감독을 새롭게 도입하는 획기적인 법안으로 평가된다. 알고리즘과 관련하여 발생하는 문제는 데이터의 결함이나 편향성, 기술의 안전성 등에 따른 것이다. 그러한 문제를 발견하고 해결하려면 전문성과 구체성이 요구되며, 성질상 사후적 대응을 통해서는 이미 발생한 피해를 원상 복구하기가 매우 어렵다. 반면, 규제기관은 그러한 알고리즘이 어떠한 목적으로 어떻게 사용되는지를 인지하고 사전적으로 대응하는 데 한계가 있다. 이러한 조건에서는 기업에 대해 규제기관이 제시하는 기준에 따라 알고리즘으로 인한 영향을 사전에 분석, 평가하고, 관련 내용을 규제기관에 보고하도록 함으로써 투명성과 책임성을 확보하는 효과를 거둘 수 있다. 개인정보 침해를 비롯하여 알고리즘 문제에 따른 부정적인 효과는 광범위하게 발생하고 사후적으로 통제하기 불가능 하거나 매우 어렵다. 따라서 사전에 그러한 위험을 차단하고, 위험성 및 그에 따른 영향을 평가하는 방식의 접근이 중요하다. 우리나라도 사전적으로 알고리즘 영향평가를 하도록 의무화하는 방안을 마련하고, 기업 등이 이러한 사전적 평가를 실질적으로 수행할 수 있는 조직과 전문성을 갖출 수 있도록 지원해야 한다. 인공지능이 내포하고 있는 위험의 정도, 그 개발 및 활용 주체의 특성에 따라 영향평가 의무 적용대상의 범위를 정하고, 영향평가가 실제 가능하도록 정부가 지원하도록 하며, 감독기관의 기능을 강화하여 영향평가가 효과를 거둘 수 있도록 관련 법령이 정비되어야 할 것이다.
Recently, countries around the world, including the European Union and UNESCO, are showing normative efforts to strengthen the transparency and accountability of artificial intelligence. The United States is also gradually reflecting the regulatory perspective in the normative response to artificial intelligence, and the “Algorithmic Accountability Act of 2022” reveals this trend. In contrast, South Korea seems to be still concentrating on fostering artificial intelligence technology and related industries, and related education and publicity. In this regard, this paper examines the US normative response to artificial intelligence through the “Algorithmic Accountability Act of 2022”, and derives implications for improving our legislation. The “Algorithmic Accountability Act of 2022” is a significant revision of the “Algorithmic Accountability Act of 2019”. In particular, the bill seeks to prevent new risks that may arise due to errors or biases as the use of algorithms expands widely. As a measure to this end, the focus is on preparing a preliminary safety device called impact assessment, and the related contents are regulated in relatively detail; Require companies developing and distributing algorithms to evaluate the impact of automated decision system or augmented critical decision process on consumers. And to ensure the effectiveness of these impact assessments, the Federal Trade Commission is required to prepare specific regulations on impact assessments and has been given various rights and duties, such as publishing annual reports. Accordingly, it is evaluated as “a landmark bill to bring new transparency and oversight of software, algorithms and other automated systems that are used to make critical decisions about nearly every aspect of Americans’ lives.” Problems that arise in relation to algorithms are due to flaws or biases in data, safety of technology, etc. Detecting and resolving such problems requires expertise and concreteness, and it is very difficult to restore damages that have already occurred. On the other hand, regulatory agencies have limitations in recognizing for what purpose and how such algorithms are used and responding proactively. So it is possible to achieve the effect of securing transparency and accountability by having companies analyze and evaluate the impact of algorithms in advance according to the criteria presented by the regulatory body and report the relevant information to the regulatory body. Negative effects of algorithm problems occur widely and are impossible or very difficult to control ex post facto. Therefore, it is important to block such risks in advance and to assess the risks and their impact. South Korea also needs to come up with a plan to obligate algorithmic impact assessments, and support companies to equip organizations and expertise that can carry out such preliminary assessments.