현행 「지능정보화 기본법」은 인공지능 서비스를 비롯한 지능정보서비스에 대한 ‘사회적 영향평가’를 도입하였다. 동법 제56조에 따르면, 국가 및 지방자치단체는 국민의 생활에 파급력이 큰 지능정보서비스의 활용 및 확산이 사회, 경제, 문화 등에 미치는 영향을 조사하고 평가할 수 있으며, 그 결과를 공개하고 정책에 반영할 뿐만 아니라 개선 조치를 직접 권고할 수 있다. 지능정보서비스에 대한 사회적 영향평가는 조문에 명시된 대로 현행 기술영향평가와는 대상과 절차가 구별된다. 이는 상용 중인 인공지능 서비스에 대하여 사회적 수용성과 규범적 타당성을 확보하는 ‘사후적 사회영향평가’에 가까운 제도인 동시에, 인공지능 분야의 리스크 규제 수단으로서 중요한 의미를 지닌다. 따라서 사회적 영향평가 규정에 근거한 인공지능 서비스 영향평가는 위험 예방 차원에서 사전적으로 시행하는 각종 영향평가제도와 차이가 있고, 영향평가 체계의 제 요소를 구체화하는 과정에서 이러한 특유의 제도적 성격을 고려할 필요가 있다. 인공지능 서비스 영향평가 체계를 수립하는 첫 단추는 거버넌스를 구축하는 것이며, 영향평가의 주체(조직)와 절차가 곧 거버넌스의 골자를 이룬다. 국가 및 지방자치단체가 수행 주체로서 영향평가 실시 재량권을 갖는 것으로 규정되어 있지만, 여타 영향평가제도와 마찬가지로 실제 평가 대상과 범위를 결정하고 영향을 조사ㆍ평가하는 전문조직의 구성은 필수적이다. 또한 민간 사업자가 제공하는 인공지능 서비스를 대상으로 하는 경우에는 평가의 기초자료로서 사업자가 보유한 리스크 관리 정보를 활용하는 것이 평가의 정밀성과 타당성을 높일 수 있으므로, 사업자의 자체평가 결과를 정부의 영향평가에 활용하는 민관 협력의 거버넌스를 우선 고려할 필요가 있다. 나아가 현행 기술영향평가의 경우와 마찬가지로, 전문기관이 영향평가를 시행한 뒤 그 결과에 대하여 이해관계자나 일반 이용자의 의견을 수렴하는 ‘시민포럼’을 정식의 절차로 둔다면, 선순환의 리스크 관리 체계로서의 사회적 영향평가의 제도적 의의와 효용을 증진할 수 있을 것이다. 인공지능 서비스 영향평가의 지표는 인공지능의 위험도를 낮추고 신뢰도를 높이는 후속 조치와 직결된다. 따라서 영향평가의 성패는 결정적으로 평가지표에 달렸다고 해도 과언이 아니다. 법에 규정된 평가 항목에 비추어, 현행법상 사회적 영향평가의 주된 목표는 지능정보서비스의 안전성과 신뢰성을 확보하는 데 있으므로, 무엇보다 안전성과 신뢰성을 평가하기 위한 지표와 기법을 개발하는 연구가 선행되어야 한다. 평가 항목 전반의 비체계성 문제와 항목의 재구성에 관한 논의는 후속 과제로 남겨두고, 본고에서는 인공지능 서비스 영향평가의 핵심 항목으로 설정된 안전성과 신뢰성에 초점을 두고 세부 평가 항목과 지표를 예시함으로써 사회적 영향평가 방법론 연구의 초석을 마련하고자 하였다.
The current “Framework Act on Intelligent Informatization” has newly introduced a “social impact assessment” for intelligent information services, including artificial intelligence services. According to Article 56 of the Act, The main goal of the social impact assessment system is to investigate and assess the impact of the utilization and spread of intelligent information services that have far-reach effects on citizens’ lives, disclose the results, reflect them in policies, and directly recommend improvement measures. The social impact assessment on intelligent information services is distinguished from the current technology impact assessment, as specified in the article. In particular, it is an important means of regulating risk in the field of artificial intelligence as a system close to “ex-post social impact assessment” that secures social acceptance and normative validity for commercial artificial intelligence services. Therefore, artificial intelligence service impact assessment based on social impact assessment regulations differs from various impact assessment systems implemented to prevent risks, and these unique institutional characteristics need to be considered in the process of specifying the elements of the impact assessment system. The first step in establishing an artificial intelligence service impact assessment system is to establish governance, and the subject (organization) and procedure of impact assessment form the backbone of governance. Although the state and local governments are required to have discretion to conduct impact assessments as performers, it is essential to form a specialized organization that determines the actual subject and scope of assessment, and investigates and evaluates the impact. In addition, when targeting artificial intelligence services provided by private operators, using risk management information held by operators as basic data for assessment can increase the precision and validity of assessment, so it is necessary to prioritize governance of public-private cooperation, including self-assessment. Furthermore, the institutional significance and utility of social impact assessment that realizes a virtuous cycle of risk management system can be enhanced if a specialized organization or dedicated organization conducts an impact assessment and collects opinions from stakeholders or general users at Citizens’ forums. The indicators of artificial intelligence service impact assessment are directly related to follow-up sanctions and measures that lower the risk of artificial intelligence and increase reliability. Therefore, it is no exaggeration to say that the success or failure of the impact assessment depends crucially on the assessment indicators. In light of the assessment items stipulated in the law, the main goal of social impact assessment under the current law is to ensure the safety and reliability of intelligent information services, so research to develop indicators and techniques to evaluate safety and reliability must precede. Discussions on the unsystematic issues and reorganization of items throughout the assessment items were left as a follow-up task, and this paper focused on safety and reliability set as key items of artificial intelligence service impact assessment, and tried to lay the foundation for research on social impact assessment methodology by illustrating detailed assessment items and indicators.