현대 정보통신기술(ICT)은 인공지능을 등장시키고 발전시킴으로써 인간 사회의 패러다임에 큰 변화를 가져오고 있다. 인공지능 발전의 가장 핵심적인 기술은 빅데이터와 알고리즘이다. 빅데이터의 알고리즘 시스템은 정교한 프로세스를 사용한다. 또 이러한 프로세스에는 데이터의 입력이 필요하다. 빅데이터와 알고리즘 기술을 가장 많이 활용하는 주체는 기업이며, 정당 등 정치적 목적을 가진 분야에서도 활발하게 이용되고 있다. 만약 알고리즘 시스템의 설계자가 데이터의 입력과 조작 등에 있어 자신의 특정한 성향이나 세계관만을 따른다면, 인공지능 알고리즘의 자동화된 의사결정과 그 생성물은 편향성, 차별성, 불공정성 등을 나타내게 된다. 이때 알고리즘은 이념의 생성물로서 필연적으로 정치적인 속성을 내포하게 된다. 알고리즘에 의한 자동화된 의사결정이 제공하는 결과가 전적으로 중립적이라고 볼 수는 없게 되는 것이다. 그 결과가 객관성과 공정성을 담아내지 못함에도 불구하고, 그 결과가 사회에 미치는 영향은 정치․경제․문화 등의 모든 분야를 망라하며, 이용자들의 선호와 판단 그리고 행동까지도 변화하게 만든다. 오늘날 알고리즘은 국가와 사회의 정치적, 사회적, 경제적, 문화적 상호작용과 의사결정에 중요한 기능과 역할을 담당하면서 계속해서 영향력을 높여 나가고 있다. 또한, 그 자체가 하나의 거대한 정치권력이 되어가는 모습마저도 나타낸다. 따라서 편향적인 데이터와 이를 통해 학습한 인공지능 알고리즘이 만들어내는 부정적인 결과인 차별, 편견, 배제, 불공정성 등을 효과적으로 통제하는 방안을 모색하는 사회적 논의와 법적 대응책이 필요하다. 이에 EU의 일반정보보호규정(General Data Protection Regulation: GDPR)의 도입과 발효(2018년 5월)는 알고리즘의 투명성과 책무성에 대한 규범적 쟁점과 논의를 확대하는 계기를 마련해 주었다. GDPR은 정보 주체가 프로파일링에 대해 반대할 권리와 자동화된 의사결정의 대상이 되지 않을 권리가 있음을 규정하고 있다. 또한, 정보 주체가 그들에 관하여 수집된 정보에 접근할 권리가 있으며, 수집된 개인정보에 관해 통지를 받을 권리가 있음을 규정하고 있다. 이러한 규정들과 이의 해석을 통해서, 알고리즘에 기반한 자동화된 의사결정에 대한 설명을 요구할 권리(Right to explanation)가 도출될 수 있다. 설명을 요구할 권리는 이용자에게 프로파일링 기반의 알고리즘 결정에 관해 설명을 요구할 기회를 부여함과 동시에, 알고리즘 설계과정에서 인간적 개입의 중요성을 강조한 점에서 큰 의미가 있다. 또한, 설명을 요구할 권리는 해당 기업의 영업 비밀에 해당하는 알고리즘 설계과정에 정보 주체가 개입할 수 있도록 강제하는 규범적 가능성을 열어줌으로써, 알고리즘의 공정성․투명성 및 차별성 이슈를 풀어나가는데 핵심적인 역할을 할 것으로 생각된다.
Modern information and communication technologies(ICTs) are bringing huge changes to the paradigms of human society by presenting and developing artificial intelligence(AI). The very core technologies in the development of AI are Big Data and algorithms. The algorithm system of Big Data uses an exquisite process, which requires the input of data. Big Data and algorithm technologies are most used by corporations and actively used in the fields with political purposes such as political parties. If the designer of an algorithm system bases data entry and manipulation only on his or her certain tendencies or world views, automated decision-making and its outcomes in the AI algorithm will display a bias, differentiation, and unfairness. In such a case, the algorithm is a product of ideology and necessarily has political attributes. There is no saying that outcomes by the automated decision-making process based on the algorithm are totally neutral. Even though such outcomes have no objectivity and fairness, their influences will encompass all the sectors of the society including politics, economy, and culture and change even the preferences, judgments and actions of users. Today, algorithms perform important functions and roles in political, social, economic, and cultural interactions and decision-making processes at the national and social level, continuing to increase their influences. They are even becoming an entity of huge political power themselves. There is thus a need for social discussions and legal measures to explore plans of effectively controlling discrimination, prejudice, exclusion, and unfairness that are negative outcomes of biased data and AI algorithms whose learning is based on biased data. EU-General Data Protection Regulation(GDPR) were introduced and came into effect in May, 2018, creating a chance to expand normative issues and discussions about the transparency and accountability of algorithms. EU-GDPR stipulate that the subjects of information have rights to refuse their profiling and not to become subjected to automated decision-making processes. EU-GDPR also state that they have rights to access to the information collected regarding them and notices about their personal information collected. The interpretations of these regulations and objections to them can result in a right to explanations about automated decision-making processes based on an algorithm. This right to explanations holds huge significance in that it grants an opportunity for users to request explanations about profiling-based algorithm decisions and puts an emphasis on the importance of human interventions in the algorithm design process. This right to explanations also opens up the normative possibilities of enforcing an intervention into the algorithm design process, which is part of a corporation's confidential business information, by the information subject, thus playing an essential role in addressing the fairness, transparency, and differentiation issues of algorithms.