이 글은 인공지능으로 인한 기본권 보장과 관련하여 특히 인공지능의 공정성, 편향성 문제, 이로 인한 차별문제를 다루었다. 학습데이터의 내용이 잘못되었거나 알고리즘이 잘못 설계되거나 잘못 조작된 경우 나타나게 되는 성별, 인종, 나이 등에 따른 차별 문제는 그간 많이 논의되었고 어느 정도의 해결책도 제시되었다고 생각된다. 이 글은 그 중 인공지능이 우리 사회의 편향성을 반영하는 경우 이에 대한 인공지능의 공정성, 편향성 문제를 어떻게 해결할 수 있을 것인지에 대해 집중적으로 논의하였다. 학습데이터도 편향성이 없고 알고리즘도 편향성이 없이 가치중립적으로 설계되었으나 학습된 인공지능이 일부 집단을 차별하는 결론을 도출하는 경우 즉, 인공지능은 가치중립적으로 개발되고 학습되었으나 사회가 편향적이어서 그 사회의 편향성을 인공지능이 그대로 학습하여 이를 결과물로 도출해내는 경우의 인공지능의 공정성 문제에 대해 여러 가지 사례와 그 원인에 대해 설명하고 원론적인 해결책을 비교법적으로 도출하고자 하였다. 하지만 인공지능은 편향적이지 않으나 우리 사회가 편향적이어서 편향적인 결론이 나오는 것을 어떻게 규제할 수 있을 것인지는 어려운 문제이다. 우리사회가 편향적이라는 것은 현상(sein)의 영역인데, 이를 극복하여 공정한 결과를 도출할 것을 요구하는 것은 당위(sollen)의 영역이기 때문에, 인공지능이 ‘sollen’을 학습할 수 있는지, 결론이 산술적으로 평등하다면 이를 공정하다고 할 수 있을 것인지에 대한 논의가 필요하다. 그리고 인공지능의 결과값의 평등을 위해 학습데이터와 알고리즘의 적극적 조정이 필요한지, 필요하다면 어느 정도까지 조정을 해야 할지, 이러한 검사와 규제는 어느 기관에서 어떻게 심사하고 평가할 것인지에 대한 논의도 필요하다. EU는 인공지능법을 통해, 미국은 법률과 대통령위원회를 통해 이러한 문제에 대응하고 있다, 우리나라도 국가인공지능위원회를 설치하여 이러한 문제에 대응하고자 하는데, 구체적으로 어떠한 권한과 심사기준을 가지고 이러한 문제에 대응할 것인지에 대하여 시급히 고민해야 할 때이다.
In diesem Artikel haben wir die Frage der Fairness, Voreingenommenheit und Diskriminierung in der künstlichen Intelligenz im Zusammenhang mit dem Schutz der Grundrechte erörtert. Das Problem der Diskriminierung aufgrund von Geschlecht, Ethnie, Alter usw., das auftritt, wenn die Trainingsdaten nicht korrekt sind oder der Algorithmus schlecht konzipiert oder manipuliert ist, wurde breit diskutiert und es wurden Lösungen vorgeschlagen. Dieser Artikel konzentriert sich auf die Fairness der KI und darauf, wie das Problem der Voreingenommenheit gelöst werden kann, wenn die KI die Voreingenommenheit unserer Gesellschaft widerspiegelt. Mit anderen Worten, wenn die Trainingsdaten unvoreingenommen sind und der Algorithmus so konzipiert ist, dass er wertneutral und unvoreingenommen ist, die trainierte KI aber voreingenommene Schlussfolgerungen zieht, die einige Gruppen diskriminieren, oder wenn die KI wertneutral entwickelt und trainiert wurde, die Gesellschaft aber voreingenommen ist und die KI die Voreingenommenheit der Gesellschaft erlernt und als Ergebnis die Voreingenommenheit der Gesellschaft zieht, habe ich versucht, verschiedene Fälle und Ursachen für das Fairnessproblem der KI zu erklären und eine theoretische Lösung vergleichend abzuleiten. KI ist jedoch nicht voreingenommen, aber wie die voreingenommenen Schlussfolgerungen unserer Gesellschaft zu regulieren sind, ist ein schwieriges Problem, weil unsere Gesellschaft voreingenommen ist. Da es der Bereich des Phänomens (sein) ist, dass unsere Gesellschaft voreingenommen ist, und es der Bereich der Autorität (sollen) ist, der von uns verlangt, diese Voreingenommenheit zu überwinden und faire Ergebnisse zu produzieren, ist es notwendig zu diskutieren, ob KI „sollen“ lernen kann und ob sie als fair bezeichnet werden kann, wenn die Ergebnisse rechnerisch gleich sind. Außerdem muss erörtert werden, ob und inwieweit Trainingsdaten und Algorithmen aktiv angepasst werden müssen, um die Gleichheit der Ergebnisse zu gewährleisten, und wie solche Tests und Regelungen von welchen Institutionen durchgeführt und bewertet werden sollen. Die EU reagiert auf diese Fragen mit dem KI-Gesetz, die USA mit Gesetzen und einer Präsidentenkommission, und Korea plant die Einrichtung einer Nationalen KI-Kommission, aber es ist dringend an der Zeit, darüber nachzudenken, welche Art von Autorität und welche Prüfkriterien verwendet werden sollen, um auf diese Fragen zu reagieren.