메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
연구보고서
저자정보
배영임 (경기연구원) 김유나 (경기연구원)
저널정보
경기연구원 경기연구원 기본연구 [기본연구 2022-06] 인공지능의 윤리적 쟁점에 관한 탐색적 연구
발행연도
2022.10
수록면
1 - 133 (133page)

이용수

DBpia Top 0.1%동일한 주제분류 기준으로
최근 2년간 이용수 순으로 정렬했을 때
해당 논문이 위치하는 상위 비율을 의미합니다.
표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
인공지능의 자율성과 권한이 확대됨에 따라 의사결정 결과에 대한 위험성이 증가할 것이라는 우려가 제기되고 있다. 윤리적 판단 기준은 개인의 특성과 상황적인 요인 등 복합적인 요인에 의해 가변적일 수 있다. 이렇게 모호한 윤리 기준을 인공지능 알고리즘에 어떻게 적용하여 인간에게 이로운 기술로 활용할 수 있을지에 대한 고민이 필요한 시점이다. 이에 본 연구에서는 인공지능 윤리에 관한 선행연구와 사례를 조사하고 국내외 정부와 기업들의 대응 노력을 정리하였다. 또한 인공지능 제품과 서비스의 수요자인 시민들이 윤리적 문제를 어떻게 인식하고 대응 필요성을 느끼는지를 설문조사를 통해 분석하였다.
2장에서는 우선 인공지능 윤리의 개념과 필요성에 관한 선행연구를 조사하였다. 인공지능은 1956년 ‘인공지능’이라는 정식명칭으로 등장한 이후 지금까지 인간과 경쟁하면서 발전해왔으며 최근에는 기술의 발전과 함께 윤리적 개념의 필요성에 대해 연구가 진행되고 있다. 인공지능이 사람의 통제를 벗어나 자율적인 학습과 의사결정 권한을 갖게 됨에 따라 인간을 지배할 수도 있다는 위기감과 문제가 발생했을 때 책임 공백을 어떻게 해결할 것인지에 대한 연구가 진행되고 있다. 하지만 인공지능 윤리에 관한 선행연구는 아직 시작 단계로 충분하지 않고 개념과 특성, 이슈를 제기하는 데 머물러 있는 상황이다. 최근에 불거지고 있는 인공지능 윤리적 이슈 사례를 조사했는데 챗봇 ‘이루다’의 성희롱 발언, 사회적 약자에 대한 혐오발언이 대표적이다. 이외에도 딥페이크 기술의 오남용, 채용시스템과 범죄예측 프로그램의 성차별 및 인종차별 문제, 자율주행차의 딜레마 문제 등이 사회적 이슈로 대두되고 있다.
3장에서는 국내외 주요국과 기업들의 인공지능 윤리 대응 현황을 살펴보았다. 유럽, 미국, 일본, 영국, 한국 등 여러 국가들이 윤리 가이드라인을 수립하고 정책을 추진 중이다. 또한 글로벌 빅테크 기업들을 중심으로 민간 자율 규제를 만들고 기술적 해결방안을 모색 중이다. 여기에서 주목할 점은 인공지능 윤리 대응을 제도적 관점에서만 바라보는 것이 아니라 기술적 관점에서도 접근하고 있다는 점인데 알고리즘의 편향성 문제를 해결하거나 차별과 혐오 발언을 탐지해 제거하는 등 다양한 기술적 대응 노력이 그것이다. 인공지능 윤리 문제 대응은 기술 · 비기술 관점에서 종합적으로 접근해야 하며 정부와 함께 민간기업이 적극적으로 참여해 해결해 나가야 할 것이다.
4장에서는 전국 1,000명의 시민을 대상으로 인공지능 윤리 인식조사를 실시하였다. 응답자들은 인공지능 기술이 일상생활을 편리하게 해주는 유용한 기술이라고 인식하고 있으며 대체로 신뢰하지만 일부 응답자들은 인공지능 알고리즘의 불확실성과 개인정보 침해 위험 때문에 신뢰하지 않는다고 답변했다. 인공지능 윤리 문제에 대해서는 현재도 심각하다고 우려하고 있으며 미래에는 지금보다 더 심각해질 것이라고 예상하는 것으로 나타났다. 윤리 문제에서 가장 우려되는 요인은 개인정보침해 문제와 문제 발생 시 책임소재 문제, 인공지능의 오남용이라고 응답했는데 이는 인공지능이 개인의 일상에 깊이 관여하고 있으며 잘못 사용되거나 문제가 발생할 경우 책임 공백에 대한 우려를 의미한다. 정부가 발표한 인공지능 윤리기준에 대한 우선순위를 조사한 결과, 인간존엄성의 원칙이 가장 우선되어야 하며 인권을 보장하는 방향으로 인공지능이 개발되어야 한다고 응답했다. 인공지능 신뢰성 실현방안으로는 제도화보다 신뢰성 확보를 위한 기술개발이 가장 중요하다고 응답했으며 인공지능 개발 전 단계에 걸쳐 민간기업의 역할보다 정부와 공공의 역할이 중요하다고 응답했다.
본 연구의 결과를 종합할 때 다음의 정책적 시사점을 도출할 수 있다. 첫째, 인공지능 신뢰성 확보를 위한 기술개발 투자를 확대해야 한다. 둘째, 인공지능 윤리대응을 위해 정부와 공공기관, 민간기업, 시민 단체 등 관련 이해관계자와의 협의체를 운영해야 한다. 셋째, 인공지능 라이프 사이클 단계별 대응 매뉴얼을 구체화하고 문제 발생 시 책임소재를 명확히 해야 한다. 넷째, 지역별 인공지능 윤리 혁신센터 구축 · 운영이 필요하다.

목차

[표지]
[연구요약]
[차례]
표차례
그림차례
[제1장 서론]
제1절 연구 배경 및 목적
제2절 연구 내용 및 방법
[제2장 선행연구 검토 및 사례 연구]
제1절 인공지능 윤리 개념과 의의
제2절 인공지능 윤리 쟁점 사례
[제3장 인공지능 윤리 대응 현황]
제1절 국내외 정책 현황
제2절 국내외 기업 대응 사례
[제4장 인공지능 윤리 인식조사]
제1절 조사 개요 및 응답자 특성
제2절 분석 결과
[제5장 결론]
[참고문헌]
[Abstract]

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2023-309-000445487