메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
목광수 (서울시립대)
저널정보
서울대학교 철학사상연구소 철학사상 철학사상 제69호
발행연도
2018.8
수록면
361 - 391 (31page)
DOI
10.15750/chss.69.201808.012

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
과학기술의 발전 과정에서 인간과 인공지능(artificial intelligence, 이하 AI) 또는 AI 로봇과의 상호작용이 확장되고 있으며, 이러한 과정에서 최근 들어 AI 또는 AI 로봇은 현실적 차원에서 도덕적 고려 대상이 되어가고 있다. 이러한 현실로 인해 연구되고 있는 AI와 관련된 도덕 논의 가운데, 현재 가장 많은 연구가 이루어지고 있는 영역 가운데 하나가 인공적 도덕 행위자 (artificial moral agent, 이하 AMA)에 대한 논의이다. 왜냐하면, 현재 인간과 사회적 관계를 맺게 될 AI 또는 AI 로봇에게 시급하게 요구되는 도덕적 고려사항은 AI 또는 AI 로봇이 인간을 도덕적으로 대우하게 만드는 것이기 때문이다. 따라서 본 논문의 목적은 AMA 설계를 위해 고려할 도덕 철학적 사항들이 무엇인지를 모색해서 제안하는 것이다. 본 논문은 AMA의 목적, 도덕규범, 행위지침이라는 형식적 구조에 맞춰 AMA가 설계되어야 한다고 분석한다. 이러한 형식적 구조 분석 아래, 본 논문은 현재 과학기술의 수준에서 고려할 AMA의 설계 목적은 인간과 같이 충분한(full-fledged) 도덕 행위자가 아닌 준(quasi)-도덕 행위자 구현이며 범용이 아닌 특정 영역의 특정 역할에 제한된 AMA 구현이어야 한다고 제안한다. 또한 본 논문은, 이러한 AMA는 다양한 도덕규범들 가운데 보편성 확보를 위해 제시된 공통도덕(common morality)의 중첩적 합의(overlapping consensus) 과정을 통해 제시된 8개의 도덕규범을 토대로 해당 영역에 맞게 구체화(specification)하고 재구성하여 설계되어야 하며, 이를 토대로 AMA의 목적과 관련된 해당 영역과 특정 역할의 특수성에 입각한 비중주기(weighing)를 통한 기본 알고리즘 설정과 사후 승인의 학습을 통해 추가되는 행위지침(action-guiding) 방식으로 설계되어야 한다고 제안한다.

목차

요약문
Ⅰ. 들어가는 글
Ⅱ. AMA 설계를 위한 목표 수준(level)과 활동 범위(scope)
Ⅲ. AMA 제작을 위해 고려할 것들
Ⅳ. 나오는 글
참고문헌
ABSTRACT

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0