메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
김종욱 (동아대학교) 신나민 (동국대학교)
저널정보
한국지능시스템학회 한국지능시스템학회 논문지 한국지능시스템학회 논문지 제31권 제5호
발행연도
2021.10
수록면
368 - 375 (8page)
DOI
10.5391/JKIIS.2021.31.5.368

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
본 논문은 윤리적 딜레마 상황에서 인간의 의사 결정 결과를 모델링할 수 있도록 AMA(Artificial Moral Agent) 알고리즘에 대한 하이브리드 접근 방식을 제시한다. 이를 위해 에이전트(인간 또는 로봇)에게 각 상황에서 양자 선택지를 제공한 다음 기본적 윤리판단이 가능한 10세 어린이로부터 경험적 데이터를 수집하는 세 가지 시나리오를 개발했다. 그리고, 본 연구에서 제안한 로봇윤리 5원칙에서 각 시나리오에 대해 5 리커트 척도를 사용하여 윤리점수를 할당하는 루브릭을 개발했다. 이 논문에서 제안하는 RSDA 모델은 상기 윤리적 판단 루브릭을 기반으로 인간의 의사 결정 패턴 데이터를 이용하여 윤리점수를 식별함으로써 인간의 윤리판단을 모사할 수 있는 새로운 하이브리드 AMA 모델이다. 본 논문에서 제안하는 방법론은 소셜 로봇이나 AI가 내리는 의사결정의 투명성과 설명성을 높여 AMA의 신뢰성을 높이는 데 기여할 것으로 기대된다.

목차

요약
Abstract
1. 서론
2. 로봇윤리 5원칙 및 하향식 AMA 프레임
3. 시나리오 기반 루브릭 개발
4. 상향식 AMA를 위한 윤리점수 조정
5. 결론 및 향후 연구
References

참고문헌 (15)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0