메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학술저널
저자정보
배재권 (계명대학교)
저널정보
글로벌경영학회 글로벌경영학회지 글로벌경영학회지 제20권 제2호
발행연도
2023.4
수록면
195 - 208 (14page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색

초록· 키워드

오류제보하기
기계학습(machine learning) 및 딥러닝(deep learning) 등 인공지능 기술의 학습 성능은 인간에 근접해 있거나 또는 앞서고 있으며, 인간은 인공지능이 찾아낸 숨겨진 패턴과 규칙을 통해 새로운 통찰력을 얻고 있으나 인공지능이 제시한 결과물에 대한 전달력과 설명력은 부족한 상황이다. 산업별로 인공지능 기술 활용이 확대됨에 따라 정확도 이외에도 투명성, 공평성, 책임성 등의 가치가 지속적으로 요구되고 있다. 이에 최근 설명가능한 인공지능(eXplainable Artificial Intelligence, XAI)에 대한 요구 및 필요성이 강조되고 있다. XAI는 인공지능 모델이 산출한 결과물에 오류가 발생하였다면 그 이유가 무엇인지 설명해주는 것으로 인공지능 결과에 대한 신뢰성 판단 기준을 위한 분석 모델이자 프로세스 및 서비스를 의미한다. 본 연구는 XAI 방법론인 SHAP, LIME, LRP에 대해 고찰하고, 이들 방법론의 산업별 적용 가능성에 대해 탐색하였다. 금융분야는 인공지능이 신용등급평가, 대출의사결정, 투자의사결정 등의 주요 의사결정을 지원하고, 이들의 설명가능성, 해석가능성을 보장하기 위해 SHAP, LIME, LRP 등의 알고리즘이 적용될 수 있다. 이것으로 금융소비자와 금융기관 간 인공지능 결과물에 대한 공정성과 신뢰성을 높일 수 있다. 국방 및 군사분야는 인공지능 참모(AI Staff)가 군 주요 의사결정자의 보조수단으로 활용되고 있다. XAI를 적용하여 결과물의 설명가능성 및 해석가능성이 보장된다면 인공지능 참모의 역할은 적극적인 활용 형태로 바뀔 것이다. 산업재해 분야에서는 산업재해를 예측하는 모형에서 SHAP를 활용하여 산업재해 발생에 영향을 미치는 변수의 영향도를 파악할 수 있다. 이처럼 XAI 방법론은 다양한 분야에서 의사결정을 지원하는 인공지능 기반 예측모형의 설명가능성 및 해석가능성을 높이는데 기여할 수 있다.

목차

등록된 정보가 없습니다.

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0