메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김진동 (부산대학교, 부산대학교 대학원)

지도교수
조수경
발행연도
2021
저작권
부산대학교 논문은 저작권에 의해 보호받습니다.

이용수1,590

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
우리는 기술로 인해 인간의 삶이 획기적으로 변화된 것을 산업혁명이라고 간명하게 말할 수 있다. 주지하다시피 인류는 18세기 이후 세 번의 혁명적 발전을 이루어 냈다. 그리고 지금 4번째의 획기적인 변화를 맞이하고 있는데, 바로 초지능, 초연결, 초융합이라는 특징을 가지며, 우리는 그것을 이름하여 4차 산업혁명이라고 부를 수 있다. 단적으로 말해 4차 산업혁명의 핵심은 인간의 근육보다는 지능을 대체하고자 하는 노력으로 특징지어진다. 그 귀결로 드러나는 것이 바로 인공지능 기술의 발전이다.
인공지능은 지능의 발달에 이어서 스스로 도덕적 판단을 내릴 수 있을 정도의 수준에 이르렀다. 본 논문이 착안한 것은 바로 그 지점이다. 이미 세계적으로 인간의 복지에 영향을 미치고 있는 인공지능의 도입이 우리나라에서는 아직 초기라는 점과 그에 따라 인공지능의 도입과 활성화가 의료현장에서 어떠한 윤리적인 문제에 직면하게 될 것이라는 점이다. 따라서 본 논문에서는 의료분야에 도입될 인공지능의 윤리 문제를 우선 기술적 관점과 환자의 관점으로 나누어서 고찰하고자 한다.
우선 기술적 관점에서 볼 때, 인공지능의 알고리즘을 훈련시키는 데이터의 대표성과 윤리성, 그리고 인간에서 유래한 의료데이터 자체의 복잡성으로 대표되는 기술적인 문제들은 공학자들과 의료인, 그리고 윤리학자들이 함께 풀어가야 할 과제이다. 다음으로 환자의 관점에서 볼 때, 인공지능 도입의 윤리적 문제는 의료데이터의 무분별한 수집으로 인한 개인 인권침해 문제로부터 시작하여 의료 행위에 대한 인공지능의 결정권과 의료사고에 대한 책임 문제에 이르기까지 다양하다. 이러한 우려는 인공지능의 의료적 판단 및 활동과 관련하여 일정한 윤리적 기준을 요청하고 있으며, 이에 따라 본 논문에서는 새롭게 공존해야 하는 대상으로서의 인공지능을 포괄하는 윤리적 논의의 필요성을 제기하고 또한 구성하고자 시도한다.
그러한 시도의 해결책으로 본 논문에서는 생명 의료윤리의 근간이 되는 비첨(T. L. Beauchamp)과 차일드리스(J. F. Childress)의 4대 원칙을 기반으로 인공적 도덕 행위자로서의 인공지능의사와 보건의료인을 위한 윤리적 원칙을 구체화하고자 하였다. 특히, 임상현장에서 환자를 포함한 이들의 상호관계에서 나타나는 역할과 책무를 다양한 윤리문제 사례를 통해 살펴봄으로써 향후 의료분야 인공지능 도입에 따른 생명의료 윤리교육의 정립을 위한 탐구를 그 목적으로 하였다. 이를 위하여 임상현장에서 인공지능과 직면해야 할 의료인과 의료용 인공지능이 함께 지켜나가야 할 새로운 윤리적 관계에 대해 탐색하였으며, 생명의료윤리의 4대 원칙인 ‘자율성 존중의 원칙(the principle of respect for autonomy)’, ‘악행 금지의 원칙(the principle of nonmaleficence)’, ‘선행의 원칙(the principle of beneficence)’, ‘정의의 원칙(the principle of justice)’을 구체화 및 체계화하였다. 아울러 생명의료분야에서 나타나는 구체적인 임상 상황을 기반으로 윤리문제가 생겼을 때를 대비하여 환자와 의료인, 그리고 새로운 의료주체로서 인공지능이 함께 고려해야 할 상호관계에서 나타나는 책무들에 관해 탐색하고자 하였다.
그러한 탐색을 위한 전제조건으로, 우선 다음과 같은 질문이 필연적으로 생긴다. 현재 인공지능은 어느 정도의 수준이며, 의료현장에서 도덕적 주체로서 윤리성을 가질 수 있는 상황인가? 먼저 인공지능이 도덕적 주체가 되기 위한 첫 단계는 도덕적 판단의 가능성을 확보하는 일이다. 그것은 우리가 인공적 도덕 행위자(artificial moral agent)로서 실제 의료 현장에서 의료인과 환자가 대면해야 하는 의료용 인공지능의 존재론적 특징을 확인하고, 인공적 도덕 행위자로서의 인공지능의 지위에 대하여 재정립해야할 필요가 있음을 의미한다. 다시 말해 의료용 인공지능은 첫째, 의사의 통제에 따라 의료 행위를 수행하는 ‘환자에 대한 도덕적 대리인의 특징을 가진 형태’, 둘째, 설계된 범위 안에서 ‘환자와 직접 소통하는 준 자율적 행위자의 형태’로 구분된다. 그리고 그러한 자율적 행위자는 나아가 자율성, 양심, 도덕적, 지적 측면을 모두 갖춘 ''초현실적인 인공지능의사''로 나아갈 수 있다. 본 논문에서는 완전한 자율성을 가진 초 인공지능의 한계를 지적하며, 향후 인공지능은 의료인을 도와 도덕성을 담보한 인공적 도덕 행위자의 역할을 해야 하며, 조금 더 나아가 환자와의 직접적인 관계에서는 상호소통을 통한 준 자율성(semi-otonomi)의 역할까지 기대하고자 한다.
그렇다면, 향후 인공지능은 의료현장에서 도덕적 행위자로서 다양한 윤리적인 선택의 상황에 놓일 수밖에 없다. 의료분야 인공지능 기술의 알고리즘 설정에 있어서는 동기주의나 결과주의와 같은 전통적인 윤리관의 설정도 중요하지만, 무엇보다도 생명의료윤리를 기반으로 한 환자의 존엄성과 공평성과 같은 윤리적 원칙 또한 적극적으로 고려해야 한다. 생명의료윤리 분야에서 동기주의에 관해서는 의료행위의 옳고 그름의 원칙적인 기준과 방향을 제안해 줄 수 있지만 환자의 복리와 직접적으로 관련된 의료행위의 실질적 결과가 무시될 수 있다는 비판이 있고, 결과주의는 의료행위의 실질적인 결과를 평가하는 데에 도움이 될 수 있지만 아직은 우리에게 의료행위의 결과를 평가할 명확한 기준이 없다는 비판을 받을 수 있다.
다음으로 인공지능에서 이러한 윤리적 원칙을 학습시키기 위한 방향식 방법론은 크게 세 가지로 나눌 수 있다. 첫째, 상향식 접근법은 피아제(Piaget, Jean)의 아동 인지발달과정과 유사하다. 그것의 핵심은 아동이 조절과 동화를 통해 삶의 경험을 조직화, 구조화하는 도식(schema) 형성 과정처럼, 아동이 발달하는 과정에서의 다양한 행동 패턴들에 대한 반성과 평가를 통해 도덕적 사고의 틀이나 원칙들을 습득함으로써 도덕적 행위자로 성장해나가는 인간의 방식에 있다. 둘째, 하향식 접근법은 칸트의 의무론, 황금률, 결과론적 공리주의처럼, 주어진 원칙 중심으로 전통적인 윤리 규범들을 채택한 다음 그 이론들을 바탕으로 하부 알고리즘과 시스템을 설계하는 방식이다. 셋째,혼합적 접근법은 실질적으로 인공지능을 설계하는 공학자들이 알고리즘을 설계할 때 하향식과 상향식 접근법을 혼합하는 방식이며, 실제로 일반적인 문제를 해결할 때에는 하향식 접근법에 기반을 둔 알고리즘을 설계한다. 이러한 접근 방식으로 설정한 도덕규범들이 상호 충돌하는 문제에 대해서는, 상향식 접근을 활용하여 다양한 사례와 경험을 통해 다원적인 가치와 규범이 학습되어 하향식 접근법이 가지는 한계를 극복할 것으로 기대되고 있다.
본 논문이 기획한 핵심적인 논제는 바로 보건의료인에 관한 것이다. 그들은 앞에서 살펴본 내용처럼, 인공지능 기술에 대한 인식과 생명 및 인공지능 윤리에 대한 성찰을 할 필요가 있다. 특히 일부 윤리학자들은 인공지능을 사람들과 동등한 입장에서 타자로 간주하여 상호 수평적 공존이 가능한 미래사회에 미리 대비해야 하고, 새로운 의료기술에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을 갖출 수 있는 교육이 더욱 요구된다고 주장하고 있다. 이러한 상황에서 생명윤리의식은 보건의료계열 종사자에게 있어 의료행위나 간호행위 중에 발생할 수 있는 윤리적 문제를 해결할 수 있는 기반일 뿐만 아니라, 보건의료시스템 하에서 바람직한 의사결정을 이끌어 내는 원동력이 될 것이다. 따라서 보건의료 종사자들은 생명윤리의식을 기반으로 새로운 인공지능 도입을 받아들여야 하며, 그들에게 새로 발생할 수 있는 윤리적 문제에 대한 고민이 반드시 필요한 시점이다. 그런데 국내의 생명의료윤리 관련 연구를 살펴보면, 넒은 범위의 보건의료인을 대상으로 한 연구는 부족한 실태이며 보건의료인의 생명의료윤리의식과 인공지능 인식을 확인한 연구 또한 매우 부족한 실정이다.
이러한 배경 하에 본 연구에서는 보건의료인을 대상으로 생명의료윤리의식과 인공지능 도입에 대한 인식에 대해 살펴본다. 그리고 그 결과는 다음과 같다, 우선 본 연구에서 조사한 보건의료인의 91%가 인공지능이 현재 생명의료분야에 적용이 가능하고, 69%가 인공지능이 생명의료분야에 긍정적인 영향을 줄 것으로 인식하고 있었다. 그런데 주목해야 하는 것은 생명윤리의식이 높을수록 인공지능 기술의 의료서비스 분야를 대체하는 것에 대하여 부정적인 인식 또한 높았다는 점이다. 따라서 본 논문에서는 보건의료인이 주체적인 생명윤리의식과 윤리적 가치관을 확립하고, 향후 더욱 확대될 인공지능 기술의 대상과 적용 범위를 감안하여, 발생할지 모를 심각한 윤리적인 문제를 예견하고 적극적으로 대비하여야 한다는 점을 포착한다. 또한 본 논문에서는 다음과 같은 귀결점에 이른다. 즉 인공지능에 의한 보편적 자가 의료 행위가 가능하게 된다고 하더라도, 이를 전체적으로 통제하며 윤리적 가치관에 대한 기준을 두고 이를 감시하고 책임질 인간 의료인의 존재는 필요하다는 사실이다. 그러므로 임상현장에서 판단과 의사 결정을 담당해야 하는 보건의료인의 윤리적 해석과 가치관 정립이 시급히 요구되고 있다.
그 점에 관해 좀 더 세부적으로 살펴보면 다음과 같다. 조사를 통해 보건의료인의 이상적 윤리관이 높을수록 인공지능의 적용가능성에 대한 인식도가 높아졌고, 상대적 윤리관이 높을수록 인공지능의 부정적 영향이 낮아졌다는 점이 밝혀졌다. 하지만, 세부적으로 살펴보면 이상적 윤리관과 상대적 윤리관 정립에 대한 응답은 둘 다 비교적 높은 긍정으로 나타나 두 기준에 대한 유의미한 차이가 없었다. 일반적으로 이상적, 또는 상대적 윤리관 중 하나가 강하게 자리 잡고 있으면, 다른 쪽은 비교적 낮아지는 경향을 보이는데, 본 연구를 통해 드러나는 이와 같은 결과는 보건의료인들이 아직 윤리적 가치관이 정립되지 못하여 다소 혼란스러워하는 상황이라고 해석된다. 따라서 실제 의료현장에서 발생하는 윤리적 문제와 인공지능의 등장으로 발생할 윤리적 문제에 대하여 보건의료인의 윤리적 가치관이나 생명윤리의식에 상치될 경우 어떤 결론을 내릴 것인지에 대한 구체적인 연구가 더 필요하다는 것으로 판단된다.
그렇다면, 이러한 인공지능의 도입이 활발해지는 현재의 의료현장에서 생명윤리의식 정립을 위해 보건의료인이 갖추어야 하는 기본적인 자세는 무엇인가? 의료윤리 원칙은 의사와 환자 사이에서 의사가 가지는 소명과 책임, 환자에게 최대의 이익을 주는 데 초점이 맞추어져야 한다. 수순으로 이제는 인공지능의사를 새로운 의료주체로 인식하고 인공지능의사의 역할에 대해 새롭게 조명할 필요가 있다. 다시 말하면, 보건의료인들은 비록 인공지능이 인간의 인위적인 설계와 제작에 의해 탄생된 산물이지만 가까운 미래에는 환자를 위해 최상의 의료적 진단과 결과를 가져오게 하는 매우 중요하고 영향력 있는 역할을 하게 될 대상임을 인정해야 한다. 이러한 인식을 바탕으로 인공지능 탄생의 특이성과 목적성을 받아들이고, 결과적으로 그들을 부분적 자율성과 주체성, 아울러 책무와 책임문제까지 고려할 수 있는 대상으로서 포함할 필요가 있다.
따라서 본 연구에서는 의료현장의 사례를 이용하여 생명의료윤리 원칙들을 인공지능시대의 특성에 맞게 ‘인공지능의사와 인간의사’, ‘인공지능의사와 환자’의 관계에 있어 나타날 수 있는 의료문제와 상호 책무들에 맞추어 4대원칙을 구체화했다. 첫째, 자율성의 원칙을 통하여 인공지능과 환자의 관계 중심에서 ‘충분한 정보에 의한 자율적 동의의 원칙’으로 구체화되고, 인공지능과 인간의사의 관계 중심에서는 ‘충분한 의사소통에 의한 자율적 동의의 원칙’으로 구체화했다. 둘째, 악행금지 원칙을 통해 각각 ‘환자의 안전 최우선과 악행 금지의 원칙’과 ‘해악의 정의와 의사결정 동의의 원칙’으로 구체화했다. 셋째, 선행 원칙은 ‘선행에 대한 환자 존중의 원칙’과 ‘선행의 범위와 의사결정 동의의 원칙’으로 구체화되었다. 넷째, 정의의 원칙은 ‘공정한 절차를 통한 의료 배분의 원칙’과 ‘상호작용을 통한 정의 구현의 원칙’으로 구체화했다. 이렇게 구체화된 원칙이 임상현장의 사례에 적용되어 인공지능의사와 환자의 관계에서 인공지능 의사가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙 간의 이해충동에 대한 윤리적 의사결정 방향을 제시할 수 있도록 제안하였고, 인공지능의사와 인간의사의 관계에 있어서는 가까운 미래에 한 환자에 대한 책임을 동시에 가져야 할 의료인으로서 풀어야 할 실제 윤리문제들에 대하여 논의하고 그 방향을 제시해보고자 하였다.
아울러 본 논문에서는 새로운 의료주체를 포함하여 상호관계에서 구체화된 4대원칙을 다음과 같은 접근법으로 문제해결 방향을 제시하였다. 먼저 인공지능과 환자, 인간의사의 관계 중심에서 구체화한 4대 원칙을 상위원칙으로 설정 후 하향식 접근법을 통하여 프로그래밍하여 설계하고, 하위 개별 임상현장의 윤리문제 사례들은 상향식 접근법을 활용하여 상호 충돌하는 다양한 문제에 대한 경험적 학습을 시켜 이 두 접근법을 혼합하는 방법을 사용해야 할 것으로 주장하였다. 결과적으로 인공지능의 혼합식 접근법을 위해서는 윤리적 문제 상황에 대한 구체적인 예시가 필요하며 상향적 학습을 위해 생명의료윤리 4대 원칙을 확장하여 적용하는 것이 중요하다고 판단하였다. 구체화한 의료윤리 4대 원칙은 임상현장의 사례에 적용하여 인공지능의사와 환자 및 보호자의 관계에서 인공지능의사가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙 간의 이해충동에 대한 결과를 제시하였고, 인공지능의사와 인간의사의 관계에 있어서는 가까운 미래에 한 환자에 대한 책임을 동시에 가져야 하는 의료인으로서 풀어야 할 문제와 그에 따른 책무와 역할에 대하여 논의하고 그 방향을 제시해보고자 하였다.
이렇듯 의료현장의 사례를 이용하여 구체화된 생명의료윤리 원칙을 인공지능시대 인공지능의사와 인간의사, 환자 및 보호자의 관계에 있어 나타날 수 있는 의료문제에 맞추어 확장해보는 것은 생명의료 윤리교육에 있어 매우 중요하다. 하지만, 의료현장에서 발생하는 복잡한 윤리문제는 네 가지 원칙을 아우르며 관련되어 있어 각각의 윤리 원칙을 적용하는 데는 어려움이 있을 뿐 아니라, 하나의 문제 상황에서 나타나는 원칙 사이의 충돌도 불가피했다. 그러한 이유로 인해, 본 논문에서는 생명의료분야에서 나타나는 구체적 상황을 기반으로 윤리문제가 생겼을 때 고려해야 할 잣대가 될 원칙의 구체화와 확장에 대해 강조하고 인공지능이 의료인, 환자와의 상호관계에서 중요하게 다루어야 하는 역할과 책무들에 대해 중점적으로 밝히고자 하였다.

목차

I. 서론 1
1. 연구의 필요성 1
2. 연구설계 및 구성 7
3. 선행 연구 13
II. 인공지능의 도입과 윤리 문제 18
1. 4차 산업 혁명과 윤리 문제 18
2. 인공지능의 도입과 윤리 문제 22
1) 인공지능의 도입 현황 22
2) 인공지능 기술과 윤리문제 26
3. 인공지능의 윤리문제에 대한 주요국의 정책 34
1) 미국 34
2) 유럽연합 39
3) 한국 41
III. 의료분야의 인공지능 도입과 생명의료윤리 44
1. 생명의료분야의 인공지능 도입 44
1) 의료분야의 인공지능 기술 도입 44
2) 보건의료분야의 인공지능 현황 47
2. 의료분야의 인공지능 도입과 윤리 문제 52
1) 기술적인 관점에서 고려해야 할 윤리 문제 52
2) 환자의 관점에서 본 윤리 문제 56
3. 의료분야의 인공지능 도입에 따른 생명의료윤리원칙의 확장 필요성 58
1) 한국의 의료윤리원칙과 새로운 의료주체 등장 58
2) 생명의료윤리의 네 가지 원칙과 확장의 필요성 60
IV. 보건의료인의 생명의료윤리의식과 인공지능 인식 63
1. 인공지능과 생명의료윤리의식 63
1) 연구일정 65
2) 조사설계 65
3) 분석방법 66
2. 보건의료인의 생명윤리의식과 인공지능 인식 67
1) 보건의료인의 생명윤리의식 67
2) 보건의료인의 인공지능 인식 69
3) 보건의료인의 인공지능 영향력 인식 70
4) 보건의료인의 세부주제별 인공지능 인식 72
5) 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계 74
6) 보건의료인의 생명윤리의식과 인공지능 인식 76
3. 보건의료인의 윤리의식과 인공지능 인식 79
1) 연구일정 80
2) 조사설계 80
3) 분석방법 82
4. 보건의료인의 윤리관과 인공지능 인식 83
1) 보건의료인의 윤리적 가치관 83
2) 보건의료인의 인공지능과 관련된 윤리적 기준 84
3) 보건의료인의 윤리적 가치관과 인공지능 인식의 상관관계 85
4) 보건의료인의 윤리관과 인공지능 인식 87
V. 의료분야 인공지능의 윤리성 정립과 한계 90
1. 인공지능의 윤리성 91
1) 준자율적인 윤리적 주체로서의 인공지능 91
2) 인공지능의 도덕적 판단 능력 94
3) 생명의료분야의 인공적 도덕 행위자 96
4) 인공지능의 자율적 도덕행위자로서 한계와 책무 98
2. 인공지능의 윤리적 원칙과 제언 101
1) 생명의료윤리와 환자의 복리 101
2) 생명의료윤리와 전통적인 윤리적 원칙 105
가) 동기주의적 입장에서 요구되는 존엄의 원칙 106
나) 결과주의적 입장에서 요구되는 공익의 원칙 108
3) 생명의료윤리와 인공지능 윤리 111
가) 생명의료윤리의 윤리적 원칙 111
나) 생명의료윤리와 인공지능 의사윤리 112
VI. 인공지능의 생명의료윤리원칙 구체화 과정과 보건의료 관계별 적용 115
1. 인공지능의 생명의료윤리원칙 구체화 과정 116
1) 생명의료윤리 4대 원칙의 구체화 과정 116
2) 인공지능의 생명의료윤리 4대 원칙 구체화 과정 117
가) 자율성 존중 원칙의 구체화 117
나) 악행 금지 원칙의 구체화 121
다) 선행 원칙의 구체화 122
라) 정의 원칙의 구체화 125
2. 인공지능의 생명의료윤리 4대 원칙 접근 방법 127
1) 상향적 방법론과 하향적 방법론 127
2) 혼합적 접근법 131
3) 인공지능시대 생명의료윤리 4대 원칙을 적용하기 위한 방법론 132
3. 보건의료 관계에 따른 인공지능의 생명의료윤리 4대 원칙 확장 137
1) 자율성 존중의 원칙 확장 137
가) 인공지능과 환자의 관계 : 충분한 정보에 의한 자율적 동의의 원칙 138
나) 인공지능과 인간의사의 관계 : 충분한 의사소통에 의한 자율적 동의의 원칙 140
2) 악행 금지의 원칙 확장 142
가) 인공지능과 환자의 관계 : 환자의 안전 최우선과 악행 금지의 원칙 143
나) 인공지능과 인간의사의 관계 : 해악의 정의와 의사결정 동의의 원칙 145
3) 선행의 원칙 확장 149
가) 인공지능과 환자의 관계 : 선행에 대한 환자 존중의 원칙 149
나) 인공지능과 인간의사의 관계 : 선행의 범위와 의사결정 동의의 원칙 151
4) 정의의 원칙 확장 154
가) 인공지능과 환자의 관계 : 공정한 절차를 통한 의료 배분의 원칙 154
나) 인공지능과 인간의사에 대한 관계 : 상호작용을 통한 정의 구현의 원칙 159
VII. 결론 및 제언 162
참고문헌 169
Abstract 178
부록
1. 설문지 184
2. 의사협회 윤리지침 191

최근 본 자료

전체보기

댓글(0)

0