[피지컬AI와 윤리⑤] 의료로봇과 의료AI 사고시 책임은 누가

[지디넷코리아]

1. 대서양을 건넌 메스: 린드버그 수술에서 의료 AI 로봇 시대까지

현대 의학 정점이라 불리는 수술용 로봇과 인공지능(AI) 등장 인간의 육체적 한계를 극복하려는 오랜 염원의 결실이다. 인간의 손이 떨리는 자리에서 로봇은 흔들리지 않으며, 인간의 눈이 놓치는 미세한 차이를 인공지능은 방대한 데이터 연산을 통해 포착한다. 나아가 인간의손길이 미치기 어려운 협소한 부위까지 로봇의 정밀한 기구는 거침없이 닿는다. 인간의 손이 닿지 않는 곳에서 생명을 구한다는 꿈은 의료 로봇 역사에서 한 번도 식은 적이 없다.

최초 로봇 수술이 무엇이었는지는 연구자마다 견해가 갈린다. 대다수는 그 영예를 콰(Kwoh) 등에게 돌리는데, 이들은 퓨마 560(PUMA 560) 로봇 시스템을 이용해 정위적 뇌생검을 수행했다. 이후 데이비스(Davies) 등은 같은 계열의 시스템을 경요도 전립선 절제술에 적용했으며, 이는 훗날 프로봇(PROBOT) 개발로 이어졌다(Lane, 2018). 이제 수술 로봇 또는 의료 로봇 기술은 다양한 외과 영역으로 확산하고 있다.

거리와 인간적 한계를 초월하고자 하는 근원적 열망이 하나의 상징적 사건으로 결정화된 것이 바로 ‘린드버그 수술’이다. 린드버그(Charles Lindbergh)는 1927년 5월 ‘스피릿 오브 세인트루이스(Spirit of St. Louis)’ 호를 타고 뉴욕을 출발해 파리에 도착함으로써 역사상 최초의 대서양 무착륙 단독 횡단 비행을 완수했다. 2001년 9월 7일, IRCAD/EITS의 자크 마레스코(Jacques Marescaux)와 뉴욕의 미셸 가니에(Michel Gagner)는 뉴욕 외과의 조작 콘솔과 스트라스부르 대학병원의 수술 로봇을 제우스(ZEUS) 시스템으로 연결, 인류 최초의 원격 로봇 보조 복강경 담낭절제술을 시행했다(Marescaux, 2002).

이 수술은 이후 ‘린드버그 수술’이라 불리게 되었다. 그로부터 20여 년이 흐른 현재, Intuitive의 2025년 실적 공시에 따르면, 2025년 한 해 동안 다빈치(da Vinci) 수술 시스템을 이용한 수술은 약 315만 3천 건 수행되었으며, 이는 2024년의 약 268만 3천 건에 비해 약 18% 증가한 수치다(Intuitive Surgical, 2026).

박형빈 서울교육대학교 윤리교육과 교수
필자가 챗GPT5로 생성한 그림

수술 영역의 로봇 시스템은 일반적으로 능동형(active), 반능동형(semi-active), 그리고 마스터-슬레이브형(master-seval, 원격조작형/teleoperated) 시스템으로 구분된다. 능동형 시스템은 사전 설정된 작업을 수행하는 로봇 구동 방식이며 프로봇(PROBOT)이 대표적 예다. 반능동형 시스템은 외과의가 직접 기구를 조작하되, 로봇이 사전 설정된 안전 경계 내에서 움직임을 물리적으로 제한하는 방식으로 작동한다. 반면, 다빈치(da Vinci®)와 제우스(ZEUS)는 대표적인 마스터-슬레이브형 시스템으로, 외과의가 콘솔에서 조작하면 그 움직임이 로봇 팔과 수술 기구에 원격으로 전달되어 체내에서 재현된다(Lane, 2018).

그런데 바로 여기서 불편한 질문이 시작된다. 마스터-슬레이브 시스템은 외과의의 조작에 전적으로 의존한다고 정의되지만, 실제 수술 현장에서 의사는 알고리즘의 권고를 얼마나 독립적으로 판단하고 있는가? 또한 능동형 시스템이 사전 프로그램된 경로를 따라 절개할 때, 그 경로를 ‘설계’한 자와 그 경로를 ‘허가’한 자와 그 경로를 ‘신뢰’한 자 사이의 책임은 어떻게 나뉘는가? 기술의 유형이 정밀해질수록 책임의 경계는 오히려 흐릿해진다. 2025년 한 해에만 315만 건을 넘어선 다빈치 수술 시대에, 우리는 기계의 해부도는 갖추었지만 책임의 해부도는 아직 그리지 못했다.

2. 비인칭적(Impersonal) 칼날과 인칭적(Personal) 책임

로봇 수술의 가장 큰 장점은 정밀함이다. 그러나 바로 그 정밀성 때문에 역설이 발생한다. 기계는 더 정교해지는데 책임의 소재는 오히려 더 불분명해 보인다. 지난 10년 동안 로봇 수술 역할은 급속히 확대되어 왔으며, 널리 채택된 다빈치 수술 시스템의 임상적 결과는 비교적 잘 보고되어 왔다. 반면, 그 이상 사례와 기기 안전성에 대한 대규모 평가는 여전히 제한적이다.

미국 FDA의 제조사 및 사용자 기기 경험 데이터베이스(MAUDE)는 의료기기 플랫폼 전반의 이상 사례와 고장을 특성화하는 데 유용한 자료를 제공한다. 시에와 황(Hsieh & Huang)은 2015년 1월부터 2025년 6월까지의 다빈치 수술 시스템 관련 MAUDE 보고를 검토했으며, 같은 기간 수행된 것으로 추정되는 약 1590만 건의 수술 가운데 6만6651건의 이상 사례 보고를 확인했다.

보고율은 수술 10만 건당 420.1건이었고, 그중 상해 55.2건, 사망 3.1건, 수술 전환 21.8건, 시술 중단 2.1건이 포함되었다(Hsieh & Huang, 2026). 이러한 결과는 로봇 수술이 임상 실무에 더욱 깊이 통합되어 가는 현실에서, 플랫폼별 안전성 특성을 검증하기 위한 전향적 등록자료 기반 점검 및 감시 체계의 구축이 시급함을 보여준다.

이상 사례의 상당수는 기기 결함과 인간 운용자의 판단 착오가 복합적으로 얽혀 있다. 오작동은 비인칭적 알고리즘에서 발원하지만, 그 피해는 지극히 인칭적인 한 인간의 몸과 삶에 귀결된다. 그렇다면 책임은 누구에게 있는가? 집도의인가, 병원인가, 소프트웨어 개발자인가, 의료기기 제조사인가, 아니면 해당 알고리즘을 심사·승인하고 제도화한 국가인가?

기술은 놀랍도록 빠르게 전진했지만, 책임의 언어는 그 속도를 따라가지 못했다. 칼날은 비인칭적이되, 그 칼날이 야기한 상처에 응답해야 할 책임은 끝내 인칭적일 수밖에 없다.

3. 정명(正名)의 요청-이름이 바르지 않으면 책임도 바르지 않다

이 문제는 과실 판단의 문제에 한정되어서는 안 된다. 그것은 인간이 생명과 고통의 문제를 어떤 방식으로 공적으로 감당할 것인가에 관한 질문이며, 그 질문의 출발점은 언제나 ‘이름’을 바로 세우는 일이다.

공자의 제자 자로가 ‘위나라 임금이 선생을 등용해 정치를 맡긴다면 무엇을 먼저 하시겠습니까?’라고 묻자, 공자는 ‘반드시 이름을 바로잡겠다(必也正名乎)’라고 답하였다. 이어 공자는 이름이 바르지 않으면 말이 순조롭지 못하고, 말이 순조롭지 못하면 일이 이루어지지 않으며, 일이 이루어지지 않으면 예악이 흥하지 못하고, 예악이 흥하지 않으면 형벌이 바르게 시행되지 않으며, 형벌이 바르게 시행되지 않으면 백성이 손발을 둘 바를 알지 못하게 된다고 설명한다 (논어 ‘자로’ 3장).

오늘날 의료 AI를 둘러싼 논쟁도 마찬가지이지 않을까. 수술 로봇, AI 의료기기가 ‘보조 도구’인지, ‘판단 주체’인지, ‘책임 분산 장치’인지, ‘자율적 행위자’인지, ‘임상 의사결정 지원 시스템’인지, ‘대리 집도자’인지, ‘알고리즘적 공동 시술자’인지, 아니면 단순 ‘정밀 기계 장치’인지 그 이름부터 명확히 하지 못한다면, 책임의 귀속 역시 끝내 흐려질 수밖에 없다.

정교하게 작동하는 것과 그 작동의 결과에 응답할 수 있는 것 사이에는 메울 수 없는 존재론적 간극이 있다. 알고리즘은 오류를 일으킬 수 있지만 책임을 질 수 없고, 의사는 책임을 져야 하지만 알고리즘의 내부 논리를 온전히 이해하지 못한 채 그 결과를 감당해야 하는 구조 속에 놓일 수 있다. 이름이 불분명한 곳에서 책임은 안개처럼 흩어진다.

4. 드워킨의 원칙의 문제-규칙이 침묵하는 자리에서 법은 무엇으로 말하는가

로널드 드워킨(Ronald Dworkin)의 법철학은 이 지점에서 중요한 길잡이가 된다. 드워킨은 법을 단지 정해진 규칙들의 집합으로 보지 않았다. 그는 ‘원칙의 문제(A Matter of Principle,1985)’에서 법적 해석이 규칙 적용을 넘어 공동체의 정치적 도덕성과 일치해야 한다고 역설했다. 그에게 법은 중립적 기술이 아니라 공동체가 자신의 도덕적 정체성을 드러내는 언어였다.

드워킨이 말한 정치적 도덕성의 핵심은 국가가 모든 시민을 동등한 배려와 존중의 대상으로 대해야 한다는 원칙이다. 그것은 제도가 특정 집단의 이해를 다른 집단의 이해보다 구조적으로 우선시할 때, 그 제도는 정치적 도덕성에 반한다는 구체적 판단 기준이다. 이 기준을 의료 AI에 적용하면, 불편한 질문이 즉각 제기된다. 알고리즘의 편향 문제는 추상적 우려가 아니라 임상 현장에서 이미 실증된 현실이기 때문이다.

인공지능은 위험 요인을 식별하고, 질병을 예측하며, 초기 단계를 탐지하고, 조기 개입이 필요한 환자를 찾아내는 잠재력을 지닌다. 그러나 디지털 격차와 의료 서비스의 불평등은 역사적으로 소외된 집단에 더 큰 영향을 미친다. 일부 집단은 디지털 데이터셋에서 충분히, 또는 정확하게 대표되지 않거나 낮은 수준의 의료 서비스를 받아온 탓에, 그 결핍의 흔적이 데이터 속에 고스란히 남아 있다. 이러한 데이터가 알고리즘 학습에 사용될 때, 또는 연구 설계, 데이터 처리, 모델 개발, 테스트, 구현, 사후 임상 적용 등 어느 단계에서든 사용될 때, AI 편향은 발생할 수 있다.

훈련 데이터에서 기본적인 인구 통계 정보조차 대표성이 결여된 모델은 편향된 결과를 산출하여 기존의 건강 불평등을 악화시킨다. 가령 AI 알고리즘은 심혈관 질환의 위험이 있는 환자를 식별하여 질병의 경과를 바꿀 수 있는 조기 개입을 가능하게 하지만, AI 편향은 알고리즘의 개발, 검증, 평가 등 모든 단계에서 발생할 수 있다. 편향된 알고리즘은 나이, 성별, 인종 또는 민족, 사회경제적 지위에 따른 의료 불평등을 더욱 심화시킨다(Mihan et al., 2024).

공중보건 AI 모델의 상당수는 도시 병원과 고소득 국가의 데이터에서 도출되어, 문화적·언어적·유전적·환경적 다양성이 반영되지 않은 저소득 국가 및 소외 집단의 환자를 체계적으로 과소 진단하거나 오분류하는 결과를 낳게 된다. 수술 로봇 역시 예외가 아니다. 훈련 데이터에 특정 체형, 해부학적 변이, 인종별 신체 특성이 충분히 반영되지 않은 경우, 알고리즘의 절제 경로 권고는 특정 집단의 환자에게 더 높은 위험을 부과할 수 있다.

이처럼 편향된 알고리즘이 임상 현장에서 특정 환자 집단에게 구조적으로 낮은 수준의 의료 판단을 제공할 때, 그 시스템을 승인하고 운용하는 국가와 제도는 과연 모든 환자를 동등하게 배려하고 있는가. 드워킨의 언어로 말하자면, 이것은 정책적 효율성의 문제가 아니라 공동체의 정치적 도덕성이 시험받는 원칙의 문제이다.

5. 드워킨의 원칙이 규칙의 공백을 메울 때

그렇다면 구체적으로 무엇을, 어떻게 해야 하는가. 의료 로봇과 수술 AI의 오판은 드워킨적 의미에서의 ‘어려운 문제(hard case)’의 전형이다. 기존 법률은 제조물 책임, 의료 과실, 설명 의무, 사용자 주의의무 등을 개별적으로 규정하고 있지만, 이 규칙들을 기계적으로 대입하는 순간 책임은 분산되고 희석된다.

자율 시스템이 개입된 오판에서 어떤 단일 행위자도 전적인 책임을 지지 않는 상태, 이른바 ‘책임의 공백’이 구조적으로 발생하는 것이다. 기술 기업은 ‘의사는 참고만 하도록 되어 있었다’고 말하고, 의사는 ‘고도화된 시스템의 추천을 신뢰할 수밖에 없었다’고 말하며, 병원은 ‘공인된 제품이었다’고 항변한다.

규칙 중심의 사고는 이 책임의 고리를 잘게 잘라 흩어버린다. 그러나 원칙 중심의 해석은 그 분절된 조각들을 다시 하나의 도덕적 서사로 묶는다. 의료 AI의 오판 앞에서 우리가 물어야 할 것은 ‘마지막으로 버튼을 누른 사람이 누구인가’가 만이 아니다. 그런 질문은 책임의 표면만 훑을 뿐, 사태의 윤리적·법적 핵심에는 닿지 못한다.

더 본질적인 물음은 세 가지다. 첫째, 이 의료 공동체는 환자를 단지 데이터의 입력값이나 위험 관리의 대상으로 다룬 것이 아니라, 동등한 배려와 존중을 받아야 할 한 사람으로 대했는가.

둘째, 기술을 도입하고 운용하는 과정에서 충분히 예견할 수 있었던 위험에 대하여, 검증과 설명, 감독과 이의 제기 및 구제의 절차를 성실하게 마련했는가.

셋째, 실패가 현실이 되었을 때, 피해자가 그 원인과 경위를 납득할 수 있을 만큼 진실에 접근하고, 자신의 손해와 불안을 사회적으로 회복할 기회를 보장받는가.

이 물음들은 규칙의 적용만으로는 끝내 답해질 수 없다. 규칙은 책임의 형식과 절차를 정할 수는 있어도, 우리가 끝내 지켜야 할 가치가 무엇인지를 스스로 말해 주지는 못하기 때문이다. 바로 그 지점에서 원칙이 요청된다. 원칙은 누가 잘못했는지를 기계적으로 가르는 기준이 아니라, 어떤 공동체가 인간의 존엄과 신뢰, 공정성을 어떻게 떠받치고 있는지를 묻는 기준이다.

그러므로 의료 AI의 실패를 판단하는 일은 어떤 개인의 행위를 사후적으로 지목하는 데서 멈춰서는 안 된다. 그것은 기술을 둘러싼 제도와 실천 전체가 과연 정의로운 방식으로 조직되어 있었는지를 성찰하는 일이어야 한다. 법이 분명한 답을 내리지 못하는 자리에서조차 원칙이 먼저 말해야 하는 이유는 여기에 있다. 침묵하는 규칙의 빈틈을 메우는 것은 결국, 인간을 수단이 아니라 목적으로 대해야 한다는 공동체의 윤리이기 때문이다.

6. 결론: 드워킨의 정치적 도덕성-책임은 왜 개인을 넘어 제도로 가야 하는가

이 글이 제기한 핵심 문제는 의료 AI의 오판이 발생했을 때 책임을 누구에게 물을 것인가에 있었다. 그러나 이 질문은 집도의, 병원, 개발사, 제조사, 승인기관 가운데 한 주체를 지목하는 방식으로는 충분히 답이 될 수 없다. 의료 AI의 실패는 대개 개인의 단독 과실이 아니라 기술의 설계, 도입, 승인, 운영, 감독, 구제 절차가 얽힌 ‘제도적 구조’ 속에서 발생하기 때문이다. 따라서 책임 역시 개인을 넘어, 그러한 위험을 가능하게 하고 배분한 제도로까지 ‘확장’되어야 한다.

드워킨은 법과 정치를 정치적 도덕성의 문제로 이해했다. 국가는 시민을 동등한 배려와 존중의 대상으로 대해야 하며, 제도는 그 원칙을 실제로 구현해야 한다. 이 관점에서 의료 AI의 책임 문제는 의료사고의 사후 처리에 머물지 않는다. 그것은 한 사회가 첨단기술의 위험을 어떤 기준 아래 통제하고, 그 위험과 손실을 누구에게 집중시키고 있는지를 묻는 문제다.

실제로 의료 알고리즘이 특정 인종 집단의 위험을 구조적으로 낮게 평가해 치료 자원의 배분을 왜곡한 사례는(Obermeyer et al., 2019) 기술이 중립적인 도구가 아니라 기존의 불평등을 재생산할 수 있는 제도적 매개임을 보여준다. 이런 상황에서 책임을 오직 개인 의료진에게만 돌리는 것은 구조적 실패를 ‘은폐’하는 일이다.

더욱이 현행 법과 규제는 의료 AI의 책임 구조를 충분히 명확히 하지 못하고 있다. 자율학습형 시스템의 책임 귀속, 사후 모니터링, 설명가능성, 피해구제 절차 등은 여전히 불완전하다. 그 결과 오판이 발생했을 때 환자에게 과도한 입증 부담이 전가되기 쉽다. 따라서 정치적 도덕성은 제도에 최소한 세 가지를 요구한다.

첫째, AI가 어디까지 보조 수단이며 어디서부터 실질적 판단 권한을 가지는지 명확히 해야 한다. 둘째, 인간 의료진에게 최종 책임을 부과한다면, 그 책임을 감당할 수 있도록 시스템의 투명성과 검증 가능성을 보장해야 한다. 셋째, 피해 발생 시 환자가 진실에 접근하고 실질적으로 회복할 수 있는 절차를 마련해야 한다.

이는 기술 규제가 아니라, 시민을 동등한 존엄의 주체로 대하겠다는 공적 약속의 표현이다. 결국 의료 AI 시대에 필요한 것은 ‘누가 잘못했는가’만을 묻는 체계가 아니다. 더 중요한 것은 실패가 발생했을 때 진실이 은폐되지 않고, 피해가 신속히 회복되며, 동일한 오류가 반복되지 않도록 제도와 문화를 함께 바꾸는 책임 구조를 만드는 일이다. ‘책임을 지나치게 개인화하면 구조가 숨고, 지나치게 구조화하면 개인의 윤리가 사라진다.’

그러므로 미래의 책임 법리는 ‘개인과 제도, 행위와 구조를 아우르는 이중적 설계’를 요청한다. 의료 AI의 오판은 기계적 오류로 축소될 사안이 아니라, 인간 공동체가 생명의 영역에서 책임을 어떠한 원리 아래 조직하고 분배할 것인가를 가늠하는 시금석으로 봐야한다. 이 물음 앞에서 법은 더욱 치밀해져야 하고, 정치는 더욱 도덕적이어야 하며, 의학은 다시 인간을 중심에 두는 본연의 책무를 회복해야 한다.


필자 박형빈 서울교대 교수는….

▲약력

· 서울교육대학교 윤리교육과 교수

· 미국 UCLA 교육학과(Department of Education) 방문학자

· 서울교육대학교 교육전문대학원 에듀테크전공·어린이철학교육전공 교수

· 서울교육대학교 신경윤리·가치AI융합교육연구소 소장

▲주요 경력 및 사회공헌

· 현 신경윤리융합교육연구센터 센터장

· 현 가치윤리AI허브센터 센터장

· 현 경기도교육청 학교폭력예방자문위원

· 현 통일부 정책자문위원

· 현 민주평화통일자문회의 자문위원

▲주요 수상

· 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서)

▲주요 저서

· 『도덕적 AI와 인간 정서』(2025)

· 『BCI와 AI 윤리』(2025)

· 『질문으로 답을 찾는 인공지능 윤리 수업』(2025)

· 『AI 윤리와 뇌신경과학 그리고 교육』(2024)

· 『양심: 도덕적 직관의 기원』(2024)

· 『도덕지능 수업』(2023)

· 『뇌 신경과학과 도덕교육』(2020)

· 『통일교육학: 그 이론과 실제』(2020)

▲연구 및 전문 분야

· 도덕·윤리교육, 신경윤리 기반 도덕교육

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다