[창간 22주년 기획] AI 활용이슈 진단
AI가 바꾸는 미래의료…의사 or 기업 법적 책임 누구일까
일선 의료 현장에서 인공지능(AI) 활용도가 높아지고 있다. 판독부터 문서화, 예진까지 AI의 역할이 확장되는 가운데, '잘못된 결과의 책임은 누구에게 있는가'라는 본질적인 질문이 남는다.메디칼타임즈는 2025년 창간기획 좌담회를 통해 의료 현장에서 AI 기술의 '책임'을 중심으로, 인공지능과 의료인의 경계에서 발생할 수 있는 법적·제도적 쟁점을 짚었다.이날 좌담회에는 세종병원 박진식 이사장, 서울성모병원 최준일 영상의학과 교수, 일산백병원 신성환 진단검사의학과 교수가 참석했다.메디칼타임즈 2025년 창간기획 좌담회에서 세종병원 박진식 이사장은 AI의 법적 책임 소재 모호성을 문제로 지적했다.■ 누가 판독했느냐가 아니라, 누가 책임지느냐가 핵심박진식 이사장은 영상의학 AI가 오진했을 때 법적 책임의 소재가 모호하다는 점을 지적했다. 현재 병원에서 영상 판독을 맡기는 이유 중 하나는 '진단 오류가 발생했을 때 책임이 누구에게 있느냐'는 문제 때문이라는 설명이다.만약 AI가 판독한 결과에 오류가 있었고 그로 인해 환자에게 피해가 발생했다면 그 책임이 병원에 있는지, 아니면 개발사나 의사에게 있는지 모호하다는 것.그는 "영상의학과 전문의는 자기가 본 영상에 대해 최종 책임을 진다. 그런데 만약 기업이 '이 판독은 우리가 했고, 법적 책임도 우리가 지겠다'고 하면, 의료기관은 AI를 택할 수밖에 없을 것"이라며 "결국은 법적 책임 구조가 어떻게 설계되느냐가 AI 활용의 핵심"이라고 강조했다.최준일 교수 역시 법적 책임 문제가 AI 안착 여부를 가를 중요한 변수라고 봤다. 그는 영상 검사의 결과물은 단순한 수치나 표식이 아니라, 최종적인 진단 소견서로 이어지는 중요한 판단 과정이라고 설명했다. AI가 판독을 대신한다면, 잘못된 결과를 그대로 수용한 의료인의 책임도 배제할 수 없다는 우려다.그는 "AI의 판독 결과를 검토하고 수정할 수 있는 전문가는 결국 해당 분야의 의사뿐이다. 그 해석에 따라 진단이나 치료 방향이 달라져 최종 판단은 반드시 영상의학과 전문의가 해야 한다"며 "단순히 표시된 위치만 보고 결정하는 게 아니라, 전체 병력, 촬영 조건, 환자 상태 등을 종합적으로 고려하는 과정이 필요한데 이런 부분은 아직 AI가 따라올 수 없다"고 말했다.서울성모병원 최준일 교수는 AI 로 인한 오류를 우려하며 법적 책임 문제가 AI 안착 여부를 가를 중요한 변수라고 봤다. ■ 역설적 구조도 존재 "오히려 오류 유발 가능성"하지만 AI 사용이 오히려 오류를 유발할 가능성이 있다는 우려도 있다. AI 결과에 익숙하지 않은 일반의나 비전문가가 AI 판단을 그대로 수용하면, 오류 발생 가능성이 더 커지는 경향도 있다는 이유에서다. 이런 문제를 방지하기 위해선 전문가가 AI를 검토하는 구조가 필수적이라는 판단이다.실제 관련 연구에 따르면 AI가 일부러 틀린 정보를 주도록 설정한 후 의료진에게 판독을 맡겼을 때, 오히려 정답률이 더 떨어지는 경향이 나타났다는 설명이다.최 교수는 "이런 결과를 보면, AI의 판단은 결코 만능이 아니며, 해석은 언제나 전문가의 몫으로 남는다는 사실을 다시 한번 확인할 수 있다"며 "AI가 아무리 정교하게 결과를 도출해도 그 데이터가 정확한지, 진단에 적절한지, 실제 임상 맥락에서 의미가 있는지는 결국 사람이 판단해야 한다"고 강조했다.이어 "특히 잘못된 정보를 입력하거나 오류가 있는 데이터를 기반으로 판단하면, 오히려 AI의 결과를 신뢰한 비전문가가 더 큰 오류를 범할 수 있다"며 "의료 현장에서는 AI를 '도움 도구'로 보되, 절대적인 판단 주체로 두어서는 안 된다"고 강조했다.신성환 교수 역시 AI는 대규모 데이터 기반에서 학습된 결과를 보여줄 뿐, 환자 개별 상황에 맞춘 맥락적 판단은 여전히 어렵다고 동조했다. 의료는 단순히 수치나 이미지를 넘어서 환자의 상태, 병력, 문맥 등 복합적인 요소를 고려해야 하는 행위라는 설명이다.신 교수는 "결국 AI가 제시하는 예측 결과를 얼마나 신뢰하고 어떻게 반영할 것인지 판단하는 것은 의료인의 영역이다"라며 "AI가 어떤 진단적 근거를 내놓더라도, 그것을 환자에게 적용할지 말지는 최종적으로 사람이 결정해야 한다. 그 결정에는 항상 리스크가 따르기 때문에, 책임도 당연히 인간이 질 수밖에 없다"고 말했다.이어 "특히 부작용이 생길 가능성이 있는 약이나 치료처럼 민감한 상황에서는, AI가 아니라 경험 있는 의사의 임상적 판단이 핵심이 될 수밖에 없다"며 "이 때문에 기술이 아무리 발전해도, 의료 분야에서 최종 판단자는 사람이어야 한다는 원칙은 변하지 않을 것이라고 생각한다"고 전했다.일산백병원 신성환 교수는 의료 분야에서 최종 판단자는 사람이어야 한다는 원칙은 변하지 않을 것이라고 강조했다.■ 법적 책임 명확화 없이 도입 시 병원 리스크이들은 현 상황에서 가장 우려되는 문제로 법적 공백 상태에서 AI가 무분별하게 도입될 경우를 꼽았다. 지금은 법적으로 AI가 의료인의 보조 도구로만 인정되고 있기 때문에, 문제 발생 시 병원이 모든 책임을 떠안는 구조라는 이유에서다.기업이 AI를 판매하기만 하고 법적 책임을 회피한다면 그 책임은 의료진과 병원이 지는 구조라는 것. 이를 바꾸지 않는다면 병원이 쉽게 AI를 도입하기 어렵다는 우려다.박진식 이사장은 "의료기기로 등록된 AI 솔루션에 대해서는 일정 부분 법적 책임을 나누는 구조가 필요하다"며 "궁극적으로는 AI 개발 기업도 일정한 책임을 지게 함으로써, 신중한 기술 개발과 사후 관리가 가능해질 것이다. 지금처럼 무책임한 구조로는 AI의 의료 도입이 오히려 환자 안전에 위협이 될 수 있다"고 강조했다.■ 제도 여전히 수동적 "정부 더 적극적이어야"마지막으로 세 전문가는 정부가 보다 선제적인 역할을 해야 한다는데 공감대를 나타냈다. 특히 법·제도·수가 측면에서 AI 기술 발전 속도를 따라가지 못하는 현실이라는 지적이다. 또 의료계에도 이런 변화를 미리 알고 받아들이는 자세가 필요하다고 제언했다.박진식 이사장은 "의료 AI는 의료기기법, 개인정보보호법, 의료법 등 다양한 법 제도에 걸쳐 있어 일관된 규제 체계가 필요하다"며 "기술 발전에 따라 유연하게 적용할 수 있는 가이드라인을 정부가 신속하게 마련해야 한다"고 강조했다.최준일 교수는 "선진입 제도든 뭐든 결국 의료 AI를 산업계의 관점에서만 바라보지 말고 의학계 관점에서 봐야 한다"며 "산업적으로 발전시키고 싶다면, 그 재원도 산업계가 책임지고 투자해야 한다. 국민건강보험도 내후년부터 적자라고 한다. 그런 상황에서 의료 AI에 드는 비용까지 건강보험에서 부담하겠다는 생각은 접어야 한다"고 강조했다.신성환 교수는 "앞으로 세상이 굉장히 많이 바뀔 것이라고 생각한다"며 "의료계 역시 이런 변화가 다가오고 있다는 것을 다들 미리 알고, 받아들이는 마음을 갖고 있으면 한다"고 전했다.