내과학회지에 의사 인력 대체 가능성 점검 연구 게재
의학적 판단·법적 책임의 주체 필요…"한계 명확"
실시간 대화 기반의 대규모 인공지능(AI) 모델 ChatGPT가 미국 의사국시를 통과하면서 의료 영역에서 활용 가능성이 대두되고 있지만 그 역할의 의사의 판단 보조에 그칠 것이란 전망이 나왔다.
무엇보다 임상적 판단이 환자의 예후에 직결되는 만큼 최종 결정에 따르는 법적 책임을 감당할 '주체'가 필요하다는 것. 따라서 인간 의사의 판단을 도울 보조 수단으로써 활용할 가치는 있지만 의사를 대체한다는 개념으로 접근하긴 어렵다는 결론이다.
5일 의학계에 따르면 아주대의대 병리학교실 김석휘 교수가 진행한 ChatGPT의 의사 인력 대체 가능성을 점검한 연구 논문이 대한내과학회지에 게재됐다(doi.org/10.3904/kjm.2023.98.3.99).
ChatGPT는 세상에 등장한 지 얼마 되지 않았지만 미국 의사국시 및 변호사 시험에 통과하면서 사회 전반에 걸쳐 활용성에 대한 기대감을 불러일으키고 있다.
ChatGPT 이전에는 AI가 의사를 대체할 것인가라는 질문에 다소 냉소적인 반응이 대부분이었지만 최근에는 분위기가 달라져 대부분의 의사들이 AI에 대한 찬사와 위협을 동시에 느끼고 있다는 게 김 교수의 판단.
AI 모델을 포함해 모든 연구 모델이 실제 의료 현장에 적용되기 위해서는 연구 가설 및 계획을 세우고, 의학연구윤리심의위원회의 심의를 거쳐 그 적절성과 윤리성을 검토한다.
또 의료 전문가로부터 데이터를 준비하고 정제하며 연구 모델을 학습시키기 위해 데이터의 정답지를 받고, 규제 기관에서 임상시험 결과에 대한 허가를 받는 등 엄격한 과정을 거치게 된다.
김 교수는 "기존에 개발되고 허가를 받아 현재 임상 현장에서 활용되고 있는 대부분의 AI 모델은 위와 같은 단계를 모두 적합하게 수행했다"며 "이는 기존의 근거중심의학이 추구하는 바를 새로운 방법론으로 구현하는 것이라 이해할 수 있다"고 말했다.
이어 "하지만 ChatGPT와 같은 모델은 제한되지 않은 공개 데이터를 기반으로 하기에, 포함된 자료의 적절성을 감독할 수 있는 장치가 마련되지 않았다"며 "예를 들어 일정 비용을 내야만 열람할 수 있는 최신 논문의 내용은 제외되고, 일반 블로그에 게시된 신뢰성이 없는 가짜 전문가의 글은 오히려 분석 모델 내의 주요 데이터로 포함될 수 있다"고 지적했다.
모델의 개발 과정 자체에 옳고 그름을 판단해 주는 전문가의 결정이 포함돼 있지 않은 것은 중대 위험 요소로 입력된 값에 따라 결과물이 유동적일 뿐더러 포괄적인 영역에서 전반적으로 틀리지 않는 결과물을 추구하는 ChatGPT의 특성상 이 모델에서 나온 결과물을 구체적이고 특정한 임상 적응증에 적용하는 것은 상상하기 어렵다는 것.
인간이 수행할 수 없는 특정 업무에서 AI를 활용할 수 있지만 이 경우에도 의사의 역할과 범주를 확장해 주는 역할에 머무를 뿐 대체 개념으로 접근하긴 어렵다는 주문이 이어졌다.
김 교수는 "미충족 수요가 너무 높고 의사가 수행하는 것이 불가능한 일이라면, 해당 영역에서 AI를 활용할 수 있다"며 "예를 들어 전혈구 계산은 임상적 주요 결정에 꼭 필요하지만 사람이 세기 어렵기 때문에 기계의 힘을 빌려 정확히 셀 수 있고, 이러한 기능이 검증된다면 의사는 그 결과를 믿고 이에 기반해 결정할 수 있다"고 강조했다.
그는 "의사가 하기 어렵지만 기계로는 빠르고 정확하게 할 수 있고, 이 결과를 의사가 점검 후 최종 판단을 하는 경우에도 해당 모델은 의사의 역할과 의료의 범주를 더 확장해 주는 것"이라며 "반면에 의사가 어렵지 않게 할 수 있는 일이고, 굳이 다른 방법론의 도움이 필요하지 않다면 수요도가 떨어지기에 진료 현장에 들어오기 어려운 모델이 될 것"이라고 관측했다.
의학적 결정에 책임을 최종 결정권자가 짊어지는 의료법적 구조상 AI의 의사 대체 가능성은 희박하다는 판단도 나왔다.
김 교수는 "의사의 최종 점검없이 AI 모델의 결정에 따라 진료 방침이 결정되는 형태 역시 진료 현장에 적용되기 어렵다"며 "현재의 모든 의학적 결정의 책임은 이를 서명한 의사가 떠앉기 때문에 특정 모델이 환자의 운명을 바꿀 수 있는 결정을 하게 되면 잘되든, 잘못되든 결정에 대한 책임 소재가 불분명해진다"고 지적했다.
그는 "이러한 논거로 기존의 AI 모델 개발에서도 최종 결정을 의사가 점검할 수 있는가를 중요한 관문으로 보고 있다"며 "ChatGPT와 같은 모델도 출력한 결과물을 최종적으로 의사가 점검 및 결정하는 구조가 돼야만 의료 현장에 들어올 수 있다"고 전망했다.
그는 "진단 및 치료의 용도로 이용될 수 있는 AI 알고리즘에 대한 미국 FDA의 규제 또한 매우 엄격할 것으로 예상돼 전문가 집단의 정교한 설계로 개발된 모델만이 실제 환자에게 닿을 수 있을 것"이라며 "ChatGPT를 포함한 어떠한 AI 모델도 의료 현장에 실제 도입되기 위해서는 의사의 검증 및 의사에 의해 최종 확인을 받아야 하는 구조가 돼야 한다"고 결론내렸다.