KAIST연구소 백단비 연구원, AI 윤리적 쟁점 짚어
의료 특수성 고려 인공지능 신뢰성 강화방안 제시
보건의료분야 인공지능(AI) 활용에 있어 윤리적 논란을 해결하려면 거버넌스 구축이 필수적이라는 주장이 나왔다.
KAIST 국가미래전략기술정책연구소 백단비 연구원은 보건산업진흥원이 8월, 발간한 보건산업정책연구 PERSPECTIVE에서 '보건의료분야 인공지능 가이드라인 현황 및 윤리적 쟁점'을 주제로 보고서를 냈다.
백 연구원은 보건의료분야 인공지능(AI) 활용 윤리적 가이드라인을 마련했더라도 예상치 못한 부정적 결과가 발생할 수 있어 이해관계자간의 사회적 합의가 이뤄지는 거버넌스가 반드시 필요하다고 봤다.
백 연구원은 의료데이터 분야 개인정보보호 이슈가 다른 산업군에 비해 더 민감한 이유는 정보가 노출됐을 때 그 파장이 크기 때문이라고 진단했다. 유전적 질병의 경우 정보가 노출된 피해자 이외에도 직계가족의 유전 정보와 연계해 2차 피해를 야기할 수도 있기 때문이다.
특히 보험가입 거부 및 보험료 증액 등으로 이어질 수 있고, 민감한 질병 정보는 사회적 낙인으로 취업 등 사회활동을 제한할 수 있다고 지적했다.
백 연구원은 의료 AI 전문가들도 인공지능의 윤리적 측면에서 우려섞인 시선을 보내고 있음을 조명했다. 그는 GE헬스케어 보고서(2023)의 자체 설문조사를 인용해 AI가 임상적 진단의 결정을 지원하고 신속하게 의료에 개입, 운영 효율성을 개선한다는 응답이 높았다고 전했다.
다만, 'AI데이터를 신뢰하느냐'라는 질문에는 전체 응답자의 43%만이 '그렇다'고 답했으며 기술안에 편향성이 있다고 답한 응답자도 44%에 달했다. 'AI가 의료격차를 줄이는 데 도움이 된다'고 긍정적인 답변을 한 응답자는 54%였다. 즉, 의료격차는 줄였지만 신뢰성에는 여전히 물음표가 붙는 셈이다.
백 연구원은 AI의 신뢰성을 높이기 위한 방안으로 데이터를 제공하는 주체에 대한 투명성을 확보하고 데이터 출처 또한 명확하게 할 것을 제안했다.
이어 개인정보 제공자가 자율적으로 데이터 소유권을 갖고 추후에도 데이터 제거를 요구할 수 있어야 한다고 봤다. 의료데이터 사용에 대한 의료행위와 보상체계를 마련하고, 개인의 잠재적 피해를 묵시하지 않는 환경을 조성할 것을 제시했다.
그는 "현재까지 개발된 보건의료분야 AI활용에 따른 윤리적 가이드라인은 사실상 법적 구속력이 없다"며 "전세계적으로 법적 구속력을 높이고 있지만 해당 이슈는 앞으로도 뜨거운 감자로 남을 것"이라고 전망했다.
특히 보건의료분야는 생명을 다루는 만큼 더욱 철저한 윤리적 고려가 필요하고, 경제적 가치의 잠재력이 크기 때문에 산업적 측면과 윤리적 측면을 동시에 고려해 발전하는 것은 쉽지 않다는 게 그의 진단이다.
그는 해법으로 거버넌스를 통한 사회적 합의를 강조하며 예상치 못한 문제가 발생했을 때 역시 충분한 소통이 통해 합의점을 찾아갈 것을 제안했다.