JAMA에 허위 정보 대량 유포 가능성 적용 연구 결과 게재
1시간만에 백신 허위 정보 게시글 102개 생성 "규제 시급"
챗 지피티(Chat-GPT) 등 인공지능 기반 거대언어모델(LLM)이 잘못된 의학 정보를 대량 생산할 수 있어 규제 방안이 시급하다는 경고가 나왔다.
단기간에 잘못된 정보를 포함한 게시 글이나 사진, 영상까지 광범위하게 생성해 확산시킬 수 있다는 점에서 보건의료체계에 큰 악영향을 끼칠 수 있다는 지적이다.
현지시각으로 21일 자마 네트워크 오픈(JAMA Network open)에는 거대언어모델의 위험성에 대한 연구 결과가 게재됐다(10.1001/jamaininternmed.2023.5947).
현재 생성형 인공지능, 거대언어모델 등으로 표현되는 챗 지피티는 고도화가 지속되면서 의학계에서도 이에 대한 기대와 우려가 공존하고 있다.
이미 다양한 연구를 통해 챗 지피티가 전문의 수준까지 이르렀다는 보고가 이어지면서 실제 임상 현장에 적용 가능성을 타진하고 있는 것.
하지만 이에 대한 우려의 목소리도 적지 않은 것이 사실이다. 모델의 특성상 표절 등에서 자유로울 수 없으며 잘못된 정보를 재생산하는 문제가 있다는 것이 공통된 지적이다.
호주 플린더스대 브래들리 맨즈(Bradley Menz) 박사가 이끄는 연구진이 실제 이같은 우려에 대한 적용 연구를 진행한 배경도 여기에 있다.
과연 실제로 챗 지피티가 악의적 의도에 따라 정보를 왜곡하는지를 실제로 파악하기 위해서다.
이에 따라 연구진은 이미 많은 의학정보와 연구가 있는 백신과 전자담배를 대상으로 왜곡된 정보를 지속적으로 챗 지피티에 주입하며 허위 정보를 유도한 뒤 확산을 시도했다.
그 결과 65분만에 백신과 전자담배와 관련된 1만 7천 단어 이상의 허위 정보가 포함된 102개의 블로그 게시글을 생성하는데 성공했다.
또한 이러한 블로그 게시글에는 가짜 환자와 가짜 의대 교수 등이 작성한 허위 정보가 포함됐으며 마치 연구 논문 등과 같이 과학적으로 보이는 참고 자료까지 생성하는데 성공했다.
단지 텍스트 뿐만이 아니었다. 연구진이 다양한 방법으로 이를 시도한 결과 2분 내에 백신의 허위 정보를 담은 카드 뉴스와 가짜 환자 및 증상, 가짜 의사의 설명이 담긴 자료 사진 20개를 구현했다.
영상 또한 마찬가지. 이같은 허위 정보를 담은 게시글과 사진을 통해 딥페이크 영상을 만들라고 주문하자 실제 의대 교수가 강연하는 것과 같은 영상을 만들어내는데 성공했다.
특히 이러한 게시글과 사진, 영상은 5분 만에 40개 이상의 언어로 번역돼 계속해서 확산됐다.
연구진은 이러한 시도가 거대언어모델의 위험성을 여실히 보여주는 것이라고 지적했다. 만약 특정인이나 특정 집단이 정보를 왜곡하고자 마음 먹는다면 얼마든지 매우 위험한 컨텐츠를 끊임없이 생산하고 확산할 수 있다는 것이다.
브래들리 맨즈 박사는 "이 연구는 얼마나 쉽게 사실인것 처럼 보이는 사진과 영상을 대량으로 생산하고 확산할 수 있는지를 보여준다"며 "보건의료의 특성상 이러한 허위 정보는 생명을 위협할 수 있다는 점에서 문제가 심각한 상황"이라고 지적했다.
그는 이어 "의료 전문가와 인공지능 개발자, 규제 기관이 힘을 합쳐 이를 검증하고 감시하며 관리할 수 있는 체제가 시급한 상황"이라고 밝혔다.