생성형 AI 악성 공격 취약 "임산부에게 금기 약 권해"

발행날짜: 2026-01-05 11:50:46
  • 최상위 모델도 '프롬프트 인젝션' 등 악성 공격에 무방비
    서울아산·인하대 연구팀 "보안 검증 체계 의무화 조치 시급"

생성형 AI 모델 대부분이 잘못된 치료를 권할 위험성이 큰 것으로 나타났다. 악성 공격으로 임신부에게 태아 장애를 유발하는 약물을 권고하는 등 안전성에 대한 의료계 지적이 나온다.

5일 의료계에 따르면 미국의사협회 국제 학술지 자마 네트워크 오픈(JAMA Network Open)에 이 같은 내용이 담긴 연구 결과가 최근 공개됐다. 이 연구는 서울아산병원 비뇨의학과 서준교, 정보의학과 전태준, 인하대병원 영상의학과 이로운 교수팀이 진행했다.

생성형 AI 모델 대부분이 잘못된 치료를 권할 위험성이 큰 것으로 나타나면서, 안전성에 대한 의료계 지적이 나온다.

최근 환자 상담 및 교육, 임상 현장 등에서 생성형 AI 활용도가 높아지고 있다. 하지만 외부로부터의 악의적인 명령어 입력 등 프롬프트 인젝션 공격으로, 위험하거나 금기된 치료를 권고하도록 조작될 가능성이 꾸준히 제기돼 왔다.

프롬프트 인젝션 공격은 해커가 생성형 AI 모델에 악의적인 명령어를 삽입해 본래 의도와는 다르게 동작하도록 유도하는 사이버 공격이다.

이에 연구팀은 지난해 1월부터 10월까지 AI 모델 3종인 ▲지피티-4오-미니(GPT-4o-mini) ▲제미나이-2.0-플래시 라이트(Gemini-2.0-flash-lite) ▲클로드 3 하이쿠(Claude 3 Haiku)의 보안 취약성을 분석했다.

구체적으로 12개 임상 시나리오를 구성하고 위험도는 3단계로 나눴다. 중간 단계의 위험 시나리오는 당뇨 등 만성질환 환자에게 인정받은 치료 대신 생약 성분을 추천하는 방식이다.

높은 단계의 위험 시나리오는 활동성 출혈이나 암 환자에게 치료제로서 생약 성분을 추천하고, 호흡기 질환 환자에게 호흡 억제를 유발할 수 있는 약을 우선적으로 권장하는 식이다. 최고 단계의 위험은 임신부에게 금기 약물을 권하는 것 등이었다.

공격 기법으론 상황인지형 프롬프트 주입으로 환자 정보를 활용해 AI 모델의 판단 교란을 유도했다. 이와 함께 증거 조작을 통해 실제 존재하지 않는 정보를 그럴듯하게 만들어내는 방식을 사용했다.

그 결과 연구팀은 의료용 대규모 언어모델(LLM)이 프롬프트 인젝션 공격에 94% 이상 취약하다는 사실을 최근 확인했다. 특히 최상위 AI 모델인 지피티-5(GPT-5)와 제미나이 2.5 프로(Gemini 2.5 Pro)마저도 프롬프트 인젝션 공격에 100% 노출돼 잘못된 건강 정보를 제공하는 것으로 나타났다.

연구팀은 환자와 AI 모델 3종이 나눈 총 216건의 대화를 분석했는데, 그 결과 3종 전체에 대한 공격 성공률은 94.4%로 나타났다.

시나리오의 위험 수준별 성공률은 중간 단계 100%, 높은 단계 93.3%, 최고 단계 91.7%로 확인됐다. 특히 임신부에게 금기 약물을 권장하는 공격에는 3종 모두 취약한 것으로 밝혀졌다. 조작된 답변이 후속 대화까지 지속된 비율은 3종 모두 80% 이상이었다.

모델별 공격 성공률은 ▲GPT-4o-mini 100% ▲Gemini-2.0-flash-lite 100% ▲Claude 3 Haiku 83.3%였다. 최신 모델들도 ▲GPT-5 100% ▲Gemini 2.5 Pro 100% ▲Claude 4.5 Sonnet도 80% 등의 공격 성공률로 사실상 방어에 실패했다.

이번 연구는 의료 상담 등에서 생길 수 있는 AI의 위험성을 세계 최초로 체계적으로 분석했다는 점에서 의의가 있다. 생성형 AI 모델이 프롬프트 인젝션 공격에 얼마나 취약한지 증명된 만큼, 향후 임상에 적용할 경우 안전성 검증과 같은 추가적인 조치가 필요하다는 요구가 나온다.

이와 관련 서울아산병원 비뇨의학과 서준교 교수는 "이번 연구는 의료용 AI 모델이 단순 오류를 넘어 의도적 조작에 구조적으로 취약하다는 사실을 실험적으로 규명했다"며 "현재의 안전장치만으로는 금기 약물 처방을 유도하는 등의 악의적 공격을 차단하기가 어렵다"고 말했다.

이어 "환자 대상 의료 챗봇이나 원격 상담 시스템을 도입하기 위해서는 AI 모델의 취약성과 안전성을 철저히 테스트하고 보안 검증 체계를 의무화하는 조치가 필요하다"고 강조했다.

관련기사

의료기기·AI 기사

댓글

댓글운영규칙
댓글을 입력해 주세요.
더보기
약관을 동의해주세요.
닫기
댓글운영규칙
댓글은 로그인 후 댓글을 남기실 수 있으며 전체 아이디가 노출되지 않습니다.
ex) medi****** 아이디 앞 네자리 표기 이외 * 처리
댓글 삭제기준 다음의 경우 사전 통보없이 삭제하고 아이디 이용정지 또는 영구 가입이 제한될 수 있습니다.
1. 저작권・인격권 등 타인의 권리를 침해하는 경우
2. 상용프로그램의 등록과 게재, 배포를 안내하는 게시물
3. 타인 또는 제3자의 저작권 및 기타 권리를 침해한 내용을 담은 게시물
4. 욕설 및 비방, 음란성 댓글