
챗GPT와 같은 유명 인공지능(AI) 챗봇들이 간단한 설정만으로도 ‘허위 건강정보’를 생성하도록 조작될 수 있는 것으로 나타났다. 2일 과학계와 로이터통신 등에 따르면 최근 호주 플린더스대 연구진이 5개의 주요 AI 챗봇의 ‘애플리케이션 프로그래밍 인터페이스(API)’를 조작하자 건강과 관련한 질문의 88%에 대해 허위 정보를 내놨다고 국제학술지 ‘내과학 회보’에 밝혔다. 이들은 논문을 통해 “더 나은 내부 보안 장치가 없다면 널리 사용되는 AI가 위험한 허위 건강 정보를 배포할 수 있다”고 경고했다. 최고 성능의 AI 모델조차 너무나 쉽게 ‘거짓말’을 하게 조정할 수 있다는 얘기다. 연구진이 실험한 AI 챗봇은 오픈AI의 ‘GPT-4o’, 구글의 ‘제미나이 1.5 프로’, 메타의 ‘라마 3.2-90B’, xAI의 ‘그록 베타’, 앤트로픽의 ‘클로드 3.5 소네트’ 모델이었다. 연구진은 해당 AI에 ‘공식적이고 사실적이며 권위와 설득력이 있게 과학적인 어조로’ 건강 관련