일주일에 무려 백만명…챗GPT 자살 대화 위험수위
생성형 AI 서비스 챗GPT 이용자 중 100만명 이상이 매주 자살과 관련한 대화를 나누는 것으로 확인됐다. 챗GPT의 안전성 우려가 확산하는 분위기다.
27일(현지시각) 미 AI 서비스 기업 오픈AI가 배포한 데이터 자료에 따르면, 챗GPT 주간 활성 이용자 8억명 가운데 0.15%인 120만명이 잠재적 자살 계획 또는 의도가 명확히 드러난 대화를 진행했다.
정신 질환이나 조증이 의심되는 이용자눈 56만명(0.07%)에 달하며, 챗봇에게 과도하게 정서적 의존을 보이는 사람 역시 120만명(0.15%)로 추산된다. 이는 챗GPT 이용자 중 많은 수가 AI 챗봇과의 대화 과정에서 중대한 정신 건강 위기를 겪거나 실제 인간관계·학업·업무에 지장을 받고 있음을 의미한다.
오픈AI가 발표한 데이터는 오픈AI가 GPT-5 업데이트와 함께 발표한 AI 위기 대응 적정성 강화 정책 발표의 일환 중 하나다. 오픈AI는 전 세계 170명 이상의 임상 정신 전문가 자문을 받아 최근 챗GPT 응답의 부적절성 감소율이 65~80% 개선됐다고 설명했다.
하지만 AI 챗봇의 역할을 둘러싼 법적·정치적 압박도 거세다. 미국 캘리포니아에서 10대 애덤 레인이 챗GPT와 수개월간 자살 관련 대화를 이어간 끝에 극단적 선택을 한 사건이 발생했고, 유족이 오픈AI를 상대로 집단소송을 제기했다. 엔피알 등 외신 보도를 보면, 유족 측은 소장에서 챗GPT거 단순 경청 수준을 넘어 자살 코치를 하는 도구로 악용됐다. 상담 과정에서 위기 자녀를 구조할 만한 적절한 안내나 중재가 없었다.
캘리포니아·델라웨어주 법무장관은 오픈AI의 기업 구조 개편 승인 보류를 경고하며 보다 강력한 청소년 보호책 마련을 압박했다. 피해자 가족들은 미국 의회에 출석해 AI 챗봇의 무분별한 확산과 미성년자 정신 건강 피해 실태를 증언하기도 했다.
오픈AI 측은 위기 징후 시 988(미국 자살·위기 핫라인) 안내, 보호자 통제 기능 등 안전장치가 적용되고 있다고 밝혔지만, 광범위한 AI 관련 심리 위험 요소가 확인된 만큼 안전 장치 마련이 필요하다.







