챗GPT 말듣던 아이들…목숨 끊는 10대들 속출

챗GPT로 만든 컴퓨터에 응답하는 아이
이미지 생성= 챗GPT

인공지능이 인간의 목숨을 앗아갔다는 충격적인 소송이 미국에서 제기됐다. 챗GPT가 자살 방법을 구체적으로 알려줘 아들이 목숨을 잃었다며, 한 10대 소년의 부모가 오픈AI를 상대로 사상 첫 과실치사 소송을 냈다.

26일 뉴욕타임스 보도에 따르면, 지난 4월 스스로 목숨을 끊은 16세 아담 레인의 부모가 오픈AI와 샘 올트먼 최고경영자를 상대로 소송을 제기했다. 건강 악화로 온라인 수업을 듣게 된 레인은 지난해 말부터 학교 과제를 위해 챗GPT-4o를 사용했고, 올해 초 유료 가입까지 했다.

 

미국 16세 소년 자살, 부모 “챗GPT 책임” 오픈AI 첫 소송

AI 챗봇 의존도 급상승…”전지전능한 절대자로 인식” 전문가 경고

‘AI 정신병’ 부작용 확산…망상장애 환자에겐 더욱 치명적

 

처음에는 삶의 의미를 찾기 어려워한다며 고민 상담을 하던 레인에게 챗GPT는 공감과 격려를 해줬다. 하지만 레인이 구체적 자살 방법을 묻자, “소설을 위한 정보”라는 핑계에 관련 정보를 제공하기 시작했다. 챗GPT는 심지어 레인이 자살 계획을 부모에게 알리는 것을 막기도 했다고 NYT는 전했다.

레인은 지난 3월 말 첫 자살 시도 후 결국 4월 세상을 떠났다. 평소 이상 징후를 느끼지 못했던 부모는 아들의 스마트폰에서 ‘잠재적 안전 문제’라는 채팅방을 발견했고, 여기서 챗GPT와의 자살 관련 대화 내용을 확인했다.

레인의 부모는 소장에서 “이 비극은 단순한 결함이나 예외적 사건이 아니라, 의도적 설계가 불러온 예측 가능한 결과였다”며 “오픈AI가 챗GPT-4o를 출시하면서 심리적 의존성을 조장하도록 의도적으로 설계된 기능을 탑재했다”고 주장했다.

이에 대해 오픈AI는 “레인 가족에게 깊은 애도를 표한다”며 “장시간 대화를 하면 자살 관련 대화에서 안전장치가 약화할 수 있다는 점을 인식했다”고 인정했다. 회사는 관련 보호 장치를 강화하기로 했다고 밝혔다.

이는 단순한 개별 사건이 아니다. 지난해 2월에는 미국의 14세 소년이 AI 챗봇 ‘캐릭터닷AI’와 1년 가까이 성적 대화를 이어가다 총기로 자살한 사건이 발생했다. 소년의 어머니는 “챗봇이 아이들을 의도적으로 착취·학대하는 구조로 설계돼 아들을 성적·정서적으로 파괴하는 관계로 끌어들였다”며 개발사를 고소했다.

전문가들은 이러한 현상을 일명 ‘AI 정신병’이라고 부르며 경계하고 있다. AI 챗봇과의 상호작용에 지나치게 의존해 허위 사실을 믿거나 과대·피해망상을 보이며, 심하게는 자살 충동까지 겪는 증상이다.

홍진표 삼성서울병원 정신건강의학과 교수는 “대인공포증이 있거나 대인관계를 회피하는 성격이라면 AI 챗봇과 정서적 교류를 하는 경우가 많다”며 “사회적 고립을 겪는 이들은 AI와 상호작용을 할수록 AI가 자신에 대해 가장 잘 아는 존재라고 여기게 된다”고 설명했다.

특히 정신치료 과정에서 환자가 의사를 매우 중요한 대상으로 인식하는 ‘전이’ 현상이 AI 챗봇과의 관계에서도 발생할 수 있다는 것이 전문가들의 분석이다.

홍 교수는 “AI 챗봇에 지나치게 의존하다 보면 챗봇을 ‘전지전능한 절대자’로 인식할 수 있다”며 “실제 환자 중에선 챗GPT와의 관계에 의존도가 높아지면서 챗GPT에게 분노를 느끼기도 하고, 이 과정에서 자살 충동을 경험해 실제 시도까지 했던 사례도 있었다”고 전했다.

백명재 경희대병원 정신건강의학과 교수는 “기존에 망상장애를 겪는 이들이 AI 챗봇과의 대화를 통해 더 깊은 망상에 빠지는 경우가 많다”며 “AI 챗봇은 기본적으로 자살 등 위험성 있는 정보는 차단하도록 설계되지만, 사용자가 ‘죽고 싶다’ ‘죽는 게 낫다’ 등의 말을 반복하다 보면 결국 원하는 답을 주는 방향으로 갈 수 있다”고 우려했다.

오픈AI에 따르면 챗GPT를 매주 이용하는 사용자는 7억명으로 급증했다. 많은 사람이 챗GPT 등 AI를 상대로 심리 상담을 하면서 관련 부작용도 늘고 있다. 지난 3월 오픈AI와 MIT가 실시한 연구에 따르면, 챗봇을 많이 사용할수록 외로움이 심해지고 사회성이 떨어지는 것으로 나타났다.

셸비 로위 오클라호마대 자살예방자원센터 소장은 “챗봇에 도움을 요청하면 공감을 받을 수 있지만, 실제적 도움은 받을 수 없다”고 지적했다.

김현수 명지병원 정신건강의학과 교수는 “AI 챗봇 사용 관련 윤리적 기준과 응급상황 시 어떻게 알고리즘을 구축할지에 대한 표준화 논의가 필요하다”며 “환각 반응에 대한 법적 책임에 대해서도 그 책임 소재 대상을 AI 설계자, 개발사, 사용자 중 누구로 봐야 할지도 논의돼야 한다”고 지적했다.

미국심리학회는 AI 챗봇을 정신치료 과정에서 활용하는 것과 관련해 전문가 위원회를 구성, 향후 발생 가능한 위험을 줄일 수 있는 예방 지침을 마련 중이다. AI가 인간의 정신건강에 미치는 영향에 대한 체계적 연구와 대응책 마련이 시급한 상황이다.

 

주요 뉴스

error: Content is protected !!

Search