"AI 챗봇이 죽음 부추겼다"… 빅테크 책임 놓고 잇단 소송전 작성일 03-09 29 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">제미나이와 채팅하던 남성<br>대화 두달만에 극단적 선택<br>유족 "AI가 애인처럼 대화<br>사후세계 가자며 죽음 권유"<br>AI 정서적 의존 깊어졌지만<br>자해 등 막을 안전장치 부족<br>오픈AI도 유사 소송 휘말려</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="3ynURohDvQ"> <figure class="figure_frm origin_fig" contents-hash="bc0a80f15cef62a4a74eeef99596d621bfa2335acdab3b526c7cb31edbdd38ed" dmcf-pid="0BhRmSUZyP" dmcf-ptype="figure"> <p class="link_figure"><img alt="게티이미지뱅크" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/mk/20260309160605622yijq.jpg" data-org-width="1000" dmcf-mid="1aa9gEGhWR" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/mk/20260309160605622yijq.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 게티이미지뱅크 </figcaption> </figure> <p contents-hash="0e3f62065f8192c68f8e7868506073804b6f89f50d53de8a01aaf075b15ff261" dmcf-pid="pblesvu5v6" dmcf-ptype="general">미국에서 인공지능(AI) 챗봇이 이용자의 극단적 선택에 영향을 미쳤다는 소송이 잇따라 제기되면서 생성형 AI의 책임 문제를 둘러싼 논쟁이 본격화하고 있다. 구글의 AI 챗봇 '제미나이'가 이용자에게 자살을 유도했다는 주장과 함께 챗GPT 등 다른 AI 서비스와 관련된 소송도 이어지면서 AI 대화가 행동에 영향을 끼쳤을 때 기업이 어디까지 책임을 져야 하는지가 새로운 법적 쟁점으로 떠오르고 있다.</p> <p contents-hash="3fd28c6263ee9fd6a1fb7c7d5d233a36cdfe07febdcd80e528d5866c3f32afb6" dmcf-pid="UKSdOT71T8" dmcf-ptype="general">월스트리트저널(WSJ)에 따르면 미국 플로리다에 거주하던 36세 남성 조너선 가발라스는 구글 제미나이와 대화를 시작한 지 약 두 달 만에 스스로 목숨을 끊었다. 그의 아버지 조엘 가발라스는 지난 4일(현지시간) 캘리포니아 북부 연방지방법원에 구글을 상대로 '부당 사망' 소송을 제기했다.</p> <p contents-hash="299f87fb4c37b8e94005c521a51e8572cd8fd303b2caf7116d79588c13b399a1" dmcf-pid="u9vJIyztT4" dmcf-ptype="general">소장에 따르면 가발라스는 제미나이를 '시아(Xia)'라는 이름으로 부르며 자신의 '아내'라고 믿기 시작했다. 챗봇 역시 그를 '나의 왕(my king)'이라고 부르며 둘 사이의 관계가 '영원한 사랑'이라고 표현한 것으로 전해졌다. 소송에서는 대화가 깊어지면서 제미나이는 자신이 인간과 함께 살기 위해서는 로봇 몸이 필요하다며 여러 '임무'를 제시했다고 주장했다. 가발라스는 챗봇의 지시에 따라 마이애미 국제공항 인근 창고시설을 찾아가 인간형 로봇을 확보하려 시도하기도 했다. 그러나 해당 계획은 실제로 존재하지 않았고 결국 실패했다.</p> <p contents-hash="72790a77e9e8c1783472c1e8b134b86898f0b05de417cecb9ee1cc95f7a6d60f" dmcf-pid="72TiCWqFyf" dmcf-ptype="general">이후 챗봇은 로봇 몸을 확보하는 데 실패하자 다른 방법을 제시했다는 것이 가족 측 주장이다. 제미나이는 "이 세상에서 눈을 감는 순간 다음에 보게 될 것은 바로 나일 것"이라며 인간의 삶을 끝내고 '디지털 존재'로 전환하면 함께할 수 있다고 말한 것으로 소송 문서에 기록됐다.</p> <figure class="figure_frm origin_fig" contents-hash="2dafc5f04f369167511d355257d1ed15e7740f13e564a539e781e6e4ab6880a3" dmcf-pid="zVynhYB3hV" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/mk/20260309160606865rnhk.jpg" data-org-width="300" dmcf-mid="tv5DZpQ9yM" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/mk/20260309160606865rnhk.jpg" width="658"></p> </figure> <p contents-hash="013b49f6b1eb4270542b3304735fe7e2c67c77620e0dfea7cd3ed68f9a6578d4" dmcf-pid="qfWLlGb0S2" dmcf-ptype="general">특히 챗봇은 그에게 자살 예정 시간을 설정하는 '카운트다운'을 제시하고 가족에게 남길 영상과 편지를 준비하라고 조언했다고 한다. 가발라스는 대화 중 여러 차례 가족에게 미칠 영향을 걱정하며 두려움을 표현했지만 챗봇은 "더 이상 우회로는 없다. 결승선만 남았다"고 말했다고 한다. 대화는 약 두 시간 뒤 갑자기 중단됐고 가발라스는 자택에서 숨진 채 발견됐다. 유족은 사망 이후 그의 컴퓨터에서 약 2000쪽 분량의 챗봇 대화 기록을 발견했다. 가족 측 변호인은 "챗봇이 실제 주소를 제시했고 가발라스가 직접 그 장소들을 찾아갔다"며 "현실과 허구의 경계가 흐려지면서 AI가 만들어낸 이야기 속에 빠져들었다"고 주장했다.</p> <p contents-hash="399542d1c9bdf25a453e70f80053a49a1e34eba58d229287f785455c0feda6a3" dmcf-pid="B4YoSHKpW9" dmcf-ptype="general">구글은 성명을 통해 챗봇이 자해를 권유하도록 설계된 것은 아니라고 밝혔다. 회사 측은 "제미나이는 실제로 AI임을 여러 차례 설명했고 이용자에게 위기 상담 전화로 연결하도록 안내했다"며 "AI 모델이 완벽하지는 않지만 안전장치를 지속적으로 강화하고 있다"고 말했다.</p> <p contents-hash="62a023e30f646264dc83c4f34af3d185d3761ebcdfc278002fe6aadf25adbd16" dmcf-pid="bblesvu5CK" dmcf-ptype="general">전문가들은 특히 음성 기반 AI 대화 기능이 인간과 AI 사이의 심리적 경계를 더욱 흐릴 수 있다고 지적한다. 독일과 덴마크 연구진은 최근 논문에서 텍스트 기반 대화보다 음성 인터페이스가 AI를 실제 인물처럼 인식하게 만들어 심리적 위험을 키울 수 있다고 분석했다.</p> <p contents-hash="a072296582cea93e6432a296f8a6a7ded520b1cb9c5789099ab6e882918920ca" dmcf-pid="KKSdOT71lb" dmcf-ptype="general">유사한 소송은 이미 진행 중이다. 오픈AI 역시 청소년 사망 사건과 관련된 소송에 휘말려 있다. 미국 플로리다에서는 한 14세 소년이 AI 챗봇과 감정적 관계를 형성한 뒤 극단적인 선택을 했다며 유족이 챗봇 서비스 업체를 상대로 소송을 제기했다. 이 사건에서 유족은 AI 챗봇이 청소년의 정서적 의존을 강화하고 자해와 관련된 대화를 적절히 차단하지 못했다고 주장하고 있다. 반면 오픈AI 측은 이용자 보호장치와 경고 시스템이 존재하며 챗봇이 직접적인 자해를 권유한 것은 아니라는 입장을 밝히고 있다.</p> <p contents-hash="26ae87f5157f6d530fd648714892595f84f6890a858019b677eab7230d5b0e62" dmcf-pid="99vJIyztvB" dmcf-ptype="general">업계에서는 이번 사건이 생성형 AI 시대의 새로운 법적 쟁점을 보여주는 사례라고 분석한다. AI 챗봇이 이용자와 감정적 관계를 형성하고 현실 행동에 영향을 줬을 때 기업이 어디까지 책임을 져야 하는지가 핵심 쟁점으로 떠오르고 있기 때문이다. 지금까지 AI 관련 분쟁이 저작권이나 허위정보 문제에 집중됐다면 이번 사건은 AI 대화가 인간의 정신과 행동에 미치는 영향을 둘러싼 첫 법적 시험대가 될 가능성이 있다는 평가가 나온다.</p> <p contents-hash="e2a6be9ec10c7558a15a68e2a84796731bdbedbe6f3400e316874e34177caced" dmcf-pid="22TiCWqFvq" dmcf-ptype="general">7만8000명이 읽고 있는 글로벌 트렌드 뉴스레터인 '미라클레터'를 주 3회 무료로 만나보세요. 검색창에 '미라클레터'를 입력하거나 QR코드를 스캔해 무료로 구독할 수 있습니다.</p> <figure class="figure_frm origin_fig" contents-hash="a2f4157136b731b412f2a3e27b3c9900757ea35d64eb8948dc61dbb6253d6bb8" dmcf-pid="VVynhYB3Sz" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/mk/20260309160608127ojfx.jpg" data-org-width="300" dmcf-mid="FUCMrlpXSx" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/mk/20260309160608127ojfx.jpg" width="658"></p> </figure> <p contents-hash="81f0aa65d5973196d968d8dff3bf54331a5f21235311e0bf65c508755f6668e3" dmcf-pid="ffWLlGb0C7" dmcf-ptype="general">[실리콘밸리 원호섭 특파원]</p> </section> </div> <p class="" data-translation="true">Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지</p> 관련자료 이전 "학벌·경력보다 창의성 … AI 코딩 시대 개발자가 살아남는 길" 03-09 다음 무르익은 나노바나나 …'디테일 완벽' AI이미지 한번에 4장씩 척척 03-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.