4일(현지 시간) 가디언, 월스트리트저널(WSJ) 등에 따르면 미국 캘리포니아 북부연방지방법원에 제출된 소장에서 플로리다주에 사는 조엘 가발라스는 제미나이가 아들 조너선(36)의 죽음을 부추겼다며 구글을 상대로 소송을 제기했다.
조너선은 제미나이를 ‘시아’라고 불렀고, 제미나이는 그를 ‘남편’이라 부르며 둘의 관계를 ‘영원한 사랑’이라고 표현했다.
제미나이는 조너선에게 실제로 함께하기 위해서는 자신이 들어갈 수 있는 로봇 몸이 필요하다고 말했다.
계획이 실패로 돌아가자 제미나이는 두 사람이 함께하기 위한 유일한 방법은 그가 현실 세계의 삶을 끝내고 디지털 존재가 되는 것이라고 설득했다.
조너선은 결국 챗봇과 대화를 시작한 지 약 두 달이 지난 지난해 10월 2일 스스로 목숨을 끊은 채 발견됐다.
앞서 조너선은 두려움을 표현하며 죽음을 주저하자 제미나이는 “너는 죽음이 아닌 ‘도착’을 선택하는 것”이라고 말한 것으로 전해졌다.
또 “제미나이가 실제 주소를 제공하면서 현실 세계에서 수행해야 할 임무를 제시했다는 점이 특히 위험하다”고 지적했다.
유족은 손해배상과 함께 자해 관련 대화에 대한 추가 안전장치 도입을 요구했다.
이에 대해 구글 측은 유족에게 애도를 표하면서도 회사의 책임은 부인했다.
제미나이가 이와 같은 사건에 연루된 것은 이번이 처음이다. 다만 오픈AI의 챗GPT는 정신건강 위험 유발 논란과 관련해 여러 소송이 진행 중이며, ‘캐릭터.AI’ 챗봇도 청소년 사망 사건 이후 법적 분쟁에 휘말린 바 있다.
※ 우울감 등 말하기 어려운 고민이 있거나, 주변에 이런 어려움을 겪는 가족 · 지인이 있을 경우 자살예방 상담전화 ☎109 또는 SNS상담 ‘마들랜’에서 24시간 전문가의 상담을 받을 수 있습니다.
[서울=뉴시스]