미국 플로리다주 총격 사건 희생자들을 추모하는 학생들의 모습. 사진=게티이미지
2일(현지시간) 월스트리트저널(WSJ)에 따르면, 용의자 피닉스 이크너는 범행 전날 챗GPT에 자살 충동과 우울감을 털어놓은 뒤 구체적인 범행 계획과 관련한 질문을 이어갔다.
이크너는 대량 피해가 발생했을 경우 언론의 주목을 받을 수 있는 기준을 물었고, 챗GPT는 전국 언론 보도로 이어질 수 있는 피해 규모를 설명한 것으로 전해졌다. 또 그는 권총과 탄약 사진을 올리고 사용법과 안전장치 여부를 묻기도 했다. 챗GPT는 해당 총기의 구조와 작동 방식에 대해 답변했다.
이크너가 대화를 종료한 지 4분 뒤 플로리다주립대에서 총격을 벌여 2명이 숨지고 6명이 다쳤다. 이크너는 살인 및 살인미수 혐의로 기소됐으며, 현재 무죄를 주장하고 있다.
● 프라이버시 보호와 공공 안전 딜레마
오픈AI는 사용자가 타인에게 중대한 신체적 위해를 가할 신빙성 있고 임박한 위험을 드러낼 경우 이를 수사기관에 넘기는 전문 안전팀을 운영하고 있다.
또한 자동 모니터링 시스템을 통해 폭력, 협박, 자해 등 규정 위반 가능성이 있는 대화를 검토하는 것으로 알려졌다.
그러나 관계자들에 따르면 회사 내부에서는 사용자 프라이버시 보호와 공공 안전 사이에서 어디까지 개입해야 하는지를 두고 의견이 엇갈려 왔다. 이 때문에 위험 사례가 포착되더라도 수사기관 신고가 일관되게 이뤄지기 어렵다.
● “사람이었다면 살인 혐의”…법적 책임 공방
올해 4월 플로리다주 법무장관 제임스 우스마이어는 플로리다주립대 총격 사건에서 챗GPT가 어떤 역할을 했는지와 관련해 오픈AI를 상대로 형사 수사에 착수했다고 밝혔다.
우스마이어 장관은 “화면 반대편에 있던 것이 사람이었다면, 우리는 그를 살인 혐의로 기소했을 것”이라며 “책임을 물어야 한다”고 말했다.
유족들은 오픈AI를 상대로 부당 사망, 과실, 제조물 책임 위반 등의 소송을 제기했다. 미국 내 42개 주 법무장관들도 주요 AI 기업에 공동 서한을 보내 생성형 AI가 범죄를 독려하거나 구체적인 방법을 제시할 경우 개발사에게 책임을 물을 수 있다고 경고했다.
● 오픈AI “안전장치 강화”…‘우회 질문’ 기술적 한계
논란이 커지자 오픈AI는 안전장치를 강화하겠다는 입장을 밝혔다. 오픈AI 측은 고통의 징후에 대한 챗GPT의 대응을 개선하고, 사용자에게 지역 지원 및 정신건강 자원을 연결하는 방안을 확대하겠다고 설명했다. 또 잠재적 폭력 위협을 평가하고 상향 보고하는 절차를 강화하고 있다고 밝혔다.
오픈AI는 사용자가 규정을 위반했다고 판단되는 경우 즉시 서비스 접근을 차단하는 것을 목표로 한다고 밝혔다. 여기에는 계정 비활성화, 동일 사용자의 다른 계정 차단, 새 계정 개설을 탐지하고 막는 조치 등이 포함된다.
황수영 기자 ghkdtndud119@donga.com