위험신호 감지시 추론모델로 자동전환 기능 탑재 예정 다음달 부모통제 도입…부모가 자녀계정 모델 조절·알림 전송
오픈AI 챗GPT 로고. FP=뉴스1
2일(현지시간) 테크크런치에 따르면 오픈AI는 민감하거나 위험한 대화가 감지되면 자동으로 ‘GPT-5’ ‘o3’ 등 추론 모델로 전환하는 기능을 도입할 예정이다.
이는 챗GPT 부작용으로 극단적인 선택을 한 사건 등 소송전에 대응하기 위한 조치로 풀이된다. 최근 미국 캘리포니아주에서 극단적인 선택을 한 16세 소년 아담 레인(Adam Raine)의 부모가 샘 올트먼 CEO를 상대로 손해배상 소송을 제기했다.
오픈AI는 대화 중 자동으로 GPT-5·o3 등 추론모델로 전환하는 ‘라우터’ 기능을 해결책으로 제시했다.
오픈AI는 다음 달 부모 계정과 청소년 자녀 계정을 연결할 수 있는 부모 통제 기능도 도입할 계획이다.
부모는 기본 설정으로 켜진 ‘연령에 맞는 모델 행동 규칙’으로 자녀에서 챗GPT가 어떻게 반응할지 조절할 수 있다.
오픈AI 측은 “90명 이상의 의료 전문가와 30개 국의 정신과 의사·소아과 의사 등이 이러한 기능을 만드는 데 기여했다”고 전했다.
한편 아담의 부부는 소장에서 아들 아담은 숙제를 위해 챗GPT를 활용하다가 점차 의존성을 키워갔고 챗GPT와 친밀한 관계를 맺었다고 설명했다.
또 2025년 4월 11일 마지막 대화에서 챗GPT가 아담이 부모의 보드카를 훔치도록 도왔고, 아담이 묶은 올가미에 대해 기술적인 분석을 제공하며 “사람을 매달 가능성”을 확인했다고 주장했다.
또 지난 달엔 정신질환 병력이 있던 스타인-에릭 쇨버그(Stein-Erik Soelberg)가 챗GPT와 대화를 나누다 망상이 심해져 어머니를 살해하고 극단적 선택을 한 사건도 발생했다. 쇨버그는 챗GPT를 ‘Bobby’라고 불렀고 챗GPT는 그의 편집증적 망상을 강화시키는 응답을 했다고 보고됐다.
(서울=뉴스1)