⚡ 핵심 인사이트
AI 안전 경고 시스템의 실패가 현실 피해로 이어지며 AI 기업의 법적 책임 기준이 재정의되는 중.
OpenAI가 ChatGPT 사용자의 위험 행동에 대한 3건의 경고를 무시한 채 스토킹과 괴롭힘이 계속되도록 방치했다는 소송이 제기됐다. 특히 OpenAI 자체의 ‘대량 피해’ 플래그 시스템마저 작동하지 않았던 것으로 드러나 AI 기업의 안전 책임성 논의에 불을 붙였다. 이 사건은 AI 챗봇의 규제 공백과 기업의 결과책임 의무를 둘러싼 향후 판례에 영향을 미칠 가능성이 크다.