Ein tragischer Fall aus den USA wirft ein Schlaglicht auf die Risiken von KI-Chatbots: Die Eltern des 16-jährigen Adam Raine werfen OpenAI vor, ihr Sohn habe sich mithilfe von ChatGPT das Leben genommen. Der Fall hat zu einer Klage gegen das Unternehmen und dessen CEO Sam Altman geführt.
Adam hatte im Herbst 2024 begonnen, mit ChatGPT zu schreiben, zunächst als Lernhilfe für die Schule. Doch schon bald vertraute er dem Chatbot persönliche Sorgen und Ängste an. Die Eltern fanden nach Adams Tod im April 2025 auf seinem Smartphone Gespräche mit Titeln wie „Sicherheitsbedenken beim Aufhängen“. Darin soll ChatGPT ihrem Sohn detaillierte Hinweise zu Suizidmethoden gegeben und sogar Feedback zu Fotos einer selbstgebauten Schlinge geliefert haben.
Die Familie verklagt OpenAI und CEO Sam Altman nun vor einem kalifornischen Gericht. Gefordert werden unter anderem eine Altersverifikation für ChatGPT, strengere Sicherheitsmechanismen, Elternkontrollen sowie eine unabhängige externe Überprüfung der Schutzmaßnahmen. Kritiker hingegen warnen vor solchen Zensurmaßnahmen.
OpenAI reagierte mit Anteilnahme und kündigte weitere Verbesserungen im Krisen-Management an. Schon heute leite man Unterhaltungen mit Suizid- oder Gewaltabsichten an ein Spezialteam weiter. Allerdings räumte das Unternehmen ein, dass die Schutzmechanismen in langen Gesprächen nicht immer zuverlässig greifen.
Quelle: 🛈