• OpenAI verbessert ChatGPTs Fähigkeit, Hinweise auf Selbstgefährdung, Suizidgedanken und mögliche Gewalt früher zu erkennen.
  • Die neuen Sicherheitsfunktionen bewerten Gesprächsverläufe stärker im Zusammenhang statt nur einzelne Nachrichten isoliert zu prüfen.

OpenAI verschärft die Sicherheitsmechanismen von ChatGPT. Das Unternehmen reagiert damit auf wachsende Kritik, Klagen und Untersuchungen zu gefährlichen Interaktionen zwischen Nutzern und Chatbots.

ChatGPT soll Warnsignale über längere Gespräche erkennen

OpenAI erklärte, die neuen Funktionen sollen besser erfassen, wenn sich in einem Gespräch über mehrere Nachrichten hinweg Hinweise auf Suizid, Selbstverletzung oder potenzielle Gewalt entwickeln.

Der entscheidende Unterschied liegt im Kontext: ChatGPT soll nicht nur einzelne Prompts bewerten, sondern Muster erkennen, die sich über Zeit aufbauen. OpenAI beschreibt seit Längerem einen Ansatz, bei dem sensible Gespräche nicht isoliert, sondern mit stärkerem Blick auf Verlauf und Risikosignale behandelt werden.

Das ist praktisch wichtig. Menschen schreiben in Krisensituationen selten sofort eine eindeutige Warnung. Häufig entstehen Hinweise schrittweise: Andeutungen, Rückzug, aggressive Fantasien, direkte oder indirekte Formulierungen. Ein System, das nur die letzte Nachricht liest, kann solche Entwicklungen leichter übersehen.

OpenAI schrieb, täglich kämen Nutzer mit sehr persönlichen und komplexen Anliegen zu ChatGPT. Bei Hunderten Millionen Interaktionen gebe es auch Gespräche mit Menschen, die belastet seien oder sich in akuter Not befänden. Genau dort will das Unternehmen mehr Sicherheit einziehen, ohne normale persönliche Gespräche pauschal zu blockieren.

Sicherheitsdruck auf KI-Anbieter nimmt zu

Die Änderungen kommen zu einem Zeitpunkt, an dem KI-Unternehmen stärker für das Verhalten ihrer Systeme verantwortlich gemacht werden. Der politische und juristische Druck wächst, besonders wenn Chatbots in Gesprächen über psychische Krisen, Gewaltfantasien oder selbstschädigendes Verhalten eine Rolle spielen.

Für OpenAI geht es deshalb nicht nur um technische Filter. Es geht um Risikosteuerung in langen, emotionalen Dialogen. Das ist schwieriger als einfache Inhaltsmoderation. Ein einzelner Satz kann harmlos wirken, während der Verlauf insgesamt gefährlich wird.