Das Unternehmen OpenAI hat eine radikale Verschärfung seiner Sicherheitsverfahren und der Grundsätze für die Zusammenarbeit mit Strafverfolgungsbehörden angekündigt. Die Entscheidung fiel, nachdem bekannt wurde, dass der Täter der tragischen Schießerei in Tumbler Ridge in Kanada eine frühere Sperre umgehen konnte, indem er einen zweiten Account beim Dienst ChatGPT anlegte. Die neuen Protokolle sollen die sofortige Meldung glaubwürdiger Bedrohungen an die Polizei ermöglichen, was nach Angaben von Unternehmensvertretern die Tragödie hätte verhindern können, wenn die Erkennungssysteme vor dem Angriff effektiver gearbeitet hätten.

Umgehung der Kontosperre

Der Täter der Schießerei in Kanada legte einen zweiten ChatGPT-Account an, nachdem der erste wegen aggressiver Inhalte gesperrt worden war.

Zusammenarbeit mit der Polizei

OpenAI kündigt an, glaubwürdige Gewaltdrohungen, die von Algorithmen erkannt werden, automatisch an die Behörden zu melden.

Sicherheitsreform

Das Unternehmen führt neue Mechanismen ein, die darauf abzielen, die Planung von Straftaten mit Hilfe von KI zu verhindern.

Der amerikanische Technologiegigant OpenAI steht im Zentrum der Debatte über die Verantwortung der Schöpfer künstlicher Intelligenz nach den tragischen Ereignissen in Tumbler Ridge. Das Unternehmen räumte offiziell ein, dass die Täterin der Schießerei an einer kanadischen Schule einen zweiten, versteckten Account im Dienst ChatGPT besaß, mit dem sie wahrscheinlich ihre Handlungen plante. Obwohl das Hauptkonto der Frau zuvor wegen Verstoßes gegen die Richtlinien zur Generierung gewalttätiger Inhalte gesperrt worden war, konnten die Systeme von OpenAI die neue Aktivität nicht mit der bereits einmal von der Plattform ausgeschlossenen Person in Verbindung bringen. Die Nutzung von künstlicher Intelligenz zur Planung von Morden wirft Fragen nach den Grenzen von Privatsphäre und Nutzerüberwachung auf. Als Reaktion auf diese Mängel kündigte die Führung von OpenAI die Einführung neuer, strenger Sicherheitsprotokolle an. Die zentrale Änderung ist die Verpflichtung, Strafverfolgungsbehörden proaktiv über jeden Fall einer erkannten „glaubwürdigen Bedrohung für Leben oder Gesundheit” zu informieren. Bislag reagierte das Unternehmen hauptsächlich auf gerichtliche Anordnungen und nahm seltener eigeninitiativ Kontakt zur Polizei auf. Seit dem Debüt öffentlicher Versionen großer Sprachmodelle im Jahr 2022 sind die Ethik ihrer Anwendung und das Risiko ihrer Nutzung durch Kriminelle Gegenstand intensiver regulatorischer Arbeiten in den USA und der Europäischen Union. Die Änderungen umfassen auch eine bessere Identifizierung von Nutzern, die versuchen, Sanktionen gegen ihre Konten zu umgehen. Eine interne Analyse von OpenAI ergab, dass die Aktivität der Täterin unter den neuen Regeln innerhalb weniger Minuten nach der Eingabe von Anfragen als kritisch markiert worden wäre. Experten betonen jedoch, dass die verstärkte Überwachung von Nutzern bei Bürgerrechtlern auf Widerstand stoßen könnte. Das Unternehmen erklärt, dass die Balance zwischen Privatsphäre und Sicherheit gewahrt bleibe, doch die Priorität liege darauf, die Nutzung von Sprachmodellen für kriminelle Zwecke zu verhindern. „OpenAI would have alerted police to Canadian shooter if account was discovered today.” (OpenAI hätte die Polizei über den kanadischen Schützen informiert, wenn das Konto heute entdeckt worden wäre.) — Sprecher von OpenAI Diese Initiative wird als Signal für die gesamte Technologiebranche gesehen, nicht auf gesetzliche Vorgaben von oben zu warten, sondern selbst Sicherheitsfilter zu schaffen.

Perspektywy mediów: Betonung der Notwendigkeit strenger Kontrolle von Technologiekonzernen und des Schutzes von Leben auf Kosten der vollständigen Anonymität im Netz. Äußerung von Bedenken über präventive Zensur und die Schaffung gefährlicher Präzedenzfälle für enge Zusammenarbeit von Big Tech mit der Polizei ohne gerichtliche Aufsicht.