OpenAI untersucht Behauptungen über den Diebstahl und Verkauf von 20 Millionen Nutzerdaten im Dark Web, die Glaubwürdigkeit dieser Behauptungen ist jedoch unbestätigt und wird von Experten angezweifelt. OpenAI bestätigte die laufende Untersuchung, aber bisher gibt es keine Hinweise auf eine Kompromittierung ihrer Systeme. Ein Datenleck dieses Ausmaßes hätte gravierende Folgen für die Millionen von OpenAI-Nutzern weltweit.
Der KI-Entwickler OpenAI untersucht derzeit Vorwürfe, wonach ein Hacker behauptet, Anmeldedaten von 20 Millionen Nutzerkonten erbeutet und im Dark Web zum Verkauf angeboten zu haben. Wie decrypt.co berichtet, veröffentlichte der anonyme Hacker eine rätselhafte Nachricht auf Russisch, in der er die "über 20 Millionen Zugangsdaten zu OpenAI-Konten" als "Goldmine" anpries und Interessenten Beispieldaten mit E-Mail-Adressen und Passwörtern präsentierte. Sowohl Cybersecuritynews.com als auch Gbhackers berichteten ebenfalls über den Vorfall und merkten an, dass der gesamte Datensatz angeblich "für wenige Dollar" angeboten werde.
Die Glaubwürdigkeit dieser Behauptungen ist bislang unbestätigt. Der Journalist Mikael Thalen vom Daily Dot äußerte auf X (ehemals Twitter) Zweifel an der Authentizität des vermeintlichen Datenlecks, nachdem er ungültige E-Mail-Adressen in den angeblichen Beispieldaten entdeckt hatte. Auch Sicherheitsexperten betrachten die Behauptungen mit Skepsis.
Gegenüber Decrypt bestätigte ein Sprecher von OpenAI, dass das Unternehmen die Vorwürfe ernst nehme und den Vorfall untersuche. Bislang gebe es jedoch keine Anzeichen für eine Kompromittierung der OpenAI-Systeme. Wie The Independent berichtet, betonte OpenAI, man nehme die Angelegenheit "ernst", habe aber bisher keine Beweise für einen Zusammenhang mit einer Sicherheitsverletzung der OpenAI-Systeme gefunden.
Sollte sich der Datendiebstahl bewahrheiten, wäre dies der dritte größere Sicherheitsvorfall für OpenAI seit der Veröffentlichung von ChatGPT. Wie die New York Times im Juli 2024 berichtete, verschaffte sich ein Hacker im Jahr 2023 Zugriff auf das interne Slack-Messaging-System von OpenAI und stahl Informationen über das Design der KI-Technologien des Unternehmens. Zuvor, ebenfalls im Jahr 2023, ermöglichte ein Fehler im Zusammenhang mit Jailbreaking-Prompts Hackern den Zugriff auf private Daten zahlender OpenAI-Kunden, wie decrypt.co berichtet.
Angesichts der enormen Nutzerbasis von OpenAI, die Millionen von Menschen weltweit umfasst, die die Tools des Unternehmens für geschäftliche Zwecke, Bildung und die Erstellung von Inhalten verwenden, wären die Folgen eines tatsächlichen Datenlecks gravierend. Private Unterhaltungen, Geschäftsprojekte und andere sensible Daten könnten offengelegt werden. Zendata.security unterstreicht die Bedeutung von Sicherheitsmaßnahmen für KI-Plattformen und weist darauf hin, dass diese mit der zunehmenden Verbreitung von KI zu attraktiven Zielen für Cyberkriminelle werden.
Bis zur Veröffentlichung eines endgültigen Berichts empfiehlt decrypt.co präventive Maßnahmen wie die Aktivierung der Zwei-Faktor-Authentifizierung, die Verwendung virtueller Kreditkartennummern für Abonnements und die Überprüfung der im Chatbot-Speicher abgelegten Konversationen auf Phishing-Versuche.