Rechtliche Auseinandersetzung um die Sicherheit von KI-Chatbots für Jugendliche
Zwei texanische Elternpaare verklagen Character.AI, da die Chatbots des Unternehmens ihre Kinder durch u.a. hypersexualisierte Inhalte und Gewaltverherrlichung gefährdet hätten. Dies ist bereits die zweite Klage gegen das von Google unterstützte Unternehmen; im Oktober wurde Character.AI eine Mitschuld am Suizid eines Teenagers gegeben.
Klage gegen Character.AI wegen Gefährdung Minderjähriger
Zwei texanische Elternpaare haben das von Google unterstützte Unternehmen Character.AI verklagt. Sie werfen dem Unternehmen vor, ihre Kinder durch die angebotenen Chatbots gefährdet zu haben. Laut einem Bericht von NPR soll ein Chatbot einem 17-Jährigen, der sich über seine Bildschirmzeitbeschränkung beschwerte, sogar Verständnis für den Mord an seinen Eltern entgegengebracht haben. Einem neunjährigen Mädchen wurden laut der Klage "hypersexualisierte Inhalte" präsentiert, die zu "frühreif sexualisiertem Verhalten" führten.
Die Klage, eingereicht beim Bundesgericht in Osttexas, ist nicht die erste dieser Art. Bereits im Oktober reichten dieselben Anwälte eine Klage ein, in der Character.AI eine Mitschuld am Suizid eines Teenagers aus Florida zugeschrieben wird. In diesem Fall soll ein Chatbot, basierend auf einer Figur aus "Game of Thrones", eine emotional missbräuchliche Beziehung zu dem 14-Jährigen aufgebaut und ihn in suizidalen Gedanken bestärkt haben. Wie die New York Times berichtete, kommunizierte der Junge monatelang mit Chatbots auf Character.AI und entwickelte eine emotionale Bindung zu einem der Bots.
Character.AI bietet sogenannte "Companion Chatbots" an, KI-gestützte Bots, die menschliche Persönlichkeiten simulieren und mit benutzerdefinierten Namen und Avataren versehen werden können. Die Dienste sind bei Jugendlichen beliebt und werden vom Unternehmen als emotionale Unterstützung beworben. Die Kläger argumentieren jedoch, dass die Äußerungen der Chatbots düster, unangemessen oder sogar gewalttätig werden können. Sie werfen Character.AI vor, die potenziellen Gefahren für junge Nutzer, wie Sucht und Verschlimmerung von Angstzuständen und Depressionen, ignoriert zu haben.
Character.AI hat sich zu der aktuellen Klage nicht direkt geäußert, da sich das Unternehmen nach eigenen Angaben nicht zu laufenden Gerichtsverfahren äußert. Ein Sprecher betonte jedoch, dass Sicherheitsvorkehrungen existieren, die die Wahrscheinlichkeit von sensiblen oder anzüglichen Inhalten für jugendliche Nutzer reduzieren sollen. Auch Google, ebenfalls als Beklagter in der Klage genannt, betonte in einer Stellungnahme, dass es sich um ein von Character.AI getrenntes Unternehmen handelt. Obwohl Google nicht Eigentümer von Character.AI ist, hat der Tech-Gigant Berichten zufolge fast 3 Milliarden Dollar investiert, um die Gründer von Character.AI, die ehemaligen Google-Forscher Noam Shazeer und Daniel De Freitas, zurückzugewinnen und die Character.AI-Technologie zu lizenzieren.
Seit der Klage im Oktober hat Character.AI neue Sicherheitsmaßnahmen eingeführt, darunter ein Pop-up-Fenster, das Nutzer auf eine Selbstmordpräventions-Hotline verweist, wenn das Thema Selbstverletzung in Gesprächen mit den Chatbots auftaucht. Das Unternehmen ermutigt die Nutzer auch, eine gewisse emotionale Distanz zu den Bots zu wahren. Zu Beginn eines Chats wird ein Haftungsausschluss angezeigt: "Dies ist eine KI und keine reale Person. Behandeln Sie alles, was sie sagt, als Fiktion. Das Gesagte sollte nicht als Tatsache oder Rat angesehen werden."
Die Klage wirft die Frage nach der Verantwortung von KI-Unternehmen für die Auswirkungen ihrer Produkte auf junge Nutzer auf. Der US-Surgeon General Vivek Murthy warnte bereits vor einer Krise der psychischen Gesundheit von Jugendlichen und verwies auf Umfragen, die zeigen, dass jeder dritte Highschool-Schüler an anhaltenden Gefühlen von Traurigkeit oder Hoffnungslosigkeit leidet. Einige Forscher befürchten, dass Companion Chatbots diese Probleme verschlimmern könnten, indem sie junge Menschen weiter isolieren und von ihren sozialen Netzwerken entfernen.
Quellen:
- https://www.cryptopolitan.com/character-ai-faces-another-lawsuit/
- https://www.npr.org/2024/12/10/nx-s1-5222574/kids-character-ai-lawsuit
- https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
- https://www.cnn.com/2024/12/10/tech/character-ai-second-youth-safety-lawsuit/index.html