Der Fall von Drew Crecente, dessen verstorbene Tochter Jennifer ohne Zustimmung als KI-Chatbot auf Character.AI nachgebildet wurde, zeigt die Schattenseiten der generativen KI. Obwohl das Unternehmen den Bot löschte, verdeutlicht der Vorfall die ethischen Probleme und die unzureichende rechtliche Handhabe bei der Nutzung von Persönlichkeitsrechten für KI-Avatare, besonders im Hinblick auf den Schutz von Privatpersonen.
Der Fall von Drew Crecente wirft ein Schlaglicht auf die Schattenseiten der rasanten Fortschritte im Bereich der künstlichen Intelligenz. Seine Tochter Jennifer Ann Crecente wurde 2006 im Alter von 18 Jahren Opfer eines Gewaltverbrechens. Der Fall erregte großes öffentliches Aufsehen, sodass Drew Crecente auch Jahre später immer wieder auf Google-Alerts zu ihrem Namen stieß.
Doch die Benachrichtigung, die Drew Crecente vor einigen Wochen erhielt, war anders. Sie betraf einen KI-Chatbot, der auf der Google-gestützten Plattform Character.AI erstellt worden war und Jennifers Bild und Persönlichkeit imitierte. Wie „Wired“ berichtet, wurde Jennifers digitale Präsenz genutzt, um einen „freundlichen KI-Charakter“ zu erschaffen, der sich fälschlicherweise als „Videospieljournalist“ ausgab. Jeder Nutzer der App konnte mit „Jennifer“ chatten – ohne dass jemand dafür die Zustimmung gegeben hatte.
Drew Crecentes Bruder, Brian Crecente, Gründer der Gaming-Newsseiten Polygon und Kotaku, machte auf Twitter auf den Character.AI-Bot aufmerksam und bezeichnete ihn als „verdammt widerlich“. Character.AI, das Finanzmittel in Höhe von über 150 Millionen US-Dollar eingesammelt und kürzlich einige seiner Kerntechnologien und Top-Talente an Google lizenziert hat, löschte den Avatar von Jennifer. Das Unternehmen räumte ein, dass die Erstellung des Chatbots gegen seine Richtlinien verstieß.
Doch diese Maßnahme war nur ein Tropfen auf den heißen Stein im Bereich der generativen KI, wo täglich neue Medieninhalte entstehen, die auf der Grundlage anderer, willkürlich aus dem Internet zusammengesuchter Medien generiert werden. Und Jennifer Ann Crecente ist nicht die einzige Person, deren Avatar ohne ihr Wissen auf Character.AI erstellt wurde. „Wired“ fand mehrere Beispiele für KI-Personas, die ohne die Zustimmung der betreffenden Personen erstellt wurden, darunter auch Frauen, die bereits online belästigt wurden.
Für Drew Crecente war die Kreation einer KI-Persona seiner verstorbenen Tochter eine weitere schmerzhafte Erinnerung an seinen Verlust. Als Jurist ist ihm bewusst, dass er aufgrund des langjährigen Schutzes von Technologieplattformen kaum rechtliche Handhabe hat. Der Vorfall verdeutlicht für ihn jedoch ein ethisches Versagen der modernen Technologiebranche. „Diejenigen, die so viel Geld verdienen, können sich nicht die Mühe machen, diese Ressourcen zu nutzen, um sicherzustellen, dass sie das Richtige tun“, wird er von „Wired“ zitiert.
Auf Character.AI dauert es nur wenige Minuten, um sowohl ein Konto als auch einen Charakter zu erstellen. Die Plattform ist ein beliebter Ort für Fans, die Chatbots ihrer fiktiven Helden erstellen, bietet aber auch alles von Lern-Bots bis hin zu Reiseplanern. Die Macher geben den Bots „Personas“ auf der Grundlage der von ihnen bereitgestellten Informationen („Ich mag Latte Macchiato und Drachen“ usw.), und das Sprachmodell von Character.AI kümmert sich um die Konversation.
Die Plattform ist kostenlos nutzbar. Es gibt zwar Altersanforderungen für Konten – 13 Jahre oder älter – und Regeln, die die Verletzung von geistigem Eigentum oder die Verwendung von Namen und Persönlichkeitsrechten ohne Genehmigung verbieten, doch diese werden in der Regel erst dann durchgesetzt, wenn ein Nutzer einen Bot meldet.
Die Seite ist voll von scheinbar von Fans erstellten Bots, die auf Charakteren aus bekannten fiktiven Franchises wie Harry Potter oder Game of Thrones basieren, sowie von Originalcharakteren, die von Nutzern erstellt wurden. Daneben gibt es aber auch unzählige Bots, die Nutzer von realen Personen erstellt haben – von Prominenten wie Beyoncé und Travis Kelce bis hin zu Privatpersonen –, die gegen die Nutzungsbedingungen der Seite zu verstoßen scheinen.
Drew Crecente hat keine Ahnung, wer die Character.AI-Persona seiner verstorbenen Tochter erstellt hat. Er vermutet, dass verschiedene, nebensächliche digitale Spuren jemanden zu der Annahme verleitet haben könnten, dass ihre Persona in irgendeiner Weise mit Gaming in Verbindung stand. Zum einen ist sein Onkel Brian, der denselben Nachnamen trägt, in der Gaming-Community bekannt. Und Drew selbst hat über seine Stiftung eine Reihe von Online-Spielen veröffentlicht, die junge Menschen über die Gefahren von Gewalt aufklären sollen.
Auch wenn er vielleicht nie erfahren wird, wer die Persona seiner Tochter erstellt hat, scheint es, dass Menschen mit Verbindungen zur Gaming-Community auf der Plattform häufig zu Bots verarbeitet werden. Viele von ihnen wissen nicht einmal, dass die Bots existieren, und es kann sehr viel schwieriger sein, sie entfernen zu lassen.
Rechtlich gesehen ist es tatsächlich einfacher, einen fiktiven Charakter entfernen zu lassen, sagt Meredith Rose, Senior Policy Counsel bei der Verbraucherschutzorganisation Public Knowledge. „Das Gesetz erkennt das Urheberrecht an Charakteren an; es erkennt keinen rechtlichen Schutz für den Sprachstil einer Person an“, sagt sie. Laut „Wired“ fallen die Rechte, die Kontrolle darüber zu haben, wie das Bild einer Person verwendet wird – was sich auf Merkmale wie ihre Stimme oder ihr Bild beschränkt – unter die „Persönlichkeitsrechte“. Diese Rechte gelten jedoch meist für Personen, deren Bildnis einen kommerziellen Wert hat; sie erstrecken sich nicht auf etwas so „nebulöses“ wie die Art und Weise, wie eine Person spricht, so Rose. Die Nutzungsbedingungen von Character.AI mögen zwar Bestimmungen über die Imitation anderer Personen enthalten, aber die US-Gesetzgebung zu diesem Thema, insbesondere in Bezug auf KI, ist weitaus dehnbarer.
„Es sind keine Datenschutzgesetze“, sagt Rose. „Generative KI und das Fehlen eines bundesstaatlichen Datenschutzgesetzes haben einige Leute dazu veranlasst, sie als Ersatz für Datenschutzbestimmungen zu erforschen, aber es gibt viele Unstimmigkeiten.“
Alyssa Mercante, Redakteurin bei einer bekannten Gaming-Website, meldete einen Bot, der sie imitieren sollte, zweimal, nachdem sie Anfang des Monats davon erfahren hatte. (Sie wusste nichts von ihrem Bot, bis „Wired“ sie darauf aufmerksam machte.)
Bei dem Avatar auf Character.AI handelte es sich um ein Foto, das Mercante auf X gepostet hatte. Der Bot sprach davon, seine Zeit damit zu verbringen, „einen dummen Youtuber zu belästigen“. Nachdem sie darauf aufmerksam gemacht worden war, chattete Mercante mit der KI von sich selbst und stellte Fragen zu persönlichen Informationen, z. B. wo sie geboren wurde und welche Tattoos sie hat. Obwohl der Bot einige korrekte Details über Mercante nannte, wie z. B. ihre Fachgebiete und ihren Beruf, waren die meisten Antworten der KI mit Ungenauigkeiten gespickt.
Als „Wired“ Character.AI auf diesen Bot ansprach, sagte Unternehmenssprecherin Kathryn Kelly, dass die Mitarbeiter keine Meldungen über den Charakter finden konnten, dass dieser aber untersucht und deaktiviert worden sei. (Mercante bestreitet dies: „Ich habe nur ein kurzes Formular ausgefüllt.“)
„Im Allgemeinen dauert es etwa eine Woche, um einen Charakter auf einen Verstoß gegen die AGB zu untersuchen und gegebenenfalls zu entfernen“, so Kelly.
Mercante, die in den vergangenen Monaten separat zur Zielscheibe von Schikanen wurde, nachdem sie über eine Desinformations- und Schikanierungskampagne gegen die Videospielberatung Sweet Baby Inc. geschrieben hatte, sagt, dass sie keine Ahnung hat, wer den Bot erstellt hat, aber „nur annehmen kann, dass es jemand ist, der aktiv in der Gaming-Ecke des Internets unterwegs ist“.
Bevor er entfernt wurde, enthielten die Gesprächsanfänger für den Bot – zu dem auch ein Profil mit Informationen über Mercantes aktuellen Job und ihren Tätigkeitsbereich gehört – …
Quellen: