KI-Abbilder: Kann der zivilrechtliche Persönlichkeitsschutz helfen?
Generative künstliche Intelligenz (KI) kann Stimme und Körper lebensecht nachbilden und so KI-Abbilder von realen Personen zum Leben erwecken. Da leistungsstarke Deep Learning Programme immer weniger Datenfutter benötigen, können derartige KI-Abbilder nicht mehr nur von viel abgelichteten Prominenten erschaffen werden – sondern auch von Otto- Normalverbraucher. Den neuronalen Netzen braucht man nur ein wenig Material zum Repräsentierten zu liefern. Zugleich wird auch der Generierungsakt als solcher immer leichter: Mit einfach zu bedienenden Apps wie „faceswap“ kann jedermann KI-Abbilder generieren. Vor kurzem hat nun Open AI sein neues Modell „Sora“ vorgestellt: Es kann Textbefehle mit einer verblüffenden Perfektion in Videos umwandeln. Das Programm zeigt, wie rasant die KI-Entwicklung voranschreitet.
Verwendungsszenarien
In rechtlicher Hinsicht ist zwischen verschiedenen Verwendungsszenarien mit KI-Abbildern zu unterscheiden. Immer mehr sehen wir Nutzungen von Körpermerkmalen mit Einwilligung der Repräsentierten. Es geht um Konstellationen, in denen Personen ihren Körper gegen eine Vergütung für einen „digitalen Zwilling“ zur Verfügung stellen. Meta hat vor kurzem einen hauseigenen KI Chatbot vorgestellt, der bald mit Stimmen von Kendall Jenner, Snoop Dogg & Co sprechen soll ( https://about.fb.com ). Auch jenseits solcher kommerziellen Nutzungen werden KI-Abbilder eingesetzt: Im Iran sprach die Stimme des ehemaligen pakistanischen Premierministers Imran Khan jüngst aus dem Gefängnis heraus zur Wählerschaft: virtueller Wahlkampf mittels KI-Abbild ( https://www.sueddeutsche.de ). Publicis leitete das neue Jahr für seine Mitarbeiter mit 100.000 personalisierten Videobotschaften mit digitalem Zwilling ein ( https://www.horizont.net). KI sei Dank. Diese Nutzungen erfolgten mit Einwilligung des Repräsentierten – die wird aber nicht immer vorliegen.
Es häufen sich Situationen, in denen KI-Abbilder ohne die Einwilligung der Repräsentierten erstellt und weiterverbreitet werden – auch diese Konstellationen dürfen aber nicht über einen Kamm geschert werden. Es ist zu unterscheiden zwischen dem Einsatz von KI-Abbildern als täuschenden Deepfakes und als offen ausgewiesene Fiktionen.
Täuschende Deepfakes
Deepfakes können Kollateralschäden von gesamtgesellschaftlichen Dimensionen verursachen. Man denke an Desinformationskampagnen im Wahlkampf: Im Superwahljahr 2024 – EU-Parlament und US-Präsident werden gewählt, Landtagswahlen in Sachsen, Brandenburg und Thüringen sowie Kommunalwahlen in acht Bundesländern stehen an – lässt es einen schaudern (zu den verfassungsrechtlichen Grenzen Gutjahr/Spiecker/Volkamer, CR 2023, 767). Insoweit sind nicht nur die verbesserte Qualität der manipulierten Inhalte gefährlich, sondern auch neue Verbreitungsmöglichkeiten: KI-Bots nehmen in den sozialen Medien immer authentischere virtuelle Persönlichkeiten an, die Desinformationskampagnen in neuen Dimensionen verbreiten können. Zudem verursachen sie längerfristige Schäden: Es ist zu erwarten, dass wir durch diese Entwicklung ein neues Verhältnis zu Onlineinhalten entwickeln werden. Wir werden Inhalte nicht mehr selbstverständlich als „echt“ wahrnehmen und uns nicht mehr auf die Beweiskraft von Aufzeichnungen verlassen können – was sich wiederum die Repräsentierten zunutze machen können, indem sie wahre Begebenheiten als Täuschungen zurückweisen. Jenseits solcher gesamtgesellschaftlichen Schäden drohen für die Repräsentierten Persönlichkeitsverletzungen neuen Ausmaßes. Kann das Deliktsrecht helfen? Können sich die Verwender der Deepfakes auf die Kunst- oder Meinungsfreiheit berufen? Und könnte über etwaige Beweisschwierigkeiten die Richtlinie über KI-Haftung mit ihrer hochkomplexen Kausalitätsvermutung beim Einsatz von KI-System helfen? Wenn sie denn überhaupt kommt - noch ist sie in Brüssel in der Mache. Diesen Fragen geht mein Beitrag im Märzheft nach: Kraetzig, CR 2024, 207.
Offen ausgewiesene Fiktionen
In Fällen offen fiktiver Verwendungen wird zwar nicht darüber getäuscht, dass die KI-Abbilder künstlich generiert werden und der Repräsentierte in fiktiven Szenarien gezeigt wird. Es handelt sich um ausgewiesenen digitalen Schabernack. Die hierfür genutzten KI-Abbilder können die Repräsentierten dennoch in ihrem Persönlichkeitsrecht verletzen, zum Beispiel indem sie diese in ungewollte politische Kontexte zerren oder zu Werbezwecken vereinnahmen – wie jüngst Bundeskanzler Olaf Scholz, dessen „digitaler Zwilling“ für die BILD die Werbetrommel rühren musste (https://www.youtube.com ). Solche offen fiktiven Verwendungen sind persönlichkeitsrechtlich besonders interessant. Denn sie sind so fiktiv wie ein Roman, sehen aber aus wie die Realität. Wie sind sie deliktsrechtlich zu behandeln? Die Antwort darauf in meinem Beitrag im Aprilheft: Kraetzig, CR 4/2024, der bereits jetzt "online first" verfügbar ist.
Ausblick
Natürlich kämpfen die Repräsentierten, die gegen die Verwendung ihres KI-Abbildes vorgehen, im digitalen Raum mit Durchsetzungsproblemen. Es kann bereits eine Herausforderung sein, den Verwender der KI-Abbilder zu identifizieren. Jedenfalls das materielle Deliktsrecht ist aber in der Lage, die neue digitale Gefährdungslage aufzufangen. Vielleicht können wir aus seiner Konzeption damit ganz allgemein etwas darüber lernen, wie Recht konzipiert sein muss, um mit neuen Technologien Schritt zu halten. Bei der derzeitigen Entwicklung von KI-Anwendungen kann man das nur hoffen.