ChatGPT – Das nächste große Ding? Oder ein Sturm im Wasserglas?
ChatGPT ist in aller Munde. Doch werden Large Generative Artificial Intelligence Models (LGAIMs), wie sie ChatGPT verwendet, das Recht wirklich verändern? Unser Beitrag im Februarheft CR nimmt sich dieser Frage an: „Lonk Nesum“ und „Max Bernstein“ diskutieren unter Moderation von „Richard Bachgrund“, ergänzt durch meine Einordnungen:
Bachgrund/Nesum/Bernstein/Burchard, "Das Pro und Contra für Chatbots in Rechtspraxis und Rechtsdogmatik", CR 2023, 132-134 u. 140 (Download als PDF) (Direkt zum vollständigen Beitrag: in Otto Schmidt online und in Juris) (Beratermodul CR kostenlos testen)
Zeigt sich in ChatGPT der Vorschein „des nächsten großen Dings“? Oder ist alles nur ein Sturm im Wasserglas? Diese Fragen lassen sich noch nicht abschließend beantworten. Sie drängen aber ...
Mehr als bloß ein Spielzeug
Denn ChatGPT ist kein reines Spielzeug mehr, über das lediglich im Feuilleton – und das auch noch überbordend – berichtet wird. Die US-Tech-Industrie folgt gerade dem Motto „Move Fast …“ – und wir müssen sehen, ob und wann der zweite Halbsatz dieses Mottos eintritt „… and Break Things!“
Microsoft hat die Zusammenarbeit mit OpenAI intensiviert, dem Unternehmen hinter ChatGPT und auch DALL·E (zu den Auswirkungen von DALL·E 2 auf das Urheberrecht siehe Papastefanou, CR 2023, 1 ff.). Letzte Woche wurde dann mit der Integration dieser Technologien in die Suchmaschine Bing begonnen; www.bing.com/new macht nun auf mit: „Stellen Sie echte Fragen. Erhalten Sie vollständige Antworten. Chatten und erstellen.“ – Hierfür muss man sich freilich noch auf eine Warteliste setzen lassen.
Google will oder muss nachziehen und hat Hals über Kopf sein Konkurrenz-Produkt Bard ausgewählten Nutzern für eine geschlossene Testphase geöffnet. Bard wird von LaMDA angetrieben. Dieses machte letztes Jahr Schlagzeilen, weil ein Softwareingenieur davon überzeugt war, LaMDA hätte ein Bewusstsein entwickelt.
Was bedeutet das nun für das Recht in Praxis, Wissenschaft und Ausbildung?
Unser Beitrag liefert hierzu Einschätzungen und einen ersten Erfahrungsbericht. Tenor: Das „Ding“ kann mehr, als man erwarten würde – und vielleicht auch erwarten will. Wir sollten uns als Juristinnen und Juristen also nicht zu sicher sein, dass keine Transformationen anstehen.
Erste Versuche in den USA haben ergeben, dass ChatGPT dazu in der Lage ist, das Bar Exam wie auch Law School Prüfungen zu bestehen (wenn auch nicht mit besonders guten Noten). Das dürfte auch für die juristische Ausbildung in Deutschland – man denke an Haus- und Seminararbeiten und fällige Plagiatsfragen – interessant werden, allemal dann, wenn die Trainingsdatenbanken umfassender werden und deutsche Rechtstexte im großen Umfang verarbeiten.
Sobald es dazu kommt, stehen uns auch Verheißungen wie der automatische Kommentar ins Haus, der neue Entscheidungen sekundenaktuell einpflegt oder auf ihre Vereinbarkeit mit bestehender Rechtsprechung und Lehre überprüft. Was die Rechtsinformatik schon lange fordert, wird nun drängender denn je:
- Juristinnen und Juristen müssen lernen, mit IT profund umzugehen, um sie mitzugestalten und um nicht auf ihre Schwächen hereinzufallen!
- (Peters, CR 2017, 480 ff. plädiert für interdisziplinäre Kompetenz bei der gesellschaftlichen Ordnungsfunktion des Rechts in der digitalen Welt)
Denn was wäre, wenn ein LGAIM das aktuelle Sexualstrafrecht im Sinne der Sexualmoral reichgerichtlicher Entscheidungen fortschreiben wollte? Oder wenn es Entscheidungen schlicht halluziniert?
Kein passender Regulierungsansatz in Sicht ...
Regulatorisch wird es auch interessant. Verfolgt die EU den richtigen Ansatz, LGAIMs als General Purpose AI System zu qualifizieren, um sie dann im Sinne des EU AI Acts als „high risk“ AI system zu regulieren? Hiergegen werden bereits erste Bedenken laut, die sich durchaus hören lassen können. Zweifelhaft ist auch, ob der Digital Services Act viel Land sieht, um die Textproduktionen von LGAIMs zu erfassen (selbst wenn solche Maschinen „überzeugende“ Fake News und Propaganda quasi auf Knopfdruck generieren können). Insofern besteht also bereits erster Nachbesserungsbedarf.