Regulierung von Basismodellen (LLM): Brüssel drückt auf die Bremse – deutsche Datenschutzbehörden geben Gas!?
Auf europäischer und deutscher Ebene findet man gerade ein konträres Bild: die Regulierung von Basismodellen ist auf EU-Ebene am 10.11.2023 ins Stocken geraten. Parlament und Mitgliedstaaten sind sich u. a. uneinig darüber, ob Basismodelle wie GPT4 in der KI-VO reguliert oder davon ausgenommen werden sollen. In einem Positionspapier vom 20.11.23 haben sich die EU-Mitgliedstaaten Deutschland, Frankreich und Italien gegen verbindliche Vorgaben für Basismodelle ausgesprochen und ein sanktionsloses Konzept der Selbstregulierung in die Diskussion eingebracht. Mit großer Spannung wird daher nun der nächste Trilog am 6. Dezember 2023 erwartet, bei dem eine politische Einigung erhofft wird, aber nicht garantiert ist.
Im Gegensatz hierzu fordern deutsche Datenschutzbehörden die Aufnahme klarer Verantwortlichkeiten für Hersteller und Betreiber in der KI-VO (vgl. Pressenmitteilung der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder zu KI-Regulierung vom 29. November 2023. Um der gegenwärtig bestehenden Rechtsunsicherheit beim Einsatz von KI / Basismodellen entgegenzuwirken, veröffentlichen insb. die deutschen Datenschutzbehörden „ein Paper nach dem anderen“.
Leitfäden/Papiere der Datenschutzaufsicht ohne viel Neues
Nach dem detaillierten Fragenkatalog der deutschen Datenschutzaufsichtsbehörden von Mitte April 2023 an Open AI, der – zumindest teilweise – auch für die datenschutzrechtliche Prüfung anderer generativer KI herangezogen werden kann, sind derzeit von der Datenschutzaufsicht zwei Diskussionspapiere/Leitfäden verfügbar, die eher wenig Neues bringen, aber klar die „KI-Untauglichkeit“ der DSGVO aufzeigen:
- Diskussionspapier des Landesbeauftragten für den Datenschutz und die Informationsfreiheit Baden-Württemberg (LfDI BW) zu Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz vom 7.11.2023 und
- Checkliste des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI) zum Einsatz LLM-basierter Chatbots vom 13.11.2023.
Nichtsdestotrotz geben diese beiden Dokumente Unternehmen und Behörden, die KI einsetzen wollen, einen gewissen Leitfaden mit Blick auf (datenschutzrechtliche) Prüfungsgegenstände. Nicht erwähnt werden in der Praxis wichtige datenschutzrechtliche Fragestellungen etwa im Hinblick auf das externe Hosting und Betrieb eines Basismodells, etwa Hosting und Betrieb auf der Microsoft Azure Plattform. Auch die Möglichkeit der Optimierung von Basismodellen für spezifische Anwendungsfälle des jeweiligen Unternehmens bzw. der jeweiligen Behörde durch das Einbetten einer Vektordatenbank oder das sog. Fine-tuning und die Anwendung von Filtern bleiben unerwähnt!
Im Einzelnen:
Ansatz des LfDI BW v. 7.11.2023
Der LfDI BW hat am 7.11.23 sein Diskussionspapier „Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz“ veröffentlicht, das als Arbeitshilfe mit vielen Hinweisen und Leitfragen für Verantwortliche gemeint ist und auf der Website des LfDI BW kommentiert werden kann.
Die Hauptaussagen des LfDI BW sind:
1. Phasen der Verarbeitung
Die datenschutzrechtlich relevanten Vorgänge sind im Zusammenhang mit KI-Systemen mit Blick auf die folgenden Phasen der Verarbeitung zu differenzieren und jeweils aus der Perspektive sowohl der Anbietenden, Nutzenden und Betroffenen datenschutzrechtlich zu bewerten:
- Erhebung von Trainingsdaten für KI.
- Verarbeitung von Daten für das Training von KI.
- Bereitstellung von KI-Anwendungen.
- Nutzung von KI-Anwendungen.
- Nutzung von Ergebnissen nach dem Einsatz von KI-Anwendungen.
2. Datenschutzrechtliche Verantwortlichkeit
Im Rahmen des Einsatzes von KI-Systemen kann für die Bestimmung der datenschutzrechtlichen Verantwortlichkeit eine differenzierte Tatsachenanalyse notwendig sein. In diesem Zusammenhang ist zu ermitteln, ob personenbezogene Daten lediglich auf Weisung und im Auftrag für eine andere Stelle verarbeitet werden und ob eine Partei ein eigenes Interesse an der Verarbeitung der personenbezogenen Daten aufweist.
3. Rechtsgrundlagen
Im Grundsatz kann, wenn die jeweiligen Voraussetzungen geben sind, jede Rechtsgrundlage für den Einsatz von KI-Systemen im Sinne der oben genannten Phasen im Einzelfall herangezogen werden, um personenbezogene Daten unter Verwendung einer KI-Anwendung und/oder für eine KI-Anwendung zu verarbeiten.
Besondere Beachtung finden die berechtigten Interessen, Art. 6 Abs. lit f. DSGVO. Art. 6 Abs. 1 Buchst. f DS-GVO stelle aufgrund des offenen Tatbestands für die meisten Verarbeitungsprozesse im KI-Kontext eine besonders geeignete Rechtsgrundlage dar. Aufgrund der obligatorischen Interessenabwägung kann die Norm allerdings nur bedingt eine Rechtssicherheit vermitteln, da es stets erforderlich sein wird, den konkreten Einzelfall umfassend zu bewerten.
Ansatz des HmbBfDIv. 13.11.2023 zum Einsatz LLM-basierter Chatbots
Der HmbBfDI hat eine Checkliste zum Einsatz von Chatbots auf Basis von Large Language Models (LLMs) wie bspw. ChatGPT auf Deutsch und Englisch veröffentlicht, abrufbar auf Deutsch hier.
Die Checkliste umfasst folgende Punkte:
- Compliance-Regelungen vorgeben (Weisungen usw.)
- Datenschutzbeauftragte einbinden
- Bereitstellung eines Funktions-Accounts (damit Mitarbeiter nicht einen privaten Account verwenden müssen; idealerweise solle das Account ohne Namen auskommen)
- Sichere Authentifizierung (damit Angreifer das Account nicht missbrauchen können)
- Keine Eingabe personenbezogener Daten (Kunden, Geschäftspartner, eigene Personendaten des Mitarbeiters)
- Keine Ausgabe personenbezogener Daten (weil die AI Informationen aus dem Internet einbeziehen kann; Prompts sollten daher nicht auf Personendaten zielen, also bspw. keine „wer“-Fragen)
- Vorsicht bei personenbeziehbaren Daten (d.h. keine Eingabe von Daten, die im Kontext einen Personenbezug erlauben)
- Opt-out des KI-Trainings (z.B. Ausschalten von „Chat history and training“)
- Opt-out der History (besonders wenn mehrere das gleiche Account verwenden)
- Ergebnisse auf Richtigkeit prüfen
- Ergebnisse auf Diskriminierung prüfen
- Keine automatisierte Letztentscheidung (keine Übernahme von Empfehlungen, weil nicht klar ist, wie eine Empfehlung zustandekommt)
- Beschäftigte sensibilisieren (betr. zulässigem Einsatz solcher Tools)
- Datenschutz ist nicht alles (auch Urheberrechte, Geschäftsgeheimnisse usw. sind auch zu berücksichtigen)
- Weitere Entwicklung verfolgen (z. B. die KI-VO, der auch Nutzer reguliert)