AI Act verabschiedet: Einheitliche Regeln für Künstliche Intelligenz in der EU
Der Rat der 27 EU-Mitgliedstaaten hat am 21.5.2024 den AI Act und damit einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Die KI-Verordnung ist das weltweilt erste umfassende Regelwerk für KI. Mit dem AI Act hat die EU nun ein Fundament für die Regulierung von Künstlicher Intelligenz, das Vertrauen und Akzeptanz in die Technologie schaffen und Innovationen "made in Europe" ermöglichen soll.
Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.
AI Act: Strenge Vorgaben bei hohem Risiko
Der AI Act schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Gleichzeitig benötigen Wissenschaft und Wirtschaft Freiraum für Innovationen. Der AI Act verfolgt hier einen sog. risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben.
Ein inakzeptables Risiko stellen zum Beispiel KI-Systeme dar, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen und sie so zu manipulieren. Für sie gilt ein Verbot, genauso wie für KI-basiertes "Social Scoring", also die Vergabe von Punkten nach erwünschtem Verhalten.
Es gibt außerdem eine Transparenzpflicht. Das heißt, künstlich erzeugte oder bearbeitete Inhalte (Audios, Bilder, Videos) müssen eindeutig als solche gekennzeichnet werden.
Hochriskante KI-Systeme - zum Beispiel in den Bereichen kritische Infrastruktur, Beschäftigung sowie Gesundheits- oder Bankenwesen - müssen eine Reihe von Anforderungen erfüllen, um für den EU-Markt zugelassen zu werden. Für Anwendungen mit einem geringen Risiko gelten lediglich eingegrenzte Transparenz- und Informationspflichten.
Umsetzung in nationales Recht
Die EU-Mitgliedstaaten müssen den AI Act nun in nationales Recht umsetzen. Die KI-Verordnung soll die Grundlage für einen breiten und sicheren Einsatz von KI darstellen und gleichzeitig soll bei der Umsetzung darauf geachtet werden, die maximalen Spielräume für Innovationen zu nutzen, damit KI-Unternehmen in Deutschland und Europa eine Zukunft haben.
So fördert die Bundesregierung KI
Mit ihrer nationalen KI-Strategie will die Bundesregierung Deutschland zu einem führenden Standort für die Entwicklung und Anwendung von KI-Technologien machen. Dafür unterstützt sie die Erforschung und Anwendung von KI in einer Reihe von Vorhaben, z.B. deutschlandweit in neu eingerichteten KI-Servicezentren für die Wissenschaft und Wirtschaft, insbesondere für kleine und mittlere Unternehmen.
Mehr zum Thema:
Aufsatz:
KI und Arbeitsrecht
Andreas Kössel, ZAU 2024, 313
Beratermodul IT-Recht:
Die perfekte Online-Ausstattung für das IT-Recht: Stets auf dem aktuellsten Stand mit den Inhalten aller Ausgaben von Computer und Recht und IT-Rechtsberater sowie den Updates von Redeker, Handbuch der IT-Verträge. 4 Wochen gratis nutzen!
BReg PM vom 22.5.2024
Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.
AI Act: Strenge Vorgaben bei hohem Risiko
Der AI Act schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Gleichzeitig benötigen Wissenschaft und Wirtschaft Freiraum für Innovationen. Der AI Act verfolgt hier einen sog. risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben.
Ein inakzeptables Risiko stellen zum Beispiel KI-Systeme dar, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen und sie so zu manipulieren. Für sie gilt ein Verbot, genauso wie für KI-basiertes "Social Scoring", also die Vergabe von Punkten nach erwünschtem Verhalten.
Es gibt außerdem eine Transparenzpflicht. Das heißt, künstlich erzeugte oder bearbeitete Inhalte (Audios, Bilder, Videos) müssen eindeutig als solche gekennzeichnet werden.
Hochriskante KI-Systeme - zum Beispiel in den Bereichen kritische Infrastruktur, Beschäftigung sowie Gesundheits- oder Bankenwesen - müssen eine Reihe von Anforderungen erfüllen, um für den EU-Markt zugelassen zu werden. Für Anwendungen mit einem geringen Risiko gelten lediglich eingegrenzte Transparenz- und Informationspflichten.
Umsetzung in nationales Recht
Die EU-Mitgliedstaaten müssen den AI Act nun in nationales Recht umsetzen. Die KI-Verordnung soll die Grundlage für einen breiten und sicheren Einsatz von KI darstellen und gleichzeitig soll bei der Umsetzung darauf geachtet werden, die maximalen Spielräume für Innovationen zu nutzen, damit KI-Unternehmen in Deutschland und Europa eine Zukunft haben.
So fördert die Bundesregierung KI
Mit ihrer nationalen KI-Strategie will die Bundesregierung Deutschland zu einem führenden Standort für die Entwicklung und Anwendung von KI-Technologien machen. Dafür unterstützt sie die Erforschung und Anwendung von KI in einer Reihe von Vorhaben, z.B. deutschlandweit in neu eingerichteten KI-Servicezentren für die Wissenschaft und Wirtschaft, insbesondere für kleine und mittlere Unternehmen.
Aufsatz:
KI und Arbeitsrecht
Andreas Kössel, ZAU 2024, 313
Beratermodul IT-Recht:
Die perfekte Online-Ausstattung für das IT-Recht: Stets auf dem aktuellsten Stand mit den Inhalten aller Ausgaben von Computer und Recht und IT-Rechtsberater sowie den Updates von Redeker, Handbuch der IT-Verträge. 4 Wochen gratis nutzen!