„Wir benötigen Rechtssicherheit für Unternehmen und Verbraucher*innen, wenn KI im Spiel ist“

Einigung auf EU-Regeln für Künstliche Intelligenz: Prof. Dr. Domenik Wendt bewertet die Grundzüge des „AI Act“ und ihre Bedeutung international

Medizinische Diagnosen, Spracherkennungssysteme, virtuelle Assistenten beim Einkaufen, Anwendungen zur Koordination von Arbeitnehmer*innen sowie moderne Chatbots – Künstliche Intelligenz (KI) spielt in vielen Lebensbereichen eine Rolle. Am Freitag, den 8. Dezember 2023, haben sich das Europäische Parlament, die EU-Kommission und die EU-Mitgliedsländer nun vorläufig auf den Artificial Intelligence Act, kurz „AI Act“ verständigt. Mit dem Gesetz soll die Nutzung und Herstellung von KI-Systemen abhängig von ihrem Risiko für Menschen EU-weiten Regelungen unterliegen.

Prof. Dr. Domenik Wendt, Direktor des Research Lab for Law and applied Technologies (ReLLaTe) an der Frankfurt University of Applied Sciences (Frankfurt UAS), begrüßt die Einigung: „Wer sich vor Augen führt, was insbesondere die neuesten Entwicklungen im Bereich der generativen KI wie die Modelle GPT-4 und Gemini heute bereits leisten, kann nur erahnen, welche Einsatzmöglichkeiten in Zukunft bestehen werden. Der von der EU gewählte risikobasierte Regulierungsansatz im AI Act, der KI-Systeme anhand ihres Risikos für Gesundheit, Sicherheit und Grundrechte kategorisiert, ist richtig. Er ermöglicht, notwendige produktsicherheitsrechtliche Anforderungen an KI-Systeme zu formulieren, erforderliche Grenzen durch Verbote zu setzen und wichtige Zuständigkeiten auf Behördenseite zu klären. So werden künftig in der EU Anwendungen wie das sogenannte „Social Scoring“ untersagt und eine starke Aufsicht durch eine europäische Behörde etabliert. Das alles ist wichtig, denn wir benötigen Rechtssicherheit für Unternehmen und Verbraucher*innen, wenn KI im Spiel ist.“  

In dem von Wendt geleiteten ReLLaTe werden die aktuellen Entwicklungen um den AI Act im Projekt „AI LAW“ analysiert. Umstritten waren in den vorangegangenen Verhandlungen, dem Trilog auf EU-Ebene, unter anderem, welche Vorgaben für sogenannte General-Purpose-AI-Modelle sowie darauf aufsetzenden Anwendungen gelten sollen. General-Purpose-AI-Modelle werden mit großen Datensätzen trainiert und sind vielseitig einsetzbar. Hierzu stellt Wendt fest: „Das mit dem AI Act verfolgte Ziel eines angemessenen Schutzes der EU-Bürger*innen lässt sich wohl am besten durch klare Anforderungen und damit verknüpfte Sanktionen erreichen. Gerade die in der EU ansässigen KI-Unternehmen wie Aleph Alpha und Mistral AI könnten hierdurch aber ausgebremst werden. Der nun in den ersten Mitteilungen der EU-Institutionen zur Einigung dargestellte Kompromiss sieht ein gestuftes Regelkonzept in Abhängigkeit vom systemischen Risiko vor. Das steht im Einklang mit dem risikobasierten Regulierungsansatz des AI Acts und verhindert, dass kleinere Unternehmen zu stark durch regulatorische Anforderungen belastet werden. Die für alle General-Purpose-AI-Modelle vorgesehenen Transparenz- und Dokumentationspflichten sind wichtig, auch um das Vertrauen in diese Modelle zu stärken. Leistungsstärkere General-Purpose-AI-Modelle sollen zusätzliche Anforderungen erfüllen, insbesondere in den Bereichen Cybersicherheit, Risikomanagement und Energieverbrauch. Das sind aus meiner Sicht elementare Eckpfeiler einer notwendigen Governance-Struktur, die Anbieter*innen dieser Modelle vorhalten müssen.“

Im Hinblick auf mögliche Sanktionen und das damit verknüpfte neue Aufsichtssystem stellt Wendt fest: „Bei Verstößen gegen die Vorgaben des AI Acts, sind empfindliche Sanktionen vorgesehen, die sich am Jahresumsatz des Unternehmens oder festgelegten Werten von bis zu 35 Mio. EUR orientieren. Auf EU-Ebene soll zudem ein sogenanntes „AI Office“ sicherstellen, dass einheitliche Standards in allen EU-Mitgliedstaaten angewendet werden. Ähnliches findet sich etwa auch im Finanzmarktrecht. Wichtig erscheint mir, dass das AI Office mit ausreichend Mitteln ausgestattet wird, um handlungsfähig zu sein.“

Mit Blick auf die Regulierung von KI weltweit hebt der Rechtswissenschaftler Wendt hervor: „Die EU ist mit ihren Überlegungen zum AI Act früh gestartet, auch in der Hoffnung auf einen ‚Brussels Effekt‘, wie wir ihn von der Datenschutzgrundverordnung kennen. Zwischenzeitlich haben andere Regionen der Welt nachgezogen. Die Einigung kommt aus meiner Sicht aber noch rechtzeitig, um mit dem AI Act wichtige EU-geprägte Standards für KI-Modelle und -Systeme zu setzen.” Domenik Wendt ist Teil eines internationalen und interdisziplinären Teams von Wissenschaftler*innen, das derzeit einen Großkommentar zum AI Act vorbereitet.

Nach der vorläufigen politischen Einigung werden die Arbeiten des EU-Gesetzgebers auf technischer Ebene in den kommenden Wochen fortgesetzt. Anschließend muss der AI Act durch das EU-Parlament und den Rat der EU verabschiedet werden. Bevor Unternehmen die Regeln anwenden müssen, gilt dann noch eine Übergangsfrist.

Zur Person:

Prof. Dr. Domenik Wendt ist Jurist und Professor für Bürgerliches Recht, Europäisches Wirtschaftsrecht und Europarecht an der Frankfurt University of Applied Sciences. Zu seinen Forschungsschwerpunkten zählt das europäische Wirtschaftsrecht und das Recht der Künstlichen Intelligenz. Wendt leitet das Research Lab for Law and applied Technologies (ReLLaTe) an der Frankfurt UAS, in dessen Projekt AI LAW der neue Rechtsrahmen für KI, unter anderem durch den AI Act untersucht wird. Er ist zudem Mitglied der Projektgruppe „Verantwortungsbewusste algorithmische Entscheidungsfindung in der Arbeitswelt“ des Zentrums für verantwortungsbewusste Digitalisierung (ZEVEDI). Das virtuelle, hessenweite Netzwerk verknüpft und bündelt wissenschaftliche Expertise auf dem Feld der Digitalität.

Kontakt:

Frankfurt University of Applied Sciences

Fachbereich 3: Wirtschaft und Recht

Prof. Dr. Domenik Wendt, Telefon: +49 69 1533-3876, wendt(at)fb3.fra-uas.remove-this.de

Website editorial teamID: 13159
last updated on: 12.06.2023