Die Europäische Kommission hat den AI Act vorgestellt, der den Einsatz von künstlicher Intelligenz regulieren soll. Allerdings besteht die Gefahr, dass der Fokus auf die Technologie anstatt auf die Anwendungsbereiche gerichtet ist. Das kann Innovationen beeinträchtigen und kurz- bis mittelfristig den KI-Standort Europa gefährden.
Wir alle haben schon sehr viel über die KI ChatGPT gelesen. Die dialogorientierte KI-Anwendung zeigt deutlich die Fortschritte der letzten 15 Jahre: Ihre erzeugten Texte sind für den flüchtigen Leser kaum von menschlicher Herkunft zu unterscheiden. Gleichzeitig stellen sich aktuell weltweit viele Fragen zum Einsatz und Nutzen einer solchen KI. In Deutschland konzentriert sich die Diskussion hauptsächlich auf ethische Probleme, insbesondere auf die Verwendung der Anwendung für Mogeleien wie das Abschreiben von Hausaufgaben in Schule und Studium oder das Erstellen von fotorealistischen Bildern mit neuesten KI-Lösungen wie Midjourney für politische und kriminelle Zwecke. Doch auch in anderen Ländern stehen ChatGPT und Co. unter strenger Beobachtung – oder werden wie in Italien im Fall von ChatGPT gleich komplett geblockt. Der Ruf nach Regulierung wird also immer lauter. Die Gesetzgebung soll sicherzustellen, dass KI-Anwendungen nicht für illegale Zwecke genutzt werden.
KI für militärische Zwecke soll nicht reguliert werden
Die Europäische Kommission arbeitet seit einiger Zeit an dem sogenannten EU AI Act, um einen einheitlichen Rechtsrahmen für Künstliche Intelligenz zu schaffen. Das Ziel der EU besteht darin, vertrauenswürdige KI-Systeme zu fördern, die sicher sind und die Grundrechte sowie Werte der Mitgliedstaaten der Europäischen Union respektieren.
Eine wichtige Frage bei der Betrachtung des AI Acts ist die Definition von Künstlicher Intelligenz. Die EU-Kommission hat einen sehr umfassenden Rahmen vorgeschlagen, während der EU-Rat eine engere Definition bevorzugt, die sich auf autonome Systeme und maschinelles Lernen beschränkt. Diese Unterscheidung schließt bestimmte Anwendungen aus, wie beispielsweise Software zur statistischen Betrugserkennung.
Ein bemerkenswertes Detail des Entwurfs ist, dass der Einsatz von KI-Systemen für militärische Zwecke nicht vom Geltungsbereich des AI Acts erfasst wird. Der EU-Rat plant außerdem, diesen Sonderstatus auf alle Fragen der nationalen Sicherheit auszuweiten. Diese Regelung ist jedoch umstritten, da sie möglicherweise eine Hintertür für biometrische Massenüberwachung weit aufstoßen könnte.
Regulierung nur für Hochrisiko-Anwendungen
Der AI Act beruht auf einer Bewertung des Risikos, um sicherzustellen, dass der Einsatz von KI-Systemen keine negativen Auswirkungen auf die Sicherheit, Gesundheit oder Grundrechte von Menschen hat. Hierfür werden Anwendungen von künstlicher Intelligenz in drei Risikokategorien eingeteilt.
- Die Kategorie Verboten umfasst alle Anwendungen von KI, die den Werten der EU zuwiderlaufen. Hierzu zählen beispielsweise die Manipulation der Psyche, die Ausbeutung von Kindern oder Menschen mit Behinderung sowie der Einsatz von Social Scoring. Auch biometrische Erkennung in Echtzeit im öffentlichen Raum zur Strafverfolgung ist in diese Kategorie einzuordnen und damit untersagt.
- Zu den Anwendungen, die als Hohes Risiko eingestuft werden, gehören solche, die die Kreditwürdigkeit von Verbraucher:innen bewerten, Bewerber für Stellen einstufen oder von der Justizverwaltung genutzt werden. Die EU arbeitet derzeit an einer Liste von Hochrisiko-Anwendungen, die bei Inkrafttreten der Verordnung veröffentlicht wird und als Grundlage für regulatorische Maßnahmen dient.
- Unter die Kategorie Geringes Risiko fallen Technologien wie KI-Chatbots, Computerspiele und die meisten anderen Formen der KI. Entsprechend soll hier wenig bis gar keine Regulierung stattfinden. Allerdings soll es eine Verpflichtung zur Transparenz geben, damit Nutzer:innen wissen, dass sie mit einer KI interagieren.
Es ist geplant, eine Datenbank für alle innerhalb der EU angebotenen Systeme der Hochrisiko-Kategorie zu erstellen. Diese Datenbank soll jedoch keine Informationen darüber enthalten, wer die Systeme einsetzt oder zu welchem Zweck sie genutzt werden. Verstöße gegen diese Verordnung können mit Bußgeldern in beträchtlicher Höhe geahndet werden, die bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes betragen können.
Ohne klare Definitionen können auch die Regeln nicht greifen
Das KI-Gesetz mit klaren Regeln und möglichen Sanktionen ist ein Schritt in die richtige Richtung. Künstliche Intelligenz hat eine große Bedeutung für unsere Zukunft, birgt aber auch potentielle Gefahren und kann missbraucht werden. Allerdings ist der AI Act noch keine vollständige Antwort auf die Herausforderungen der Zukunft. In der Tat birgt der AI Act in seiner jetzigen Form sogar massive Gefahren für Entwickler, Wirtschaft und die Gesellschaft. Denn die Konzentration auf risikoreiche Anwendungen könnte gleichzeitig zu einer Unter- und Überregulierung führen und sollte daher überdacht werden.
Es fehlen exakte Definitionen und auch der Geltungsbereich ist nicht klar festgelegt. Dies kann dazu führen, dass bislang noch nicht klassifizierte KI-Anwendungen nicht angemessen im AI Act erfasst werden. Unternehmen könnten außerdem versuchen, die Vorschriften zu umgehen. Es besteht auch die Möglichkeit, dass KI-Technologien, die keine besonderen Risiken darstellen, übermäßig kontrolliert und eingeschränkt werden, was letztendlich Innovationen hemmen könnte.
In der aktuellen Form birgt der AI Act mehr Risiken als Chancen
Das KI-Gesetz erlaubt derzeit keine biometrische Identifizierung in Echtzeit zur Strafverfolgung in öffentlich zugänglichen Räumen, abgesehen von sehr begrenzten Ausnahmen. Die Bürgerrechtsorganisation „European Digital Rights EDRi“ schlägt darüber hinaus noch strengere Regeln vor, darunter ein Verbot der biometrischen Identifizierung ohne Ausnahmen sowie ein generelles Verbot der automatischen Erkennung menschlicher Merkmale.
In meiner Position als CEO eines KI-Startups verfolge ich aufmerksam die Entwicklung. Unsere Technologie Deep Natural Anonymization (DNAT) ist eine Anwendung im Bereich Computer Vision. DNAT ermöglicht die Anonymisierung von Gesichtern in Fotos und Videos durch den Einsatz von KI-Verfahren. Hierbei werden die Gesichter durch künstlich erzeugte Gesichter ersetzt, die weder von KI-Systemen noch von Menschen als bestimmte Personen identifiziert werden können.
Ich sehe keine direkten Bedrohungen für europäische Werte durch diese Technologie, sondern vielmehr eine Unterstützung. Allerdings besteht die Möglichkeit, dass der endgültige AI Act auch für uns relevant wird und möglicherweise Innovationen im Bereich des Datenschutzes einschränkt.
Meiner Meinung nach ist der Geist des AI Acts zwar richtig, aber die konkrete Umsetzung wirft Fragen auf. Statt KI konkret im Gesetz zu erwähnen, sollte das Gesetz Technologie von Anwendungsfällen trennen und nur bestimmte Einsatzgebiete regulieren. Dadurch kann die Weiterentwicklung von KI-Systemen unterstützt und die Innovationsfähigkeit der Wirtschaft erhalten bleiben. Andernfalls droht Europa in der KI-Entwicklung abgehängt zu werden, was letztlich Innovationen hemmt und am Ende sowohl der Wirtschaft als auch der Gesellschaft schadet.
Marian Gläser, Mitbegründer und CEO brighter AI
Marian ist der CEO von brighter AI und verantwortlich für die Steuerung der Geschäftsstrategie, die technologische Ausrichtung und die Beziehungen zu Investoren. Bevor er das Unternehmen 2017 gründete, arbeitete er als Intrapreneur für den deutschen Automobilzulieferer HELLA. Marian hat einen Master-Abschluss in IT Management & Consulting von der Universität Hamburg und arbeitete zuvor als Softwareentwickler beim Techstars-Startup Occipital Inc. in San Francisco. Er war als Berater für Unternehmen wie Lufthansa Systems tätig und arbeitete als IT-Projektleiter für die Digitalagentur SinnerSchrader. Marian ist aktives Mitglied im KI Bundesverband, wo er Sprecher für Datenschutz ist. Außerdem ist er Sprecher für Künstliche Intelligenz im Bundesverband Deutsche Startups (BVDS).