Nachdem bereits im April 2021 die Europäische Kommission einen Vorschlag für einen ersten EU-Rechtsrahmen vorgebracht hatte, ist im März 2024 das Gesetz über künstliche Intelligenz (kurz: „KI-Gesetz“) vom EU-Parlament verabschiedet worden. Im Mai hat der Europäische Rat dafür seine Zustimmung gegeben und nun ist das KI-Gesetz am 01. August 2024 in Kraft getreten. Dabei handelt es sich um das weltweit erste Gesetz zur Regulierung von KI.
Als ein Teil der digitalen Strategie der Europäischen Union soll das Gesetz sicherstellen, dass KI-Systeme, welche in der EU zum Einsatz kommen, „sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind“, wie es in einem Bericht des EU Parlaments heißt. Außerdem sollen dadurch die Grundrechte der EU-Bürger:innen geschützt werden. Darum liegt ein besonderer Fokus auf den Risiken, die von KI-Systemen ausgehen könnten.
Einstufung nach Risikofaktor
Durch den risikobasierten Ansatz des KI-Gesetzes, werden KI-Systeme nach dem Risikopotential beurteilt und bewertet. Stellt ein KI-System beispielsweise eine Bedrohung für die Menschen und deren Grundrechte dar, wird dieses als ein „unannehmbares Risiko“ gewertet. Diese Einstufung würde schlussendlich ein Verbot dieses KI-Systems innerhalb der EU nach sich ziehen.
Allerdings gibt es Ausnahmen. Ein Beispiel ist hier der Einsatz von Systemen zur biometrischen Fernidentifizierung von Personen im öffentlichen Raum. Sprich, eine massenhafte biometrische Überwachung wäre zwar verboten, im Bereich der Strafverfolgung wäre eine solche Echtzeitidentifizierung gegen konkrete Verdächtige dennoch einsetzbar – zumindest bei schwerwiegenden Fällen und wenn ein gerichtlicher Beschluss vorliegt.
Neben der Einstufung als „unannehmbares Risiko“ gibt es außerdem die Kategorie der „Hochrisiko-KI-Systeme“. Darunter fallen Systeme, die ein erhöhtes Risiko für die Gesundheit, die Sicherheit und/oder die Grundrechte der Menschen darstellen. Dabei handelt es sich beispielsweise um Systeme, die in den Bereichen der Bildung, der Medizin, beim Verkehr oder auch in der Verwaltung zum Einsatz kommen. Für diese Systeme wird es diverse Vorschriften geben, an die sie sich richten müssen. Außerdem werden sie einer jährlichen Bewertung unterzogen.
Generative KI-Systeme, wie zum Beispiel ChatGPT oder Llama, werden zwar nicht als risikoreich eingestuft und unterliegen damit auch nicht den strengen Vorschriften. Dennoch müssen diese Systeme gewisse Anforderungen in Bezug auf Transparenz und EU-Urheberrecht erfüllen. Das bedeutet, dass urheberrechtlich geschützte Daten, die zu Trainingszwecken verwendet worden sind, dokumentiert und veröffentlicht werden müssen. Dadurch sollen beispielsweise Kreativschaffenden besser nachvollziehen können, ob ihre Werke zum Training von einem KI-Modell genutzt wurden. Darüber hinaus muss aus Gründen zur Transparenz offengelegt werden, ob Inhalte wie Bilder oder Texte durch eine KI erstellt oder verändert wurden. Den Nutzer:innen von Chatbots sollte stets klar sein, dass sie mit einer KI in Interaktion stehen.
Grundsätzlich lässt sich hierzu festhalten: Umso größer das potenzielle Risiko, desto strenger sind die Auflagen und Vorschriften. Eine erste Übersicht über die einzelnen Risikostufen bietet ein Bericht des EU-Parlaments.
Innovationsbremse oder Innovationstreiber?
Eine Kritik, die im Vorfeld an dem geplanten KI-Gesetz geäußert wurde, lautete, dass im Gegensatz zu den großen Tech-Konzernen die kleineren und mittleren Unternehmen sowie Start-ups in Europa den Regularien nicht gewachsen sein könnten. Denn KI-Entwickler müssten eine Dokumentation darüber anfertigen, wie ihr System trainiert und getestet wurde. KMUs und Start-ups könnten hierfür die Kapazitäten fehlen, so die Befürchtung. Wie detailliert diese Dokumentation ausfallen soll, ist jedoch noch unklar.
Das Ziel sei es hingegen, mit Hilfe des KI-Gesetzes und der Regulierung „Investitionen und Innovation im Bereich der künstlichen Intelligenz in Europa“ anzukurbeln, wie es in einer Pressemitteilung des Europäischen Rats heißt. Allerdings sind circa 56 Prozent der Start-ups der Ansicht, dass aufgrund einer übermäßigen Regulierung KI-Modelle wie ChatGPT nicht innerhalb der EU entwickelt werden würden. Das ergab eine Befragung von 172 Tech-Start-ups im Auftrag des Digitalverbands Bitkom. Diese Umfrage zeigt auch, dass für acht von zehn der befragten Start-ups KI eine der wichtigsten Zukunftstechnologien sei.
Dem gegenüber steht, dass die Regulierung von KI auch als Chance gesehen werden könnte. So könne etwa ein „Made in EU“-Siegel als Qualitätsmerkmal für vertrauenswürdige KI-Systeme gelten, was sich wiederum positiv auf KI-Unternehmen innerhalb der EU auswirken würde.
Die nächsten Schritte
Dass das KI-Gesetz Anfang August in Kraft getreten ist, hat zunächst kaum unmittelbare Auswirkungen. In etwa einem halben Jahr müssten Unternehmen die ersten Regelungen befolgen. Zudem werde bis April 2025 ein Verhaltenskodex für Entwickler von KI-Systemen fertiggestellt. Bis August 2025 wiederum haben die Mitgliedstaaten Zeit, nationale Behörden zu benennen, welche ab August 2026 dann die Überwachung der Einhaltung der Vorschriften übernehmen sollen. Bis dahin hätten KI-Entwickler Zeit, die Kriterien umzusetzen – für Systeme mit der Einstufung als „Hochrisiko-KI-System“ bleiben sogar drei Jahre.
Ob das KI-Gesetz die Innovation fördert, Anreize für Investitionen in KI-Modelle aus der EU schafft und sich KI „Made in EU“ als Gütesiegel für Qualität durchsetzt, oder ob es Unternehmen in der EU doch eher hemmt und sie durch die hohen Auflagen im Wettbewerb benachteiligt werden, wird sich in den nächsten Jahren zeigen.