EU-Gesetzentwurf zur Regulierung von Künstlicher Intelligenz Was ist der AI Act?

Von Dipl.-Ing. (FH) Stefan Luber 7 min Lesedauer

Anbieter zum Thema

Der Artificial Intelligence Act ist ein Gesetzentwurf der Europäischen Union zur Regulierung von Künstlicher Intelligenz. Nach der endgültigen Annahmen durch die EU-Instanzen soll der AI Act in den EU-Mitgliedstaaten in Kraft treten. Der AI Act verfolgt einen risikobasierten Ansatz.

Riskantes Unterfangen: Ein gestecktes Ziel des Gesetzesvorhabens rund um den AI Act soll sein, dass KI-Anwendungen mit nicht akzeptablen Risiko in der EU nicht erlaubt sein werden.(Bild: ©  sabida - stock.adobe.com)
Riskantes Unterfangen: Ein gestecktes Ziel des Gesetzesvorhabens rund um den AI Act soll sein, dass KI-Anwendungen mit nicht akzeptablen Risiko in der EU nicht erlaubt sein werden.
(Bild: © sabida - stock.adobe.com)

Der Artificial Intelligence Act, abgekürzt AI Act, wird auch als KI-Verordnung oder Gesetz über Künstliche Intelligenz bezeichnet. Der vollständige Titel lautet „Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung bestimmter Rechtsakte der Union“. Als Kurztitel wird häufig „Vorschlag für ein Gesetz über künstliche Intelligenz“ verwendet.

Der AI Act ist ein Gesetzesvorschlag zur Regulierung Künstlicher Intelligenz in der EU. Er soll sicherstellen, dass KI-Systeme, -Technologien und -Anwendungen den europäischen Werten und Grundrechten entsprechen. Gleichzeitig soll er Rechtssicherheit für KI-Anwender und KI-Anbieter schaffen und zur Förderung des KI-Einsatzes und der KI-Entwicklung in der EU beitragen. Entworfen wurde der AI Act im Rahmen der EU-Digitalstrategie.

Noch liegt das Gesetz als Entwurf vor. Nach der endgültigen Annahme und Verabschiedung soll der AI Act im mehreren Schritten innerhalb von zwei Jahren in den Mitgliedstaaten der EU in Kraft treten. Er wäre dann eines der ersten gültigen Gesetze zur Regulierung Künstlicher Intelligenz weltweit. Die KI-Verordnung verfolgt einen risikobasierten Ansatz und teilt KI-Systeme und -Technologien in verschiedene Risikoklassen ein. Entsprechend der jeweiligen Risikoklasse sind unterschiedliche Anforderungen zu erfüllen.

Die Einhaltung der Vorgaben und die Durchsetzung des AI Act verantworten die Mitgliedstaaten unterstützt von einem noch einzurichtenden European Artificial Intelligence Board. Bei Nichteinhaltung von Anforderungen und Verstößen gegen die KI-Verordnung können abhängig von der Schwere des Verstoßes und dem weltweiten Umsatz des Unternehmens Bußgelder einer bestimmten Höhe verhängt werden. Bußgelder können auch fällig werden, wenn Auskünfte über die KI an nationale Behörden falsch, unvollständig oder irreführend sind.

Ziele des AI Act

Eines der zentralen Ziele des AI Act ist die Schaffung einer rechtlichen Grundlage, um Künstliche Intelligenz in der EU rechtssicher anzubieten, einzusetzen und zu nutzen. Die Bereitstellung und Verwendung von Systemen und Anwendungen mit Künstlicher Intelligenz soll in sichere Bahnen gelenkt werden. KI-Systeme und -Anwendungen sollen den europäischen Werten und Grundrechten entsprechen. Der AI Act minimiert die durch KI verursachten Risiken und verhindert Schäden für Industrie, Bevölkerung und Gesellschaft. Darüber hinaus harmonisiert er die in den Mitgliedstaaten der EU geltenden Regeln für KI-Anwendungen und KI-Systeme.

Der AI Act soll zudem die Entwicklung und den Einsatz von Künstlicher Intelligenz in der EU fördern. Dank der harmonisierten und verbindlichen Vorgaben der KI-Verordnung sollen KI-Technologien in der Europäischen Union besser Fuß fassen können und sich zum Vorteil für Wirtschaft, Wissenschaft und Bevölkerung der EU entwickeln. Die Position Europas im globalen Wettbewerb soll gestärkt werden.

Wie der AI Act Künstliche Intelligenz definiert

Bestandteil des AI Act ist eine Definition, was unter Künstlicher Intelligenz zu verstehen ist. Nur so lässt sich festlegen, welche Technologien, Anwendungen und Systeme überhaupt von der KI-Verordnung betroffen sind. Der AI Act definiert Künstliche Intelligenz eher allgemein und weit gefasst. Maßgeblich für die Definition ist der Anhang I des AI Act. Ein KI-System ist eine Software, die mit den dort aufgeführten Techniken und Lösungsansätzen entwickelt wurde und Ergebnisse hervorbringt, die das mit der KI interagierende Umfeld beeinflussen. KI-Ergebnisse sind zum Beispiel Vorhersagen, Empfehlungen, Entscheidungen oder Inhalte. Die im Anhang I aufgeführten Techniken und Lösungsansätze sind:

  • Konzepte des maschinellen oder tiefen Lernens inklusive überwachtem, nicht überwachtem und verstärkendem Lernen,
  • logik- und wissensbasierte Ansätze wie Inferenz- und Deduktionsmaschinen, Experten- und Schlussfolgerungssysteme und andere
  • statistische Ansätze, Bayessche Schätzmethoden oder Such- und Optimierungsmethoden.

Geltungsbereich des AI Act

Artikel 2 des Gesetzesvorschlags legt den Geltungsbereich des AI Act fest. Zum einen gelten die Vorgaben der KI-Verordnung für Unternehmen, Behörden oder andere Einrichtungen, die KI-Systeme in der Europäischen Union in Betrieb nehmen und in Verkehr bringen, unabhängig davon, ob sie selbst in der EU oder in einem anderen Land niedergelassen sind. Zum anderen sind aber auch die in der EU ansässigen Nutzer (sowohl natürliche als auch juristische Personen) von KI-Systemen von der KI-Verordnung betroffen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Auch wenn Anbieter oder Nutzer von KI-Systemen sich außerhalb der EU in einem Drittland befinden, aber der KI-Output auf den EU-Markt gerichtet ist und innerhalb der EU verwendet wird oder dort Folgen hat, findet der AI Act Anwendung. Das entspricht dem aus der Datenschutzgrundverordnung bekannten Marktortprinzip. Ausgenommen von der KI-Verordnung sind KI-Systeme für militärische Zwecke und für Belange der nationalen Sicherheit.

Die vom AI Act definierten Risikoklassen der KI-Systeme

Der AI Act ordnet KI-Systeme und KI-Technologie in verschiedene Risikoklassen ein. Abhängig von der jeweiligen Risikoklasse sind bestimmte Anforderungen oder Informationspflichten zu erfüllen. Grundsätzlich gilt: Je höher die Risikoklasse, desto strenger sind die Vorgaben. KI-Systeme und -Technologien mit nicht akzeptablem Risiko sollen nach dem AI Act in der EU grundsätzlich verboten werden.

Folgende Risikoklassen werden vom AI Act definiert:

Nicht akzeptables Risiko: KI dieser Risikoklasse ist grundsätzlich verboten, da sie die Rechte, Lebensgrundlage und Sicherheit der Menschen bedroht. Beispiele sind Social Scoring, kognitive Verhaltensmanipulation oder biometrische Echtzeitidentifizierung und Videoüberwachung von Menschen (außer im Zusammenhang mit schweren Straftaten).

Hohes Risiko: KI, die in systemkritischen oder sensiblen Bereichen und in Geräten, die den EU-Produktsicherheitsgesetzen unterliegen, zum Einsatz kommt. Beispiele für solche Geräte sind medizinische Geräte, Spielzeuge oder Flugzeuge.

Begrenztes Risiko: Künstliche Intelligenz, die in weniger kritischen Bereiche zum Einsatz kommt. Beispiele sind generative KI oder Chatbots im Servicebereich.

Minimales Risiko: KI in Bereichen mit geringem Risikopotenzial, die nicht unter die ersten drei Risikoklassen fallen. Beispiele sind Videospiele oder Suchalgorithmen und Spamfilter.

Die Vorgaben des AI Act für die verschiedenen KI-Risikoklassen

Abhängig von der jeweiligen Risikoklasse gelten für die KI-Systeme spezifische Vorgaben. KI-Systeme, die der nicht akzeptablen Risikoklasse zugeordnet sind, sind verboten. Hochrisikosysteme haben unter anderem folgende Anforderungen zu erfüllen:

  • Einrichtung eines Risikomanagementsystems,
  • Einhaltung von Daten-Governance-Verfahren,
  • Einhaltung von Qualitätskriterien für Trainings-, Validierungs- und Testdatensätze,
  • technische Dokumentationspflichten,
  • automatisierte Protokollierung von Vorgängen und Ereignissen,
  • Umsetzung von Transparenzpflichten,
  • Beaufsichtigung der Künstlichen Intelligenz durch menschliches Personal,
  • Einhaltung des erforderlichen Maßes an Genauigkeit, Robustheit und Cybersicherheit,
  • und weitere.

Bei KI-Systemen mit begrenztem Risiko sind vor allem Transparenzpflichten zu erfüllen. Dazu zählen die Kennzeichnung des KI-generierten Inhalts, das Unterbinden des Erzeugens illegaler Inhalte sowie eine detaillierte Zusammenfassung der für das Training der Modelle genutzten Inhalte.

Keine über bereits bestehende Rechtsvorschriften hinausgehende Anforderungen oder nur minimale Transparenzanforderungen haben KI-Systeme mit minimalem beziehungsweise keinem Risiko zu erfüllen. Sie erhalten grundsätzlich freien Zugang zum europäischen Markt.

Durchsetzung des AI Act und vorgesehene Strafen

Die Durchsetzung des AI Act überwachen die einzelnen Mitgliedstaaten unterstützt von einem noch einzurichtenden European Artificial Intelligence Board. Verstöße gegen die Vorgaben und Anforderungen der KI-Verordnung können Bußgelder zur Folge haben. Ihre Höhe ist abhängig von der Art und Schwere des Verstoßes und richtet sich nach dem weltweiten Jahresumsatz des gegen den AI Act verstoßenden Unternehmens.

Möglich sind Bußgelder bis 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes. Falsche, irreführende oder unvollständige Angaben gegenüber nationalen Behörden können mit Geldbußen bis zehn Millionen Euro oder zwei Prozent des weltweiten Jahresumsatzes geahndet werden. Genauer beschrieben sind die möglichen Strafmaßnahmen in Artikel 71 des AI Act.

Der Ablauf bis zum Inkrafttreten des AI Act in der EU

Bereits 2018 wurde ein Strategiepapier Künstliche Intelligenz für Europa veröffentlicht. Die Regulierung von KI in der EU wurde 2019 angekündigt. Der erste Entwurf der KI-Verordnung wurde im April 2021 veröffentlicht und anschließend von den maßgeblichen EU-Instanzen diskutiert. Parlamentsausschüsse und EU-Staaten brachten diverse Stellungnahmen und Änderungsvorschläge ein.

Die rasanten Entwicklungen generativer KI und der Erfolg von Chatbots wie ChatGPT führten immer wieder zu neuem Diskussionsbedarf und verzögerten den Zeitplan der Einführung des AI Act. Das EU-Parlament verabschiedete den finalen Vorschlag als finale Verhandlungsposition im Juni 2023. Anschließend starteten Trilog-Verhandlungen. Im Dezember erzielten Unterhändler des Europaparlaments und der EU-Staaten nach langen Verhandlungen eine politische Einigung bezüglich der Grundzüge des Gesetzes.

Der weitere Zeitplan sieht vor, dass die Verordnung nach Ausarbeitung technischer Details formell vom Parlament und EU-Rat verabschiedet wird und eventuell bereits im Frühjahr 2024 in Kraft tritt. Sechs Monate nach Inkrafttreten sollen die Verbote des AI Act greifen. Nach einem Jahr gelten die Governance- und Transparenzregeln. Zwei Jahre nach Inkrafttreten sollen alle Vorgaben und Rechtsregeln des AI Act Anwendung finden.

Microservices, Cloud Native, REST API , Kubernetes & Co.: Cloud Computing Wiki

Definitionen rund um Cloud ComputingVon AWS bis XaaS: Alle relevanten Schlagworte aus dem Bereich Cloud Computing finden Sie verständlich erklärt in unseren Definitionen. Ganz im Sinne eines kleinen, aber feinen Glossars lesen Sie hier neutral verfasste und leicht verständliche Erklärungen zu den wichtigsten Begriffen. Als Service für Sie haben wir die hier erklärten Begriffe in unseren Beiträgen auch direkt mit den zugehörigen Lexikoneinträgen verlinkt. So können Sie die wichtigsten Erläuterungen direkt dort nachschlagen.  

Zum Special: Definitionen rund um Cloud Computing

(ID:49856549)