14. März 2024 | KI

Europäische Regeln für KI

EU-Parlament verabschiedet den „AI Act“

Nachdem lange nicht klar war, wann und in welcher Gestalt Europa „künstliche Intelligenz“ regulieren will, hat das Europäische Parlament am Mittwoch, 13.03.2024, das neue KI-Gesetz (a.k.a. AI Act, oder auch KI-Verordnung) verabschiedet. Über den Text waren Parlament und Rat sich schon Ende 2023 einig geworden, die finale, konsolidierte Fassung wird aktuell allerdings noch sprachlich überarbeitet. Die Inhalte sind bereits bekannt, zuletzt wurden Anfang 2024 zwei Dokumente (1, 2) im Internet geteilt, die tiefe Einblicke in die neuen Regelungen geben. Der Rat muss die neuen Vorschriften noch förmlich annehmen.

Definition von KI-Systemen im AI Act

Seit den ersten Entwürfen im Jahr 2021 vielfach überarbeitet wurde unter anderem die Definition von KI, bzw. von „KI-Systemen“. In der aktuell verfügbaren Fassung lautet sie – angelehnt an die Definition der OECD – in Artikel 3 Nr. 1 AI Act-Entwurf (AIA-E) wie folgt:

„[Ein] KI-System [ist] ein maschinengestütztes System, das für einen in wechselndem Maße autonomen Betrieb ausgelegt sind, das nach seiner Einführung anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ergebnisse wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen hervorgebracht werden, die physische oder virtuelle Umgebungen beeinflussen können;“

Die Schwierigkeit besteht nicht zuletzt darin, überhaupt zu erfassen, was Menschen unter „Künstlicher Intelligenz“ verstehen – ist doch schon der Begriff der „Intelligenz“ für sich kaum fassbar. Insofern ist zu begrüßen, dass hier der Fokus jetzt nicht mehr auf KI an sich, sondern auf „KI-Systemen“ liegt.

Verbotene Praktiken

Verboten werden sollen KI-Systeme in besonders kritischen, grundrechtsgefährdenden Anwendungsbereichen wie etwa zur „unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person“ zur Verhaltens- bzw. Entscheidungsbeeinflussung, wenn die Gefahr eines erheblichen Schadens für eine Person besteht, sowie (nachteiliges) Social Scoring, das ungezielte Auslesen von Gesichtsbildern etwa an öffentlichen Plätzen oder das Ableiten von Emotionen durch KI-Systeme am Arbeitsplatz und in Bildungseinrichtungen.

Regulierung von Hochrisiko-KI-Systemen und Basismodellen

KI-Systeme in bestimmten anderen kritischen Bereichen werden als „Hochrisiko-KI-Systeme“ eingestuft und umfassend reguliert. Unter anderem werden Vorgaben für Qualitäts- und Risikomanagement wie auch Dokumentations- und Registrierungspflichten etabliert. Darüber hinaus werden auch nicht-Hochrisiko-KI-Systeme bestimmten Anforderungen unterstellt, wenn etwa eine Interaktion mit Menschen erfolgt (Artikel 50 Abs. 1 AIA-E). Auch sind KI-generierte Inhalte (vgl. dazu auch unseren Beitrag zu Deep Fakes) – mit Ausnahmen – in Zukunft maschinenlesbar zu kennzeichnen (Artikel 50 Abs. 2 AIA-E).

Für viel Aufmerksamkeit hat außerdem das Thema der „Basismodelle“ gesorgt, also KI-Modelle, die so entwickelt wurden, dass sie für verschiedenste Einsatzzwecke infrage kommen. Im AIA-E ist diesen als „KI-Modelle mit allgemeinem Verwendungszweck“ ein eigenes Kapitel (Artikel 51 bis 56 AIA-E) gewidmet. Anlass für diese Vorgaben, die im ersten Entwurf 2021 noch nicht absehbar waren, waren die rasanten Entwicklungen um Modelle wie Chat GPT & Co., die Ende 2022 und im Jahr 2023 große Fortschritte gemacht haben.

Konsequenzen bei Verstößen und ein neues Amt

Bei Nichtbeachten drohen je nach Art der Verletzung des AI Acts empfindliche Geldbußen. Angesichts der weiten Verbreitung von KI-Systemen und der  Sanktionierung von Verstößen könnte die Einführung des AI Acts ähnlich disruptiv wirken wie 2016 die DS-GVO.

Das ebenfalls neu geschaffene AI Office („Amt für künstliche Intelligenz“) soll der Entwicklung von „Sachkenntnis und Kapazitäten der Union auf dem Gebiet der KI“ dienen (Art. 64 AIA-E).

Ist der AI Act zukunftssicher?

Völlig offen ist, wie sich die KI-Technologie weiterentwickelt. Vielleicht stehen Entwicklungsschritte wie der eben genannte in den nächsten Jahren bevor, deren Ausmaß nicht absehbar ist. Es ist unklar, ob der AI Act hinreichend zukunftsoffen formuliert ist, dass auch solche neuen Entwicklungen in den Anwendungsbereich fallen. Das ist aber grundsätzlich kein Fehler des AI Acts, sondern natürliche Nebenwirkung des technischen Fortschritts. Unter „KI“ hat die Menschheit sich zu Beginn des 20. Jahrhunderts noch etwas ganz anderes vorgestellt als heute. Aber das ist ja auch gerade das, was das Thema so spannend macht.

Jetzt heißt es: Aktiv werden!

Empfehlenswert ist es jedenfalls für alle, die KI entwickeln oder einsetzen, sich schon jetzt mit den Gegebenheiten des AI Acts auseinanderzusetzen und auszuloten, inwiefern die neuen Vorgaben schon in der Systementwicklung zu berücksichtigen sind. Die neuen Regeln werden nach der noch bevorstehenden Veröffentlichung im Amtsblatt der EU stufenweise anwendbar sein, je nach Bereich zwischen 6 und 36 Monaten nach Inkrafttreten.

Ebenfalls in der Pipeline ist eine neue Richtlinie zur Haftung beim Einsatz und der Bereitstellung von KI-Systemen, die in weiten Teilen Bezug nimmt auf die KI-Verordnung und im Wesentlichen eine Beweislastumkehr konstituiert.

Wir beraten Sie sehr gerne zu allen KI-Themen, sprechen Sie uns einfach an!