- Veröffentlichung:
17.03.2025 - Lesezeit: 7 Minuten
Die Risikoklassen des EU AI Acts
Die europäische Verordnung rund um künstliche Intelligenz (EU AI ACT) beschließt Richtlinien und Standards, um die Transparenz und Sicherheit von KI-Systemen zu steigern, Verbraucher zu stärken und Innovationen im Binnenmarkt zu fördern. Die ersten Bestimmungen des EU AI Acts gelten bereits seit dem 02. Februar 2024 – ab diesem Zeitpunkt werden bis zum 31. Dezember 2030 in regelmäßigen Abständen weitere Vorgaben in Kraft treten. Welche KI-Systeme von welchen Vorgaben betroffen sind, regeln sogenannte „Risikoklassen“.
Was sind Risikoklassen?
Die Risikokategorien des EU AI Acts sind ein zentraler Bestandteil der Verordnung, da sie bestimmen, welche Anforderungen und Regulierungen auf verschiedene KI-Systeme angewendet werden. Die Risikoklassen sollen eine differenzierte Anwendung der Bestimmungen festlegen, um die Strenge der Auswirkungen nach Gefahrenpotenzialen und Sicherheitsrisiken zu regulieren.
Der EU AI Act teilt KI-Systeme in vier Risikokategorien ein:
- Verbotene KI
- Hohes Risiko
- Geringes Risiko
- Minimales Risiko
Die Risikoklassen im Detail –
Wann ist KI verboten, eingeschränkt oder frei nutzbar?
Um KI-Systeme individuell betrachten zu können, werden diese in Risikoklassen unterteilt. Dabei gilt: Je höher das potenzielle Risiko ist, desto mehr Verantwortung müssen die Anbieter, Betreiber und Händler tragen.
Verbotene KI-Systeme – Inakzeptables Risiko
Diese Kategorie umfasst KI-Systeme, die eine erhebliche Gefahr für Grundrechte, Sicherheit oder demokratische Prinzipien darstellen. Aufgrund ihres potenziellen Schadens sind sie gemäß dem AI Act vollständig verboten.
Verboten sind Systeme, die folgende Praktiken nutzen:
- Einsatz von manipulativen und täuschenden Techniken, die das Verhalten des Nutzers maßgeblich beeinflussen
- Ausnutzen einer Schwachstelle einer Person (z.B. Alter, Behinderung, soziale oder wirtschaftliche Situation), um das Verhalten negativ zu beeinflussen
- Vorhersagen oder Ableitungen anhand Persönlichkeitsmerkmale des Nutzers, die zur Benachteiligung führen oder das Verhalten negativ beeinflussen
- Einschätzung des Risikos, ob der Nutzer eine Straftat begehen könnte, wenn sich die Beurteilung ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung der Persönlichkeitsmerkmale stützt
- Erstellung oder Erweiterung von Datenbanken, die zur Gesichtserkennung und gezielten Auslesen von Daten aus dem Internet oder Videoüberwachungssystemen dienen
- Ableitung von Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen (mit Ausnahme von medizinischen oder sicherheitsrelevanten Gründen)
- Kategorisierung von natürlichen Personen auf Grundlage ihrer biometrischen Daten, um Rückschlüsse auf demographische Merkmale wie ihre Ethnie, politische Meinung, Gewerkschaftszugehörigkeit, Religion oder sexuelle Ausrichtung
- Echtzeit-Identifizierung von Personen in öffentlichen Räumen aufgrund von biometrischen Daten
- Der Einsatz dieser Systeme ist innerhalb der EU grundsätzlich verboten
- Anbieter und Betreiber dürfen diese Technologien weder entwickeln, vertreiben noch anwenden
- Social-Scoring-Systeme, die eine Einstufung basierend auf sozialem Verhalten vornehmen und Personen benachteiligen können
- Biometrische Echtzeit-Fernidentifizierungssysteme, die Personen in öffentlichen Räumen überwachen
- Manipulative KI, die Menschen unterschwellig beeinflusst oder gezielt täuscht
- KI-gestützte Überwachungswerkzeuge, die anlasslos personenbezogene Daten zur Kategorisierung nutzen
Hochrisiko-KI-Systeme
Diese Kategorie umfasst KI-Systeme, die erhebliche Auswirkungen auf Menschen haben – zum Beispiel, indem sie wichtige Entscheidungen treffen oder sicherheitskritische Prozesse steuern. Sie sind nicht verboten, unterliegen aber strengen gesetzlichen Vorgaben, um Risiken zu minimieren.
Ein KI-System gilt als hochriskant, wenn es:
- in sensiblen Bereichen eingesetzt wird, z. B. bei Behörden, in der Strafverfolgung oder im Personalwesen
- wichtige Entscheidungen über Menschen trifft, z. B. ob jemand einen Kredit oder eine Arbeitsstelle erhält
- als Teil eines sicherheitskritischen Produkts fungiert, das bereits EU-Vorgaben erfüllen muss (z. B. eine KI in autonomen Fahrzeugen oder medizinischen Geräten)
- direkt die Sicherheit von Personen beeinflusst, z. B. durch selbstständige Steuerung oder Entscheidungsfindung im Straßenverkehr
Unternehmen, die Hochrisiko-KI-Systeme anbieten oder nutzen, müssen:
- Risiken im Rahmen eines Risikomanagementsystems bewerten und minimieren, um sicherzustellen, dass die KI keine Schäden verursacht
- Anforderungen an die Datenverwaltung erfüllen, insbesondere bei Test- und Trainingsdaten
- eine lückenlose Dokumentation des Risikomanagements und der Funktionsweise der KI (Technische Dokumentation) erstellen
- menschliche Kontrolle sicherstellen, um Fehlentscheidungen zu vermeiden,
- die KI in der EU registrieren und eine Konformitätsprüfung durchführen
- Datenschutz- und Sicherheitsmaßnahmen einhalten, insbesondere wenn die KI mit sensiblen Informationen arbeitet
- Transparenz & Informationspflicht gegenüber der Nutzer erfüllen
- Bewerbermanagement-KI, die entscheidet, wer zu einem Vorstellungsgespräch eingeladen wird
- Kreditbewertungs-KI, die bestimmt, ob jemand einen Kredit erhält
- Gesichtserkennungssysteme in der Strafverfolgung, die Verdächtige identifizieren
- KI-gestützte Steuerung kritischer Infrastruktur, z. B. von Stromnetzen oder Verkehrsmanagementsystemen
- Autonome Fahr- und Assistenzsysteme, die aktiv ins Fahrgeschehen eingreifen
Geringe Risiken + spezielle Transparenzpflichten
Diese Kategorie umfasst KI-Systeme, die keine unmittelbare Gefahr für Menschen darstellen, aber potenziell das Verhalten von Nutzern beeinflussen oder die Wahrnehmung von Informationen verändern können. Daher gelten für sie besondere Transparenzanforderungen.
Ein KI-System wird als „geringes Risiko“ eingestuft, wenn es:
- zur Interaktion mit Menschen bestimmt ist, z. B. als Chatbot oder Sprachassistent
- digitale Inhalte erstellt oder verändert, z. B. Deepfakes oder Bildgeneratoren,
- Emotionserkennung oder biometrische Kategorisierung nutzt, um Rückschlüsse auf persönliche Merkmale zu ziehen
- als allgemeines KI-Modell (General Purpose AI, GPAI) verwendet wird, also für viele verschiedene Anwendungen trainiert wurde
- Transparenzpflichten: Nutzer müssen klar darüber informiert werden, dass sie mit einer KI interagieren (z. B. durch Kennzeichnungen bei Chatbots oder Deepfakes)
- Offenlegungspflichten: Unternehmen müssen öffentlich darlegen, wie die KI trainiert wurde und welche Datensätze sie verwendet
- Keine zusätzlichen Einschränkungen: Es gibt keine strengen Sicherheitsauflagen wie bei Hochrisiko-KI, aber freiwillige Verhaltenskodizes werden empfohlen
- Chatbots, die Kundenanfragen beantworten
- Emotionserkennungssysteme, die Stimmungen analysieren (z. B. für Marketingzwecke)
- Bild- und Videoerstellungssysteme, z. B. Deepfake-Generatoren
- Virtuelle Assistenten, die Spracheingaben verarbeiten (z. B. Siri oder Alexa)
Minimales Risiko (ohne Einschränkungen)
Diese Kategorie umfasst KI-Systeme, die kein erkennbares Risiko für Menschen oder deren Rechte darstellen. Da sie keine sicherheitskritischen Funktionen übernehmen oder Entscheidungen über Personen treffen, gibt es keine besonderen gesetzlichen Anforderungen für ihre Nutzung.
Ein KI-System gilt als „minimales Risiko“, wenn es:
- keine direkten Auswirkungen auf die Rechte oder Sicherheit von Personen hat
- ausschließlich unterstützende Funktionen erfüllt, z. B. zur Automatisierung einfacher Aufgaben
- nicht in sensiblen Bereichen wie Strafverfolgung, Gesundheitswesen oder Personalmanagement eingesetzt wird
- Keine rechtlichen Einschränkungen oder Prüfpflichten
- Unternehmen können freiwillig ethische Richtlinien oder Verhaltenskodizes einführen
- Eine technische Dokumentation und Risikobewertung ist sinnvoll, aber nicht vorgeschrieben
- Spam-Filter, die automatisch unerwünschte E-Mails blockieren
- Predictive Maintenance (vorausschauende Wartung), die den Verschleiß von Maschinen erkennt
- Videospiel-KI, die das Verhalten von Charakteren oder Gegnern steuert
EU AI Act Compliance – So können Sie sich vorbereiten
Der erste Schritt zur EU AI Act Compliance ist zu verstehen, ob und in welchem Umfang man von den neuen Vorschriften betroffen ist. Unternehmen sollten sich frühzeitig mit den Risikoklassen und gesetzlichen Anforderungen auseinandersetzen, um mögliche Anpassungen an ihren KI-Systemen rechtzeitig vorzunehmen. Ein fundiertes Wissen über die neuen Vorgaben hilft nicht nur dabei, rechtliche Risiken zu minimieren, sondern auch Chancen zu erkennen, die sich aus einer regelkonformen KI-Nutzung ergeben.
Falls Sie sich unsicher sind, welche Vorgaben für Ihr Unternehmen gelten, werfen Sie einen Blick in unseren ausführlichen Ratgeber, der Ihnen einen klaren Überblick über die wichtigsten Pflichten und Konsequenzen bietet.
Fazit: Die Risikoklassen des EU AI Acts –
klare Regeln für den KI-Einsatz
Der EU AI Act schafft mit seiner Risikoklassifizierung einen klaren Rahmen für den Einsatz von Künstlicher Intelligenz in der EU. Während verbotene KI-Systeme nicht genutzt werden dürfen, unterliegen Hochrisiko-Anwendungen strengen Anforderungen an Transparenz, Sicherheit und Dokumentation. KI mit geringem Risiko erfordert vor allem eine klare Kennzeichnung, während minimales Risiko ohne Einschränkungen genutzt werden kann.
Diese differenzierte Abstufung stellt sicher, dass nicht jede KI-Anwendung überreguliert wird. Stattdessen konzentriert sich der AI Act auf jene Systeme, die eine hohe Verantwortung tragen und potenziell tief in das Leben von Menschen eingreifen. Dadurch bleibt genügend Raum für Innovation, während gleichzeitig der Schutz von Verbrauchern und Unternehmen gewährleistet wird.
Für Unternehmen bedeutet das: Frühzeitige Vorbereitung ist entscheidend. Wer KI-Technologien entwickelt oder einsetzt, sollte genau prüfen, in welche Kategorie seine Systeme fallen und welche Pflichten daraus resultieren. So lässt sich nicht nur rechtliche Sicherheit gewährleisten, sondern auch das Vertrauen in KI-Anwendungen stärken.
Ihr Ansprechpartner
