News

EU AI Act 2026: Auf was sich Unternehmen 2026 vorbereiten müssen

Warum 2026 zum entscheidenden Jahr für den EU AI Act wird

2026 wird zu einem zentralen Jahr der KI-Regulierung in Europa. Neben dem Stichtag am 2. August 2026, ab dem sämtliche verbleibenden Bestimmungen des EU AI Acts gelten, wird 2026 auch ein Digitales Omnibus-Paket erwartet, das die Umsetzung der Verordnung vereinfachen soll. Dieses Paket schlägt gezielte Anpassungen vor, um die Pflichten klarer, handhabbarer und innovationsfreundlicher zu gestalten. Dazu gehören ein begrenzter Anwendungszeitrahmen für Hochrisiko-Regeln, stärkere Befugnisse des AI Office, erweiterte Vereinfachungen für KMU sowie Maßnahmen zur Kompetenzförderung und besseren Unterstützung von Unternehmen.
Die Übergangsfristen laufen seit Mai 2024, und mit 2026 beginnt die vollständige Anwendung fast aller regulatorischen Pflichten – mit Ausnahme von Artikel 6 Absatz 1, der erst 2027 wirksam wird. Für Unternehmen bedeutet das: KI-Systeme müssen spätestens ab August 2026 risikobasiert eingestuft, dokumentiert und nach den entsprechenden Anforderungen betrieben werden.

Top Consultant

Autor

Tobias Reuter

Principal

Zufriedene Kunden aus Mittelstand und Konzernen

Die wichtigsten Deadlines und Phasen 2026 im Überblick

Zeitplan 2026: Die wichtigsten Termine des EU AI Acts

Die Europäische Kommission legt Leitlinien zur praktischen Umsetzung von Artikel 6 vor. Dazu gehört auch ein Plan für das Post-Market-Monitoring von Hochrisiko-KI-Systemen.

Betroffene Inhalte: Artikel 6 Absatz 5, Artikel 72 Absatz 3.

Der Hauptteil des EU AI Acts tritt in Kraft. Ab diesem Datum gelten alle verbleibenden Bestimmungen der Verordnung, mit Ausnahme von Artikel 6 Absatz 1.

Welche Regelungen das sind, erklären wir im Absatz „Welche Pflichten ab August 2026 vollständig greifen“.

Betroffene Inhalte: Artikel 113.

Die Regelung für Betreiber bereits bestehender Hochrisiko-KI-Systeme wird wirksam. Sie betrifft Systeme, die vor diesem Datum in Betrieb waren und ab dem Stichtag wesentliche Änderungen an ihrem Design erfahren. Nur in diesen Fällen gilt die volle Anwendung der Hochrisiko-Anforderungen.

Betroffene Inhalte: Artikel 111 Absatz 2.

Mitgliedstaaten müssen mindestens eine nationale KI-Regulierungs-Sandbox eingerichtet haben. Diese Sandbox soll ab diesem Datum betriebsbereit sein und kontrollierte Testumgebungen für KI-Innovationen ermöglichen.

Betroffene Inhalte: Artikel 57 Absatz 1.

Spätere Deadlines

  • 2. August 2027 – Artikel 6 Absatz 1 wird für alle Unternehmen, die KI Modelle nutzen, angewendet.
  • 2. August 2027 – Es endet die Übergangsfrist für GPAI-Modelle (General Purpose AI, dazu zählen zum Beispiel LLMs von OpenAI, Meta, Google, etc.).

2. August 2028 – Regelmäßige Bewertungsperioden der EU-Kommissionen zum Annex, Verhaltenskodizes und Bericht zu energieeffizienten GPAI-Modellen beginnen

(Stand: Dez. 2025)

  • 1. August 2029 – Ablauf delegierter Befugnisse der Kommission
  • Ab 2. August 2029 – Regelmäßiger Evaluierungsbericht zur gesamten Verordnung

(Stand: Dez. 2025)

  • 2. August 2030 – Hochrisiko-KI von Anbietern und Nutzern der Systeme muss im öffentlichen Sektor vollständig compliant sein. Sie müssen alle regulatorischen Anforderungen umgesetzt haben.
  • 31. Dezember 2030 – Anpassung von Betreibern großer IT-Systeme muss vollständig abgeschlossen und die Compliance nachgewiesen werden.

2. August 2031 – Bericht über die Umsetzung durch EU-Kommission.

(Stand: Dez. 2025)

Welche Pflichten ab August 2026 vollständig greifen

Mit dem 2. August 2026 treten die verbleibenden Bestimmungen des EU AI Acts in Kraft.
Ab diesem Zeitpunkt gelten für Unternehmen Anforderungen, die sich aus den Risikoklassen der jeweiligen KI-Systeme ableiten. Je höher ein KI-System eingestuft wird, desto größer ist der Einfluss auf die Grundrechte, Sicherheit oder demokratische Prinzipien. Aufgrund der hohen Verantwortung und potenziellen Schaden sind diese Systeme von strengeren Vorschriften betroffen.
Die Pflichten müssen also nach dem Prinzip der Selbstklassifizierung eingehalten werden. Kontrollen der Einhaltung des EU AI Acts geschehen Stichprobenartig oder bei Beschwerden – ausgenommen davon sind Hochrisiko-KI-Systeme.

Die Pflichten nach Risikoklassen:

01

Verbotene KI-Systeme mit inakzeptablen Risiko

  • Umfasst KI-Systeme, die eine erhebliche Gefahr für Grundrechte, Sicherheit oder demokratische Prinzipien darstellen.
  • Folgende Praktiken dürfen nicht genutzt werden:
    • Manipulative oder täuschende KI-Techniken
    • Ausnutzen persönlicher Schwachstellen
    • Profiling oder Vorhersagen anhand persönlicher Merkmale
    • Straftatprognosen allein durch Persönlichkeitsprofile
    • Aufbau von Datenbanken zur Gesichtserkennung
    • Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
    • Biometrische Kategorisierung nach sensiblen Merkmalen
    • Echtzeit-Identifizierung in öffentlichen Räumen

02

KI-Systeme mit hohem Risiko

  • Umfasst KI-Systeme, die erhebliche Auswirkungen auf Menschen haben, indem sie wichtige Entscheidungen (Kreditvergabe, Bewerbungsprozesse, roboterassistierte Chirurgie etc.) treffen oder sicherheitskritische Prozesse (z.B. im Straßenverkehr oder der Strafverfolgung) steuern.
  • Unternehmen, die Hochrisiko-KI-Systeme anbieten oder nutzen, müssen:
    • die KI in der EU registrieren und eine Konformitätsprüfung durchführen
    • Risiken im Rahmen eines Risikomanagementsystems bewerten und minimieren
    • Anforderungen an die Datenverwaltung erfüllen, insbesondere bei Trainings- und Testdaten
    • eine vollständige technische Dokumentation erstellen (Funktionsweise, Risikomanagement, Datenbasis)
    • menschliche Kontrolle sicherstellen, um Fehlentscheidungen zu vermeiden
    • Datenschutz- und Sicherheitsmaßnahmen einhalten, insbesondere bei sensiblen Informationen
    • Transparenz- und Informationspflichten gegenüber Nutzern erfüllen

03

KI-Systeme mit niedrigem Risiko

  • Umfasst KI-Systeme, die keine unmittelbare Gefahr für Menschen darstellen, aber potenziell das Verhalten von Nutzern beeinflussen oder die Wahrnehmung von Informationen verändern können.
  • Dazu zählen zum Beispiel Chatbots, die zur Interaktion mit Menschen bestimmt ist, KI die digitale Inhalte erstellt oder verändert (z. B. Deepfakes, Bildgeneratoren), Emotionserkennung oder biometrische Kategorisierung nutzt, um persönliche Merkmale abzuleiten
  • Unternehmen, die KI-Systemen mit niedrigem Risiko anbieten oder nutzen, müssen folgende Punkte beachten:
    • Transparenzpflichten: Nutzer müssen klar erkennbar informiert werden, dass sie mit einer KI interagieren oder KI-generierte Inhalte sehen
    • Offenlegungspflichten: Unternehmen müssen öffentlich darlegen, wie die KI trainiert wurde und welche Datensätze verwendet wurden
    • freiwillige Verhaltenskodizes werden empfohlen

04

KI-Systeme mit minimalen Risiko

  • Umfasst KI-Systeme, die kein erkennbares Risiko für Menschen oder deren Rechte darstellen.
  • Unternehmen können freiwillig ethische Richtlinien oder Verhaltenskodizes einführen
  • Eine technische Dokumentation und Risikobewertung sind sinnvoll, aber nicht vorgeschrieben

To-Do Liste für EU AI Act 2026

Um bis August 2026 compliant zu sein, brauchen Unternehmen einen strukturierten Fahrplan. Die folgende Checkliste zeigt erste Ansätze – von der Bestandsaufnahme über die Risikoklassifizierung bis zur Dokumentation. Dabei gilt wie bei allen Compliance-Maßnahmen – je früher Sie anfangen, desto besser sind Sie vorbereitet.
  • Alle eingesetzten KI-Systeme im Unternehmen identifizieren
  • Auch zugekaufte, eingebettete oder in SaaS-Tools enthaltene KI-Funktionen erfassen
  • Zweck, Einsatzbereich und Nutzerkreis jedes Systems dokumentieren
  • Prüfen, in welche Risikoklassifizierung die jeweiligen Systeme fallen
  • Klassifizierung dokumentieren (kurze Begründung je System)

Für Hochrisiko-KI:

  • Risikomanagementsystem einrichten
  • Datenqualität und Data Governance prüfen
  • Technische Dokumentation erstellen
  • Monitoring-Prozesse definieren
  • Menschliche Aufsicht sicherstellen
  • Konformitätsbewertung durchführen (intern oder durch Notified Body)
  • Registrierung in der EU-Datenbank vornehmen

Für geringe Risiken:

  • Transparenzhinweise für Nutzer bereitstellen
  • Kennzeichnung KI-generierter Inhalte umsetzen
  • Offenlegung der Trainingsdatentypen sicherstellen

Für minimale Risiken:

  • Keine Pflichten – freiwillige Dokumentation prüfen
  • Interne Verantwortliche für KI-Compliance benennen
  • Governance-Struktur dokumentieren
  • Prozesse für Updates, Modelländerungen und Überwachung festlegen
  • Prüfen, ob externe Anbieter ihre eigenen AI-Act-Pflichten erfüllen
  • Technische Dokumentation und Compliance-Angaben anfordern
  • Vertragliche Nachweise und Zusicherungen absichern
  • GPAI-Modelle auf korrekte Dokumentation und Offenlegung prüfen
  • Nutzer über KI-Einsatz informieren
  • Mechanismen zur Kennzeichnung automatisierter Inhalte integrieren
  • interne Schulungen für Mitarbeitende durchführen
  • Abgleich mit DSGVO durchführen
  • Technische und organisatorische Maßnahmen aktualisieren
  • Datenflüsse und Trainingsdatensätze dokumentieren
  • Cybersicherheitsstandards prüfen
  • Alle Nachweise, Bewertungen und Prozesse zentral ablegen
  • Auditfähigkeit sicherstellen
  • Verantwortlichkeiten dokumentieren

Wo die größten Risiken & Herausforderungen 2026 entstehen

Auch mit einer strukturierten Vorbereitung kennen wir aus Erfahrung kritische Punkte, an denen Unternehmen häufig scheitern. Die Komplexität des EU AI Acts zeigt sich vor allem dort, wo rechtliche Anforderungen auf die technische Umsetzung treffen. Die folgenden Bereiche bergen ein hohes Risiko für Compliance-Verstöße:

Falsche Einstufung der KI-Systeme

Eine unzutreffende Risikoklassifizierung führt dazu, dass die Anforderungen des EU AI Acts nicht angewendet werden. Das birgt die Gefahr von Compliance-Verstößen und kann im Ernstfall den Einsatz eines Systems nicht sicherstellen.

Fehlende oder unvollständige Dokumentation

Ohne eine nachvollziehbare Dokumentation lassen sich weder die Funktionsweise noch eine Risikoanalyse eines KI-Systems prüfen. Dies erschwert insbesondere die Konformitätsbewertung von Hochrisiko-Systemen und erschwert die Nachvollziehbarkeit im Prüffall.

Unklare Verantwortlichkeiten

Wenn nicht klar definiert ist, wer im Unternehmen für KI-Compliance zuständig ist, entstehen Lücken in den Prozessen und der Kontrolle. Dadurch steigt das Risiko, dass Anforderungen übersehen oder nicht rechtzeitig umgesetzt werden.

Technische Systeme ohne CE-Konformität

KI-Systeme mit hohem Risiko müssen die geltenden EU-Produktsicherheitsvorgaben erfüllen. Fehlt die CE-Konformität, die nach der Registrierung des KI-Systems in einer KI-Datenbank erhalten wird, darf das Produkt weder in Verkehr gebracht noch betrieben werden. Die Registrierung des KI-Systems obliegt dem Anbieter des Systems.

Bußgelder bei Verstößen

Der EU AI Act sieht spürbare Sanktionen vor, wenn Unternehmen gegen zentrale Pflichten verstoßen. Die Höhe der Bußgelder orientiert sich an der Schwere des Verstoßes und kann erhebliche finanzielle Auswirkungen haben – bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes des Unternehmens sind jedoch möglich (je nachdem, welcher Betrag höher ist).

Ihr Ansprechpartner für den EU AI Act

Tobias Reuter Ventum Consulting
Tobias
Reuter

Principal

Ausblick nach 2026

2026 wird zum zentralen Jahr für die Umsetzung des EU AI Acts. Ab dem 2. August gelten nahezu alle verbleibenden Bestimmungen, sodass Unternehmen ihre KI-Systeme korrekt einstufen, dokumentieren und entlang der gesetzlichen Vorgaben betreiben müssen. Die größten Herausforderungen entstehen dort, wo Verantwortlichkeiten fehlen, Dokumentation unvollständig ist oder technische Systeme nicht den vorgesehenen Standards entsprechen. Wer frühzeitig Strukturen schafft, Risiken bewertet und transparente Prozesse etabliert, schafft eine belastbare Grundlage für rechtskonforme und verantwortungsvolle KI-Anwendungen.
Gleichzeitig kann das erwartete Omnibus-Paket der EU ein entscheidender Faktor werden. Es sieht nicht nur eine Verschiebung der Deadlines (auch 2026) vor, sondern auch Vereinfachungen, Klarstellungen und strukturelle Anpassungen, die einzelne Vorgaben verändern oder neu ausrichten. Damit bleibt 2026 ein Jahr, in dem Unternehmen sowohl bestehende Regelungen umsetzen als auch mögliche Anpassungen im Blick behalten müssen.

Jetzt unverbindliches Erstgespräch vereinbaren

TISAX und ISO-Zertifizierung nur für den Standort in München

Ihre Nachricht




    *Pflichtfeld

    Bitte beweise, dass du kein Spambot bist und wähle das Symbol Baum.

    Featured Insights

    Nach oben scrollen