Blog

EU AI Act zusammengefasst: Alles, was Sie wissen müssen

Künstliche Intelligenz (KI) verändert unsere Welt rasant – von automatisierten Systemen in der Industrie bis hin zu intelligenten Anwendungen im Alltag. Um sicherzustellen, dass KI sicher, zuverlässig und transparent bleibt, kommt nun der EU AI Act ins Spiel. Die neue KI-Verordnung der EU setzt klare Richtlinien und Standards, um Verbraucher zu schützen, Innovation zu fördern und den Binnenmarkt zu stärken. In diesem Artikel finden Sie eine kompakte Zusammenfassung des EU AI Acts, seine wichtigsten Deadlines, die betroffenen Unternehmen und die Auswirkungen auf den europäischen Markt.

Autoren

Tobias
Reuter

Principal

EU AI Act Zusammenfassung – Das Wichtigste in Kürze:

Die ersten Bestimmungen des EU AI Acts gelten bereits ab dem 02. Februar 2025. Ab diesem Zeitpunkt werden bis zum 31. Dezember 2030 in regelmäßigen Abständen weitere Vorgaben in Kraft treten. Die einzelnen Termine finden Sie detailliert im Abschnitt „Deadlines“.

Der AI Act betrifft alle Anbieter, Importeure, Vertreiber und Anwender von KI-Systemen, die auf dem EU-Markt platziert oder in der EU in Betrieb genommen werden, unabhängig davon, ob sie in der EU ansässig sind oder nicht.

Neben verschiedenen Vorgaben, die die Transparenz fördern und eine einheitliche Grundlage auf EU-Ebene schaffen sollen, wurden außerdem Anforderungen an Hochrisiko-Systeme und verbotene Praktiken definiert. Diese umfassen beispielsweise manipulative oder täuschende Techniken, Social Scoring oder die Verarbeitung persönlicher und sensibler Daten zur Kategorisierung oder Identifizierung von Nutzern.

Das Gesetz soll Verbraucher schützen, indem es sicherstellt, dass KI-Systeme sicher und ethisch verwendet werden. Kleine und mittlere Unternehmen (KMU) sowie Start-ups profitieren von speziellen Anreizen, um Innovationen zu fördern und den Marktzugang zu erleichtern.

Diese Deadlines legt der EU AI Act fest

Der EU AI Act wurde am 12. Juli 2024 veröffentlicht und definiert unterschiedliche Deadlines als Anwendungsbeginn der entsprechenden Verordnungen.

12. Juli 2024

Veröffentlichung im Amtsblatt der EU, Festlegung der Termine für das Inkrafttreten der Verordnung.

12. Juli 2024

2. Februar 2025

Anwendungsbeginn des Verbots untersagter Praktiken und die der Anforderungen an die KI-Kompetenz.

2. Februar 2025

2. Mai 2025

Einzuhaltende Verhaltenskodizes für General Purpose AI (GPAI, KI für allgemeine Zwecke) sollen von der Kommission veröffentlicht werden.

2. Mai 2025

2. August 2025

Inkrafttreten der Bestimmungen für Anbieter und Betreiber von GPAI.

2. August 2025

2. August 2026

Beginn der Anwendung aller anderen Bestimmungen des EU-AI Acts (Ausnahme Art. 6 Abs. 1)

2. August 2026

2. August 2027

Ende der Übergangsfrist für GPAI-Modelle, die vor dem 2.August 2025 in Betrieb genommen wurden. Klassifizierungsregelungen zu Hochrisikosystemen treten in Kraft (Art. 6 Abs. 1)

2. August 2027

Diese Unternehmen sind vom EU AI Act betroffen

Der EU AI Act unterscheidet im EU AI Act zwischen unterschiedlichen verschiedenen Kategorien, für die jeweils unterschiedliche Richtlinien gelten. Dabei wenden sich die meisten Verpflichtungen an Anbieter, die beabsichtigen hochriskante KI-Systeme in der EU in Betrieb zu nehmen oder deren Output von Hochrisiko-KI-Systemen in der EU angewandt wird.

Betroffen sind:

  • Bieten KI-Systeme auf dem Binnenmarkt an.
  • Müssen technische Dokumentation und ein Risikomanagement bereitstellen.
  • Tragen die Hauptverantwortung für die Sicherheit und Transparenz der KI-Systeme.
  • Verwenden KI-Systeme für geschäftliche Zwecke.
  • Müssen sicherstellen, dass die Systeme korrekt verwendet werden und für Transparenz sorgen.
  • Vertreiben KI-Systeme innerhalb der EU.
  • Sind verantwortlich für die Sicherstellung der Einhaltung von Vorschriften, einschließlich der Überprüfung der Konformität.
  • Produzieren AI-Komponenten oder komplette Systeme.
  • Tragen zusätzliche Pflichten, insbesondere bei hochriskanten AI-Systemen
  • Jede Organisation außerhalb der EU, die KI-Systeme in der EU bereitstellen möchte.
  • Müssen dieselben Vorschriften einhalten wie Anbieter in der EU.

Sonderfall GPAI: Der EU AI Act unterscheidet zwischen klassischen KI-Systeme und KI für allgemeine Zwecke (GPAI). Unter GPAI fallen zum Beispiel auch die LLMs der großen Anbieter wie OpenAI, Meta, Google und Microsoft. GPAIs tragen besonders die Verantwortung, technische Unterlagen und Gebrauchsanweisungen bereitzustellen, das Urheberrecht zu schützen und für Transparenz über Trainingsdaten der KI-Modelle sorgen.  Auch Modellbewertungen, Gegentests und Cybersicherheitsmaßnahmen sind für GPAIs vorgesehen.

Auswirkungen & Maßnahmen –
So wird der EU AI Act den Binnenmarkt verändern

Einheitliche Vorschriften für die Einführung von KI-Systemen auf dem Markt oder in der EU-Dienstleistung.

Einige KI-Praktiken werden ausdrücklich untersagt. Zu diesen zählen:

  • Einsatz von manipulativen und täuschenden Techniken, die das Verhalten des Nutzers maßgeblich beeinflussen
  • Ausnutzen einer Schwachstelle einer Person (z.B. Alter, Behinderung, soziale oder wirtschaftliche Situation), um das Verhalten negativ zu beeinflussen
  • Vorhersagen oder Ableitungen anhand Persönlichkeitsmerkmale des Nutzers, die zur Benachteiligung führen oder das Verhalten negativ beeinflussen.
  • Einschätzung des Risikos, ob der Nutzer eine Straftat begehen könnte, wenn sich die Beurteilung ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung der Persönlichkeitsmerkmale stützt.
  • Erstellung oder Erweiterung von Datenbanken, die zur Gesichtserkennung und gezielten Auslesen von Daten aus dem Internet oder Videoüberwachungssystemen dienen.
  • Ableitung von Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen (mit Ausnahme von medizinischen oder sicherheitsrelevanten Gründen)
  • Kategorisierung von natürlichen Personen auf Grundlage ihrer biometrischen Daten, um Rückschlüsse auf demographische Merkmale wie ihre Ethnie, politische Meinung, Gewerkschaftszugehörigkeit, Religion oder sexuelle Ausrichtung.
  • Echtzeit-Identifizierung von Personen in öffentlichen Räumen aufgrund von biometrischen Daten

Klare Vorgaben und Pflichten für Betreiber solcher Systeme.

Anforderungen zur Sicherstellung der Transparenz bei weniger riskanten Systemen.

Anforderungen für die Markteinführung allgemeiner KI-Modelle.

Maßnahmen zur Marktüberwachung, Governance und Durchsetzung der Vorschriften.

Unterstützung von Innovationen mit besonderem Fokus auf KMU und Startups.

Unternehmen (Betreiber) haben dafür zu sorgen, dass Betroffene (z.B. Arbeitnehmer) KI Systeme sachkundig einsetzen können. 

Risikobasierte Klassifizierung von KI-Systemen

Die Risikokategorien des EU AI Acts sind ein zentraler Bestandteil der Verordnung, da sie bestimmen, welche Anforderungen und Regulierungen auf verschiedene KI-Systeme angewendet werden. Der EU AI Act teilt KI-Systeme in vier Risikokategorien ein:

Unvertretbares Risiko
(Unacceptable Risk)

Systeme, die eine klare Bedrohung für die Sicherheit, Grundrechte oder Werte der EU darstellen.

  • Subliminale oder manipulative Techniken, die das Verhalten von Nutzern beeinflussen.
  • Social Scoring (z. B. Bewertung von Personen basierend auf ihrem Verhalten oder persönlichen Merkmalen).
  • Echtzeit-Biometrie in öffentlichen Räumen (z. B. Gesichtserkennung), außer bei engen Ausnahmen.

Solche Systeme sind vollständig verboten.

Hohes Risiko
(High Risk)

Systeme, die erhebliche Auswirkungen auf die Sicherheit oder Grundrechte haben können.

  • KI-Systeme in kritischen Bereichen wie Gesundheitswesen, Verkehr, Bildung und Strafjustiz.
  • KI-Systeme bei der Migrations- und Grenzkontrolle.
  • Implementierung eines Risikomanagementsystems
  • Sicherstellung der Datenqualität
  • Transparenz und menschliche Überwachung
  • Systeme müssen vor der Markteinführung getestet und zertifiziert werden.

Begrenztes Risiko
(Limited Risk)

Systeme mit potenziellen Auswirkungen, aber geringen Einfluss.

Chatbots oder KI-Systeme, die Menschen direkt (z.B. durch Interaktionen) beeinflussen können.

Transparenzpflichten, wie zum Beispiel:

  • Benutzer müssen informiert werden, dass sie mit einem KI-System interagieren.
  • Offenlegung bestimmter Funktionalitäten.

Minimales Risiko
(Minimal or No Risk)

Systeme, die kein oder nur ein sehr geringes Risiko darstellen.

  • Keine spezifischen Anforderungen oder Vorschriften.
  • Anbieter können freiwillige Verhaltenskodizes anwenden.
  • Implementierung eines Risikomanagementsystems
  • Sicherstellung der Datenqualität
  • Transparenz und menschliche Überwachung
  • Systeme müssen vor der Markteinführung getestet und zertifiziert werden.

Sanktionen und Strafen

Wie jede Verordnung sieht auch der EU AI Act Sanktionen für Unternehmen vor, die gegen die neuen Richtlinien verstoßen. In folgender Liste sind die Strafen für entsprechende Verstöße zu entnehmen:
Verstoß gegen verbotene AI-Praktiken
Geldbuße von bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes des Unternehmens (je nachdem, welcher Betrag höher ist).
Verstoß gegen andere Verpflichtungen
Geldbuße von bis zu 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes des Unternehmens (je nachdem, welcher Betrag höher ist).
Unrichtige oder irreführende Auskünfte an Behörden
Geldbuße von bis zu 7,5 Mio. EUR oder 1 % des weltweiten Jahresumsatzes des Unternehmens (je nachdem, welcher Betrag höher ist).

Sonderregelungen

Zusätzlich zu den definierten Strafen gelten bei der Festsetzung mildernde oder erschwerende Umstände, wie beispielsweise die Schwere oder Dauer des Verstoßes oder der mögliche Schaden für Betroffene.
Für KMUs und Start-ups sind die Bußgelder auf den niedrigsten Betrag bzw. den niedrigsten Prozentsatz begrenzt.

Die Gewinner des EU AI Acts

Startups und KMUs, die sich auf ethische KI-Anwendungen konzentrieren, profitieren besonders von den im EU AI Act vorgesehenen Fördermaßnahmen, die Innovation und Entwicklung unterstützen. Darüber hinaus schaffen die Fördermaßnahmen und Regulierungen nicht nur Anreize für Innovationen, sondern legen auch die Grundlage für einen einheitlichen Rechtsrahmen in Europa, der den Binnenmarkt stärkt.

Der Verbraucherschutz steht dabei ganz oben: Verbraucher und Anwender gewinnen durch die neuen Transparenzpflichten, die Vertrauen in KI-Systeme fördern und eine sichere sowie nachvollziehbare Nutzung ermöglichen.

Die Transparenzpflichten tragen zudem zu einem faireren Wettbewerb bei, indem sie sicherstellen, dass alle Anbieter gleiche Vorgaben erfüllen müssen. Langfristig könnten dadurch auch KMUs neue Marktchancen erhalten, insbesondere in einem Umfeld, das ethische und menschenzentrierte KI priorisiert.

Zusammenfassung: Mehr Sicherheit und Vertrauen durch den EU AI Act

Der EU AI Act ist ein Meilenstein in der Regulierung von KI-Systemen und setzt einen klaren Fokus auf Sicherheit, Transparenz und Ethik. Mit harmonisierten Vorschriften und gezielten Fördermaßnahmen schafft er nicht nur Vertrauen bei Verbrauchern, sondern unterstützt auch die Wettbewerbsfähigkeit von Unternehmen, insbesondere von KMUs und Startups. Für Unternehmen bietet der Act eine Chance, sich durch konforme und innovative Lösungen nachhaltig auf dem Markt zu etablieren.

Der EU AI Act verändert also die Spielregeln – um wettbewerbsfähig zu bleiben unterstützen unsere Experten Sie gerne dabei, die neuen Vorschriften zu verstehen und KI sicher, effizient und regelkonform in Ihrem Unternehmen einzusetzen.

Ihr Ansprechpartner

Tobias Reuter Ventum Consulting
Tobias
Reuter

Principal und Experte für AI Scaling

Nach oben scrollen