EU AI Act für den Mittelstand 2026: Was Entscheider jetzt wissen müssen

April 24, 2026 · 8 min read · eu-ai-act, ki-verordnung, compliance, mittelstand, dsgvo, dach
EU AI Act für den Mittelstand 2026: Was Entscheider jetzt wissen müssen

Der EU AI Act ist seit 2024 beschlossen. Die Umsetzung läuft seit 2025 in Stufen, und die nächste große Deadline ist der 2. August 2026. Viele Mittelständler im DACH-Raum haben den Stichtag auf dem Schirm, aber kein klares Bild davon, was konkret zu tun ist. Dieser Guide ist die Praktiker-Version, geschrieben aus Sicht eines AI Automation Engineers, der KI-Systeme in Produktion baut. Keine Rechtsberatung, sondern eine Einordnung, die hilft, die richtigen Fragen zu stellen.

Vorweg: die meisten KI-Automatisierungsprojekte im Mittelstand sind nicht Hochrisiko. Wer in Backoffice, CRM, Content-Workflows oder interner Dokumenten-Verarbeitung automatisiert, hat typischerweise niedrige Pflichten. Die scharfen Anforderungen treffen Systeme, die über Menschen entscheiden (Personal, Kredit, Versicherung) oder in sicherheitskritischen Produkten eingebettet sind.

Der Stufenplan in Kürze

Der AI Act kommt in vier Wellen. Die Daten sind fix und gelten EU-weit.

DatumWas gilt
2. Februar 2025Verbotene KI-Praktiken und Pflicht zur KI-Kompetenz
2. August 2025GPAI-Pflichten für Modell-Provider, Notifizierungsstellen, Governance, Strafen
2. August 2026Hochrisiko-Anforderungen, Transparenzpflichten, Großteil des restlichen Gesetzes
2. August 2027Artikel 6 Absatz 1 (Hochrisiko-Einstufung nach Anhang I) und Legacy-GPAI-Modelle

Für viele Mittelständler ist der 2. August 2026 der relevante Stichtag, weil dann Transparenzpflichten und Hochrisiko-Anforderungen greifen.

Quellen für die Daten: Implementation Timeline, artificialintelligenceact.eu und AI Act Policy-Seite der EU-Kommission. Beide auf den offiziellen Text rückverifizierbar.

Was seit Februar 2025 bereits gilt

Zwei Dinge sind seit Februar 2025 scharfgestellt und betreffen jeden, der KI einsetzt.

Verbotene KI-Praktiken. Social Scoring, manipulatives Targeting, Predictive Policing ohne individualisierten Verdacht, Echtzeit-biometrische Identifikation im öffentlichen Raum außer engen Ausnahmen, Emotions-Erkennung am Arbeitsplatz und in Bildungseinrichtungen. Wer so etwas baut oder betreibt, ist seit Februar 2025 angreifbar.

KI-Kompetenz (Article 4). Unternehmen, die KI einsetzen oder anbieten, müssen sicherstellen, dass die involvierten Mitarbeitenden über ausreichende KI-Kompetenz verfügen. Das ist keine formale Zertifizierungspflicht, sondern eine Nachweispflicht, dass die Leute wissen, was sie tun. In der Praxis: dokumentierte Schulungen, interne Leitfäden, klare Rollen. Wer KI-Tools im Team rollt, braucht eine kurze schriftliche Einweisung und eine Ansprechperson.

Für die meisten Mittelständler ist das kein großer Eingriff, solange kein offensichtlich verbotenes System im Einsatz ist. Die Kompetenz-Anforderung wird man typischerweise durch ein halbtägiges internes Schulungsformat und ein kurzes KI-Nutzungs-Memo erfüllen.

Was seit August 2025 gilt: GPAI

GPAI steht für General-Purpose AI. Das sind die großen Basismodelle: GPT, Claude, Gemini, Mistral Large, Llama, DeepSeek. Seit 2. August 2025 gelten Pflichten für die Provider dieser Modelle, nicht für die Nutzer.

Was Provider müssen: Technische Dokumentation, Zusammenfassung der Trainingsdaten, Einhaltung des EU-Urheberrechts, Kooperation mit dem AI Office. Provider mit systemischem Risiko (derzeit vor allem Modelle mit massiver Rechenleistung im Training) haben zusätzliche Evaluations-, Melde- und Sicherheitspflichten.

Was das für Sie als Nutzer heißt: Der Provider liefert Ihnen die Dokumentation, die Sie für die eigene Compliance-Akte brauchen. Anthropic, OpenAI, Google und Mistral veröffentlichen diese Dokumente inzwischen systematisch. Holen Sie sich bei der Provider-Auswahl das entsprechende Model-Card-Paket plus Data-Processing-Agreement.

Der Provider-Wechsel ist dadurch einfacher geworden: Sie tauschen die API, die dokumentarische Basis bleibt vergleichbar. Das ist wichtig für Sourcing-Entscheidungen, die nicht auf Jahre festgeschrieben werden sollen.

Der August-2026-Block: Hochrisiko plus Transparenz

Dies ist die Deadline, die den meisten Mittelständlern auf den Nägeln brennt.

Hochrisiko-Systeme

Der AI Act listet in Anhang III die Einsatzfelder, die als Hochrisiko gelten. Die Kategorien sind eng definiert, nicht beliebig erweiterbar.

Die Kategorien in Kurzform:

  • Biometrische Identifikation, soweit nicht verboten
  • Kritische Infrastruktur (Energie, Verkehr, Wasser, digitale Infrastruktur)
  • Allgemeine und berufliche Bildung, insbesondere Bewertung und Zugang
  • Beschäftigung, Personalwirtschaft und Zugang zu selbstständiger Tätigkeit, inklusive Recruiting, Leistungsbewertung, Zuweisung
  • Zugang zu öffentlichen und privaten wesentlichen Dienstleistungen, etwa Kreditwürdigkeitsprüfung, Versicherungs-Risikobewertung, Notfalldienste-Priorisierung
  • Strafverfolgung, soweit nicht verboten
  • Migration, Asyl, Grenzkontrolle
  • Justiz und demokratische Prozesse

Wenn Sie ein KI-System in einem dieser Bereiche betreiben oder anbieten, gelten strenge Anforderungen: Risikomanagement, Daten-Governance, technische Dokumentation, Protokollierung, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit, Konformitätsbewertung.

Für die meisten Automatisierungsprojekte, die ich bei Mittelständlern sehe (Angebote erstellen, Posteingang klassifizieren, Kunden-Support-Routing, interne Dokumente zusammenfassen, CRM-Daten anreichern), greift keine dieser Kategorien. Das ist die gute Nachricht.

Wo die Einordnung tückisch wird

Einige Projekte leben an der Grenze. Beispiele, bei denen Sie genauer prüfen müssen:

  • KI-gestütztes Recruiting oder Leistungsbewertung von Mitarbeitenden → Hochrisiko (Anhang III Ziffer 4)
  • Kredit-Scoring oder Versicherungs-Risikobewertung → Hochrisiko (Anhang III Ziffer 5)
  • Studierenden- oder Prüfungsbewertung → Hochrisiko (Anhang III Ziffer 3)
  • Produktkomponenten in Medizinprodukten, Maschinen, Fahrzeugen → Hochrisiko nach Produktsicherheitsrecht (Anhang I)

Wenn Sie einer dieser Ecken anfahren, ist ein Compliance-Projekt mit realem Aufwand fällig. Rechnen Sie mit mehreren Personenmonaten für Aufbau, Dokumentation und externe Prüfung.

Transparenzpflichten (nicht Hochrisiko, aber wichtig)

Unabhängig von der Hochrisiko-Klassifikation gelten ab August 2026 Transparenzpflichten für bestimmte Systeme:

  • KI-Systeme, die direkt mit Menschen interagieren (Chatbots, Voice-Agents): Nutzer müssen wissen, dass sie mit KI reden
  • Deepfakes und KI-generierte Medien: Kennzeichnungspflicht
  • Emotions- oder Biometrie-Kategorisierungssysteme: Hinweis an betroffene Personen
  • Synthetisch erzeugter Text, der Öffentlichkeitsinteresse berührt: Kennzeichnung, mit engen Ausnahmen

Für einen Kunden-Support-Bot heißt das: ein klarer Hinweis, dass ein automatisiertes System antwortet, und eine Eskalations-Option zu einem Menschen. Keine Raketenwissenschaft, aber ein Formulierungs-Thema.

Wie Sie Ihr Projekt einsortieren

Ein pragmatischer Prüfpfad, den ich in Kick-off-Gesprächen durchgehe, bevor Budget fließt.

  1. Fällt der Einsatzzweck unter Anhang III? Prüfen Sie die acht Kategorien. Wenn nein, gehen Sie weiter. Wenn ja, ist es sehr wahrscheinlich Hochrisiko, und Sie brauchen einen formalen Prozess.
  2. Ist das System ein Sicherheitsbauteil eines Produkts unter Anhang I? Typisch für Maschinen, Medizinprodukte, Spielzeug, Fahrzeuge. Wenn ja, gilt der bisherige CE-Prozess plus AI Act.
  3. Interagiert das System direkt mit Menschen, erzeugt es Medien oder klassifiziert es Emotionen oder Biometrie? Wenn ja, Transparenzpflichten beachten.
  4. Werden personenbezogene Daten verarbeitet? Unabhängig vom AI Act ist die DSGVO relevant. Datenfluss dokumentieren, Rechtsgrundlage festhalten, Provider-DPA unterschreiben.
  5. Keine der Fragen trifft zu? Kein AI-Act-Compliance-Projekt nötig, aber KI-Kompetenz-Nachweis pflegen und Provider-Dokumentation ablegen.

Der Großteil der KI-Projekte, die im Mittelstand tatsächlich gestartet werden, landet bei Schritt 5. Das ist keine Einladung zu Leichtsinn, sondern eine Einordnung, die den Aufwand realistisch macht.

Konkrete Schritte bis August 2026

Fünf Maßnahmen, die Sie in den nächsten Monaten erledigen sollten, unabhängig von der Risikoklasse.

Inventar anlegen. Liste aller KI-Systeme im Unternehmen. Pro System: Zweck, Einsatzbereich, beteiligte Daten, Provider, Rolle (Anbieter, Nutzer, Importeur), mutmaßliche Risikoklasse. Excel oder Notion reicht. Ohne Inventar keine saubere Compliance.

Rolle klären. Sind Sie für ein gegebenes System Anbieter (Provider), Nutzer (Deployer), Importeur oder Händler? Die Pflichten unterscheiden sich erheblich. Wer ein OpenAI-basiertes System als interner Workflow betreibt, ist Deployer, nicht Provider. Wer ein KI-Produkt mit eigenem Label verkauft, ist Provider.

KI-Kompetenz dokumentieren. Kurze Policy, benannte verantwortliche Person, protokollierte Schulungs-Termine. Eine Seite reicht oft. Wichtig ist die Nachweisbarkeit bei einer Prüfung.

Provider-Dokumentation einfordern. Für jeden eingesetzten Foundation-Model-Provider: Model-Card, Data-Processing-Agreement, Compliance-Erklärung zum AI Act. Alles Standard-Material, das Provider auf Anfrage liefern.

Transparenz-Hinweise einbauen. Wenn ein System direkt mit Nutzern interagiert: “Dies ist ein automatisiertes System, Sie können jederzeit zu einem Menschen eskalieren.” In UI-Texte, E-Mail-Footer, Bot-Intros. Kleine Maßnahme, deutliche Wirkung.

Bei Hochrisiko kommt ein voller Satz weiterer Schritte dazu: Risikomanagement-System, Daten-Governance, technische Dokumentation nach Anhang IV, Protokollierung, menschliche Aufsicht, Konformitätsbewertung, EU-Konformitätserklärung, Registrierung in der EU-Datenbank. Das ist ein eigenes Projekt mit externem Prüfer, nicht nebenbei erledigt.

Was typisch schiefgeht

Aus Kundengesprächen, in denen AI-Act-Panik eine Rolle spielt, zurückdestilliert:

Überklassifikation. Teams klassifizieren ihr System als Hochrisiko, weil es “wichtig klingt”. Ein Posteingang-Klassifizierer ist nicht Hochrisiko, auch wenn er geschäftskritisch ist. Hochrisiko ist an spezifische Einsatzfelder gebunden, nicht an die Wichtigkeit.

Unterklassifikation. Umgekehrt unterschätzen Teams Recruiting-Tools oder Scoring-Systeme. Wer KI in Personal- oder Kreditentscheidungen einbindet, ist im Hochrisiko-Bereich, auch wenn das System “nur unterstützt”.

Paralyse durch Unklarheit. “Wir warten, bis alles klarer ist.” Die Deadline 2. August 2026 kommt. Warten kostet mehr als ein halbtägiges Inventar heute.

GPAI verwechseln mit eigenen Pflichten. Wenn Sie GPT in einer App nutzen, sind Sie nicht GPAI-Provider. Die GPAI-Pflichten trägt OpenAI. Sie sind Deployer und haben die Deployer-Pflichten der jeweiligen Risikoklasse Ihres Systems.

DSGVO und AI Act als ein Projekt. Sie überlappen in Themen, aber die Pflichten sind separat. DSGVO ist weiterhin die härteste Regulierung für die meisten KI-Projekte, weil personenbezogene Daten fast immer im Spiel sind. AI Act kommt oben drauf, ersetzt nichts.

Was NICHT unter den AI Act fällt

Damit der Scope klar ist:

  • Reine Forschung und Entwicklung vor der Markteinführung
  • Systeme ausschließlich zu militärischen, Verteidigungs- oder nationalen Sicherheitszwecken
  • Open-Source-KI-Systeme, außer sie fallen unter verbotene Praktiken, GPAI mit systemischem Risiko oder werden kommerziell verwertet
  • Privatnutzung ohne professionellen Kontext

Für die meisten KI-Automatisierungen im Mittelstand ist keine dieser Ausnahmen relevant, aber wenn Sie in einem Forschungsprojekt oder in einem Open-Source-Kontext arbeiten, lohnt sich der Blick in Artikel 2.

Wie die Kontrolle in Deutschland, Österreich und der Schweiz aussieht

Der AI Act ist EU-Recht und gilt in Deutschland und Österreich direkt. Die Schweiz ist nicht Mitglied, aber Schweizer Unternehmen, die KI-Systeme in die EU anbieten oder deren Output in der EU genutzt wird, fallen unter den AI Act.

In Deutschland wird die Aufsicht voraussichtlich auf mehrere Behörden verteilt: BNetzA, BfDI und branchenspezifische Aufseher wie BaFin und BfArM. Die Koordination läuft über das AI Office auf EU-Ebene. In Österreich koordiniert derzeit die RTR (Rundfunk und Telekom Regulierungs-GmbH) die Vorbereitung. Exakte Zuständigkeiten schärfen sich im Lauf des Jahres 2026, aber die Deadlines selbst ändern sich dadurch nicht.

Die Kernaussage in fünf Sätzen

  1. Der Großteil der KI-Automatisierung im Mittelstand ist nicht Hochrisiko und erfordert keinen großen Compliance-Aufbau.
  2. Was jeder bis August 2026 haben sollte: KI-Inventar, Rollen-Klärung, Kompetenz-Nachweis, Provider-Dokumentation, Transparenz-Hinweise.
  3. Wer in Personal, Kredit, Versicherung, Bildung, kritischer Infrastruktur oder Produkt-Sicherheits-Komponenten KI einsetzt, startet jetzt ein echtes Compliance-Projekt.
  4. Der GPAI-Teil trifft Modell-Provider, nicht Sie als Nutzer. Sie brauchen aber die Dokumentation des Providers in Ihrer Akte.
  5. DSGVO ist neben dem AI Act weiterhin relevant und in den meisten Fällen der schärfere Hebel.

Verwandte Leitfäden

Kostenlose KI-Automatisierungs-Checkliste herunterladen (PDF)

Checkliste herunterladen Download the checklist

Kostenloses 2-seitiges PDF. Kein Spam. Free 2-page PDF. No spam.

Kein Newsletter. Keine Weitergabe. Nur die Checkliste. No newsletter. No sharing. Just the checklist.

Ihre Checkliste ist bereit Your checklist is ready

Klicken Sie unten zum Herunterladen. Click below to download.

PDF herunterladen Download PDF Ergebnisse gemeinsam durchgehen? → Walk through your results together? →