KI-Regulierung in Europa: Was Unternehmen jetzt wissen müssen
Europa reguliert Künstliche Intelligenz so umfassend wie keine andere Region der Welt. Der EU AI Act ist seit Februar 2025 in Kraft, die ersten Pflichten greifen bereits. Was bedeutet das konkret für Unternehmen — und wo drohen Bußgelder?
1. Der EU AI Act — das Wichtigste in 2 Minuten
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende KI-Gesetz. Er trat am 1. August 2024 in Kraft und wird stufenweise bis 2027 vollständig anwendbar. Das Grundprinzip: Je höher das Risiko einer KI-Anwendung, desto strenger die Auflagen.
Der AI Act unterscheidet vier Risikostufen:
- Verbotene KI-Praktiken: Social Scoring, manipulative Techniken, biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum (mit Ausnahmen für Strafverfolgung). Seit Februar 2025 verboten.
- Hochrisiko-KI: Systeme in Bereichen wie Personalrekrutierung, Kreditwürdigkeit, kritische Infrastruktur, Bildung, Strafverfolgung. Strenge Anforderungen an Dokumentation, Transparenz, menschliche Aufsicht und Risikomanagement. Frist: August 2026.
- Begrenztes Risiko: Chatbots, Deepfakes, emotionserkennenende Systeme. Transparenzpflichten: Nutzer müssen wissen, dass sie mit KI interagieren.
- Minimales Risiko: Spamfilter, KI in Videospielen, die meisten Business-Tools. Keine besonderen Auflagen, aber freiwillige Verhaltenskodizes empfohlen. Einen Überblick über gängige Business-Tools finden Sie in unserem Artikel zu KI-Tools 2026.
2. Was bereits gilt — und was 2026 kommt
Der AI Act wird stufenweise wirksam. Hier der aktuelle Zeitplan:
- Seit Februar 2025: Verbotene KI-Praktiken sind untersagt. KI-Kompetenzpflicht für alle Mitarbeiter, die KI-Systeme betreiben oder nutzen (Art. 4 AI Act).
- Seit August 2025: Pflichten für Anbieter von General-Purpose AI (GPAI), also große Sprachmodelle wie GPT, Claude, Gemini. Betrifft primär die Modellanbieter, nicht die Nutzer.
- Ab August 2026: Vollständige Anwendung der Hochrisiko-Regeln. Ab hier müssen Unternehmen, die Hochrisiko-KI einsetzen oder entwickeln, alle Anforderungen erfüllen.
- Ab August 2027: Pflichten für KI-Systeme, die als Sicherheitskomponente in regulierte Produkte eingebettet sind (z.B. Medizingeräte, Fahrzeuge).
Wichtig für 2026: Die KI-Kompetenzpflicht (Art. 4) gilt bereits jetzt. Jedes Unternehmen, das KI einsetzt, muss sicherstellen, dass die beteiligten Mitarbeiter ausreichend KI-kompetent sind. Was "ausreichend" bedeutet, ist bewusst offen formuliert — aber Schulungsnachweise und interne Richtlinien sind dringend empfohlen.
3. DSGVO und KI — die vergessene Baustelle
Während der AI Act die Schlagzeilen beherrscht, bleibt die DSGVO das schärfste Schwert bei KI-Anwendungen mit personenbezogenen Daten. Und hier liegt das größte operative Risiko für Unternehmen.
Die kritischen Fragen
- Rechtsgrundlage: Auf welcher Basis werden personenbezogene Daten an KI-Systeme übermittelt? Einwilligung, berechtigtes Interesse, Vertragserfüllung? Die meisten Unternehmen haben diese Frage nicht sauber geklärt.
- Drittlandtransfer: Fast alle großen KI-Modelle (OpenAI, Anthropic, Google) verarbeiten Daten in den USA. Seit dem Angemessenheitsbeschluss (EU-US Data Privacy Framework) ist das grundsätzlich möglich — aber nur, wenn der Anbieter zertifiziert ist und ein AVV vorliegt.
- Zweckbindung: Werden Nutzereingaben für Modelltraining verwendet? Bei den meisten Enterprise-Tarifen nicht — aber bei Free-Tarifen oft doch. Das kann ein DSGVO-Verstoß sein.
- Betroffenenrechte: Wie gehen Sie mit Auskunfts- und Löschungsanfragen um, wenn personenbezogene Daten bereits in KI-Prompts geflossen sind?
Der Meta-Fall als Warnung
Meta wurde 2025 von mehreren europäischen Datenschutzbehörden untersucht, weil das Unternehmen öffentliche Nutzerdaten für das Training seiner KI-Modelle verwendete — ohne ausreichende Rechtsgrundlage. Die irische DPC verhängte eine Untersagung, die Meta zwang, den Trainingsstart in Europa zu verschieben. Dieses Verfahren zeigt: Datenschutzbehörden nehmen KI-Training ernst.
4. KI-Haftung: Wer zahlt, wenn die KI falsch liegt?
Parallel zum AI Act arbeitet die EU an der KI-Haftungsrichtlinie. Sie soll es Geschädigten erleichtern, Schadenersatz geltend zu machen, wenn KI-Systeme fehlerhafte Ergebnisse liefern.
Die wichtigsten Punkte:
- Beweislastumkehr: Bei Hochrisiko-KI muss nicht der Geschädigte beweisen, dass die KI fehlerhaft war — sondern der Anbieter/Betreiber muss beweisen, dass sie es nicht war.
- Offenlegungspflicht: Gerichte können Anbieter zur Offenlegung von KI-Systemdetails verpflichten, um Schadensfälle aufzuklären.
- Betreiberhaftung: Wer ein KI-System einsetzt (nicht nur wer es entwickelt), kann haftbar sein. Das betrifft direkt Unternehmen, die KI-Tools von Drittanbietern nutzen.
Praxis-Relevanz: Wenn Ihr KI-gestütztes Recruiting-Tool einen Bewerber diskriminiert, haftet potenziell Ihr Unternehmen — nicht der Tool-Anbieter. Dokumentation der Entscheidungsprozesse und menschliche Aufsicht sind daher nicht optional, sondern Haftungsvorsorge.
5. Konkrete Handlungsempfehlungen für Unternehmen
Was Sie jetzt tun sollten — unabhängig davon, ob Sie Hochrisiko-KI einsetzen:
Sofort (Q2 2026)
- KI-Inventar erstellen: Welche KI-Tools werden im Unternehmen genutzt? Auch inoffiziell (Shadow-AI). Eine aktuelle Erhebung zeigt, dass in 67 % der Unternehmen KI-Tools ohne Wissen der IT-Abteilung genutzt werden.
- KI-Kompetenzschulung: Art. 4 AI Act gilt bereits. Dokumentieren Sie, dass Mitarbeiter geschult wurden. E-Learning, Workshops oder externe Schulungen — die Form ist flexibel, die Pflicht nicht.
- AVVs prüfen: Haben Sie mit allen KI-Anbietern, die personenbezogene Daten verarbeiten, einen Auftragsverarbeitungsvertrag?
Bis August 2026
- Risikoklassifizierung: Prüfen Sie, ob Ihre KI-Anwendungen unter die Hochrisiko-Kategorie fallen (Anhang III des AI Act). Wenn ja: Konformitätsbewertung planen.
- Interne KI-Richtlinie: Regeln für den Umgang mit KI-Tools — welche Daten dürfen eingegeben werden, welche nicht? Wer genehmigt neue Tools? Wie wird die Qualität von KI-Outputs geprüft?
- Transparenzpflichten umsetzen: Wenn Kunden mit einem KI-Chatbot interagieren, müssen sie darauf hingewiesen werden. Prüfen Sie alle Kundenkontaktpunkte.
Langfristig
- KI-Governance aufbauen: Verantwortlichkeiten klären, regelmäßige Audits einführen, Dokumentationsprozesse etablieren. Das muss nicht groß sein — aber es muss existieren.
- Regulierung als Wettbewerbsvorteil: Unternehmen, die frühzeitig compliant sind, können das als Vertrauenssignal gegenüber Kunden und Partnern nutzen.
6. Bußgelder und Durchsetzung
Der AI Act sieht erhebliche Bußgelder vor:
- Verbotene Praktiken: bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes.
- Hochrisiko-Verstöße: bis zu 15 Mio. € oder 3 % des Umsatzes.
- Falsche Angaben gegenüber Behörden: bis zu 7,5 Mio. € oder 1 % des Umsatzes.
Für KMU und Start-ups gelten reduzierte Bußgeldrahmen — aber auch hier können die Beträge existenzbedrohend sein. Wie sich der Mittelstand insgesamt auf KI einstellt, beleuchtet unser Artikel KI im Mittelstand 2026. Die Durchsetzung obliegt den nationalen Marktüberwachungsbehörden. In Deutschland wird die Bundesnetzagentur als zuständige Behörde aufgebaut.
Realistische Einschätzung: In den ersten Jahren wird der Fokus der Behörden auf großen Anbietern und offensichtlichen Verstößen liegen — nicht auf dem Mittelständler mit einem ChatGPT-Abo. Aber das ändert sich erfahrungsgemäß schnell, wie die DSGVO-Entwicklung gezeigt hat. Wer jetzt die Grundlagen schafft, vermeidet später teure Nachbesserungen.
Fazit: Regulierung ernst nehmen, aber nicht überreagieren
Die europäische KI-Regulierung ist komplex, aber nicht unbeherrschbar. Für die meisten Unternehmen, die Standard-KI-Tools (Textgenerierung, Chatbots, Datenanalyse) nutzen, fallen die Anforderungen überschaubar aus: Transparenz, Datenschutz, Kompetenzschulung. Welche übergreifenden KI-Trends 2026 die Branche prägen, lesen Sie in unserem Trendüberblick.
Wer Hochrisiko-KI einsetzt oder entwickelt, steht vor deutlich mehr Aufwand — aber auch hier sind die Anforderungen machbar, wenn man früh beginnt.
Der wichtigste Schritt ist der erste: Wissen, welche KI im Unternehmen eingesetzt wird, und die grundlegenden Pflichten (KI-Kompetenz, DSGVO, Transparenz) erfüllen. Alles andere baut darauf auf. Auch die Frage Open Source vs. kommerziell spielt bei der Compliance-Bewertung eine Rolle. Wer regelmäßig auf dem Laufenden bleiben will, findet bei KI-Überblick alle relevanten Entwicklungen kompakt zusammengefasst.
Häufige Fragen zur KI-Regulierung in Europa
Was ist der EU AI Act und seit wann gilt er?
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende KI-Gesetz. Er trat am 1. August 2024 in Kraft und wird stufenweise bis 2027 vollständig anwendbar. Erste Verbote gelten seit Februar 2025, die Hochrisiko-Regeln greifen ab August 2026.
Welche Unternehmen sind vom AI Act betroffen?
Grundsätzlich jedes Unternehmen, das KI-Systeme entwickelt, einsetzt oder in der EU anbietet. Die KI-Kompetenzpflicht (Art. 4) gilt bereits jetzt für alle Unternehmen, die KI nutzen. Strengere Anforderungen gelten für Anbieter und Betreiber von Hochrisiko-KI.
Wie hoch sind die Bußgelder bei Verstößen gegen den AI Act?
Die Bußgelder reichen bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes bei verbotenen Praktiken. Für Hochrisiko-Verstöße drohen bis zu 15 Mio. Euro oder 3 % des Umsatzes. Für KMU und Start-ups gelten reduzierte Bußgeldrahmen.
Was bedeutet die KI-Kompetenzpflicht nach Art. 4 AI Act?
Jedes Unternehmen, das KI einsetzt, muss sicherstellen, dass die beteiligten Mitarbeiter ausreichend KI-kompetent sind. Das bedeutet in der Praxis: Schulungen dokumentieren, interne Richtlinien erstellen und regelmäßig aktualisieren. Die Pflicht gilt seit Februar 2025.
Wie wirkt sich die DSGVO auf den KI-Einsatz aus?
Die DSGVO bleibt das schärfste Instrument bei KI-Anwendungen mit personenbezogenen Daten. Unternehmen müssen Rechtsgrundlagen für Datenverarbeitung klären, Auftragsverarbeitungsverträge mit KI-Anbietern abschließen und den Drittlandtransfer (z.B. in die USA) rechtlich absichern.
Wer haftet, wenn eine KI fehlerhafte Ergebnisse liefert?
Die geplante KI-Haftungsrichtlinie sieht eine Beweislastumkehr vor: Bei Hochrisiko-KI muss der Anbieter oder Betreiber beweisen, dass das System nicht fehlerhaft war. Wichtig: Auch Unternehmen, die KI-Tools von Drittanbietern einsetzen, können als Betreiber haftbar sein.
KI-Regulierung und neue Entwicklungen automatisch verfolgen?
KI-Überblick trackt Regulierungs-Updates aus offiziellen Quellen — eingeordnet und priorisiert für Entscheider.
Kostenlos starten