EU AI Act 2025: Was Mittelständler JETZT wissen müssen

EU AI Act 2025: Was Mittelständler JETZT wissen müssen

Der AI Act ist da - mit Strafen bis 35 Mio. €. Erfahren Sie, welche KI-Tools Sie noch nutzen dürfen, was ab August 2025 gilt und wie Sie in 90 Tagen compliant werden. Inklusive Praxis-Beispiele und ROI-Rechnung.

Von: Julian Hannig
Veröffentlicht:
14 Min. Lesezeit
EU AI Act KI Compliance DSGVO KI Mittelstand AI Act Deutschland KI Richtlinien Compliance GPAI KI-Regulierung

1. Warum Sie keine Zeit mehr haben

Stand: 27. Juli 2025

Während Sie die nächste interne Mail zu „KI? Erstmal abwarten…” formulieren, laufen bereits verbindliche Fristen: Seit dem 2. Februar 2025 gelten die Verbote bestimmter KI-Praktiken – und die Pflicht zur KI-Kompetenz („AI Literacy”) für alle Anbieter und Betreiber¹. In wenigen Tagen, am 2. August 2025, treten zusätzlich die Governance-Regeln und Pflichten für General-Purpose-AI (GPAI)-Modelle in Kraft³. Für viele Unternehmen ist das der erste echte Compliance-Härtetest.

Was Sie selten klar gesagt bekommen: Die Strafen sind spürbar höher als bei der DSGVO. Bei verbotenen Praktiken drohen bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes. Für andere Verstöße liegen die Korridore bei 7,5 Millionen Euro oder 1,5%².

Ihr Wettbewerb nutzt die Zeit: Die EU hat am 10. Juli 2025 einen freiwilligen GPAI-Verhaltenskodex veröffentlicht²³, der einen pragmatischen Pfad zur Erfüllung der GPAI-Pflichten bietet. Anbieter wie OpenAI kündigten ihre Teilnahme an²⁹, während Meta öffentlich ausschert²⁷ – was zeigt, dass sich jetzt die Spielregeln und Positionierungen am Markt sortieren. Wer früh Klarheit schafft, gewinnt Geschwindigkeit und Vertrauen.

In den nächsten 15 Minuten zeigen wir Ihnen:

  • Die konkreten Fristen bis 2027
  • Risikostufen mit Beispielen für Produktion & Handel
  • Was DSGVO vs. AI Act praktisch bedeutet
  • Einen 90-Tage-Fahrplan zur Compliance
  • Beispiele & Benchmarks (ROI, Produktivität)
  • Wie Sie Compliance in einen Wettbewerbsvorteil drehen

Alles DSGVO- und AI-Act-konform, praxisnah und ohne leere Versprechen – genau unser Ansatz bei hafen.io.


2. Das Problem: Der AI Act trifft Sie härter als gedacht

„Wir nutzen ja nur ChatGPT.” Das reicht nicht als Argument. Der AI Act unterscheidet Rollen (z.B. Provider/Anbieter vs. Deployer/Betreiber) und Risikostufen. Auch bei „nur Nutzung” tragen Sie Pflichten – von Transparenz nach Art. 50 (Nutzer informieren, Kennzeichnung synthetischer Inhalte)¹⁰ bis hin zu AI-Literacy-Maßnahmen für Mitarbeitende⁸.

Was bedeuten diese Rollen konkret für Ihr Unternehmen?

Der AI Act definiert klare Rollen in der KI-Lieferkette – ähnlich wie Sie es vom Produkthaftungsrecht kennen, aber mit KI-spezifischen Besonderheiten:

Provider/Anbieter sind diejenigen, die KI-Systeme entwickeln und auf den Markt bringen – egal ob Sie die KI selbst programmiert oder in Auftrag gegeben haben. Als Anbieter tragen Sie die Hauptverantwortung: Konformitätsbewertung, technische Dokumentation, Risikomanagement und CE-Kennzeichnung bei Hochrisiko-KI. Beispiel: Ein Softwarehaus, das eine KI-basierte Qualitätskontrolle entwickelt und verkauft.

Deployer/Betreiber sind die Nutzer der KI in ihrem Geschäftsbetrieb. Ihre Pflichten sind überschaubarer: Sie müssen die KI gemäß Bedienungsanleitung nutzen, Logs aufbewahren (mindestens 6 Monate), schwere Vorfälle melden und bei Hochrisiko-KI für menschliche Aufsicht sorgen. Beispiel: Ihr Produktionsbetrieb, der die gekaufte Qualitätskontroll-KI einsetzt.

Importeure bringen KI-Systeme von außerhalb der EU auf den EU-Markt. Sie müssen prüfen, ob der Anbieter alle Pflichten erfüllt hat, bevor sie die KI verkaufen. Händler/Distributoren verkaufen die KI weiter und müssen ebenfalls die Konformität überprüfen.

Achtung Rollenwechsel: Sobald Sie eine KI wesentlich modifizieren, unter Ihrem Namen verkaufen oder den Verwendungszweck ändern, werden Sie automatisch zum Anbieter – mit allen damit verbundenen Pflichten! Beispiel: Sie passen ChatGPT so stark an Ihre Prozesse an und verkaufen diese Lösung weiter → Sie sind jetzt Anbieter, nicht mehr nur Betreiber.

Praxis-Tipp: Klären Sie vertraglich genau, wer welche Rolle innehat und wer für Compliance verantwortlich ist – besonders bei Cloud-Lösungen und API-Nutzung kann das schnell unklar werden.

Versteckte Risiken im Status quo:

  • Schatten-KI: Private Accounts, unsaubere Datenflüsse, fehlende Kennzeichnung von KI-Inhalten → Risiko von Art. 50-Verstößen¹²
  • Bild-/Video-KI ohne Labeling → Kennzeichnungspflicht für synthetische Inhalte greift¹¹
  • Emotionserkennung (z.B. in HR-Tools) → in Schule & Arbeit verboten⁶
  • Biometrie, Social Scoring, Predictive Policing → ab 2. Februar 2025 verboten⁵ (mit engen Strafverfolgungs-Ausnahmen für Echtzeit-Biometrie)

Deutsche Besonderheiten:

Häufig wird „Compliance” als Grund gegen Pilotierung genutzt. Der AI Act bietet aber Sandboxes und SME-Unterstützung – jedes EU-Land muss spätestens bis 2. August 2026 mindestens eine nationale KI-Sandbox betreiben²¹. Außerdem müssen die Mitgliedstaaten zuständige Behörden bis 2. August 2025 benennen³. Wer früh startet, kann geförderte Testumgebungen nutzen.

Weckruf: Die EU bestätigt den Zeitplan ohne Pause trotz Lobby-Druck³⁷. Parallel erleichtert der freiwillige GPAI-Kodex die Auslegung²⁴. Abwarten erhöht das Risiko – und die Umstellungskosten.


3. Die Lösung: Ihr pragmatischer Compliance-Fahrplan

3.1 Die 4 Risikostufen – mit Praxisbeispielen

StufeBedeutungBeispiele Produktion & HandelKernauswirkungen
UnzulässigVerbotene Praktiken nach Art. 5Emotionserkennung bei Mitarbeitenden; Social Scoring; ungezieltes Scraping von Gesichtsbildern; rein profilbasierte KriminalitätsprognosenSofort stoppen (seit 02.02.2025). Hohe Bußgelder.
HochriskantAnnex III oder Sicherheitskomponente/Produkt (Annex I)Qualitätsprüf-KI als Sicherheitskomponente in Maschinen; biometrische Systeme; HR-Screening/Leistungsbewertung; Kreditwürdigkeit/VersicherungStrenge Anforderungen (Risikomanagement, Datenqualität, Logging, Human Oversight, Genauigkeit, Konformitätsbewertung, Registrierung). Start 02.08.2026; für produktregulierte Sicherheitskomponenten 02.08.2027.
BegrenztTransparenzpflichten (Art. 50)Chatbots im Kundenservice, Text-/Bild-Generatoren, Emotion/Biometrie-TransparenzNutzer informieren, Kennzeichnung synthetischer Inhalte; ggf. Einwilligung bei Emotion/Biometrie.
MinimalGeringes RisikoSpam-Filter, KI-unterstützte Tabellen, viele interne AssistentenFrei nutzbar, Best Practices empfohlen.

Quellen: EP² & Commission Timeline³, Art. 5⁵,⁶, Art. 6¹³, Annex III¹³, Art. 50¹⁰,¹¹,¹²

Hinweis für Fertiger & Maschinenbauer: Wird KI als Sicherheitskomponente in ein reguliertes Produkt integriert (z.B. Maschinen-, Medizin-, Fahrzeugrecht), greifen die Hochrisiko-Regeln ab 02.08.2027⁴ – zusätzlich zu sektoralen Konformitätsverfahren.

3.2 Welche Tools Sie weiter nutzen können (und welche nicht)

Chat-Assistenten (z.B. Business-Accounts von GPT, Claude, Gemini, Copilot):

  • In der Regel begrenzt riskant → Transparenz & Kennzeichnung sicherstellen¹⁰, AI-Literacy schulen⁸, Richtlinien & Protokollierung einführen

HR-Screening, Leistungsbewertung, Kredit/Versicherung:

  • Hochrisiko (Annex III)¹³ → strenge Pflichten, ggf. FRIA (Grundrechte-Folgenabschätzung) vor Einsatz¹⁴

Emotionserkennung am Arbeitsplatz / in Bildung:

  • Verboten⁶

Biometrische Kategorisierung (z.B. Rückschlüsse auf Religion/Politik/Sexualität):

  • Verboten⁶

Qualitätskontrolle/Visionsysteme in der Produktion:

  • Kann hochrisikorelevant werden, wenn Sicherheitsfunktion oder Annex-III-Kontext; sonst häufig „begrenzt/minimal”. Einzelfallprüfung nach Art. 6 empfohlen¹³

3.3 DSGVO vs. AI Act – die wichtigsten Unterschiede

  • DSGVO schützt personenbezogene Daten; Pflicht zur DPIA bei hohem Datenschutz-Risiko
  • AI Act reguliert KI-Systeme unabhängig davon, ob personenbezogene Daten verarbeitet werden. Fokus auf Gesundheit/Sicherheit & Grundrechte; u.a. FRIA für bestimmte Betreiber von Hochrisiko-Systemen (z.B. öffentliche Stellen/öffentliche Dienste, Kredit/Versicherung)¹⁴. FRIA ergänzt ggf. die DPIA.

Praxis-Tipp: Wenn eine DPIA vorliegt, bauen Sie die FRIA darauf auf (Mapping der Risiken, zusätzliche Grundrechts-Dimensionen, Meldepflicht an Marktaufsicht berücksichtigen)¹⁴. Das senkt Aufwand und vermeidet Doppelarbeit.

Was bedeuten DPIA und FRIA konkret?

Die DPIA (Datenschutz-Folgenabschätzung) kennen Sie vielleicht schon aus der DSGVO. Sie müssen diese durchführen, wenn Ihre Datenverarbeitung voraussichtlich hohe Risiken für Personen birgt – etwa bei der Verarbeitung von Gesundheitsdaten oder bei automatisierten Entscheidungen. Die DPIA dokumentiert, welche Daten Sie wie verarbeiten und welche Schutzmaßnahmen Sie ergreifen.

Die FRIA (Grundrechte-Folgenabschätzung) ist das neue Pendant aus dem AI Act. Sie geht über den Datenschutz hinaus und prüft, ob Ihre KI-Anwendung Grundrechte wie Gleichbehandlung, Meinungsfreiheit oder faire Arbeitsbedingungen gefährdet. Pflicht ist sie für öffentliche Stellen und bei KI-Systemen für Kreditbewertungen oder Versicherungen. Der Clou: Haben Sie bereits eine DPIA, können Sie darauf aufbauen – müssen aber die zusätzlichen Grundrechts-Aspekte ergänzen und das Ergebnis der Marktaufsicht melden.

3.4 Transparenz & Kennzeichnung (Art. 50)

  • Interaktion mit KI: Nutzer informieren, außer es ist offensichtlich¹²
  • Synthetische Inhalte (Text/Bild/Video/Audio): Kennzeichnen¹¹
  • Emotionserkennung & biometrische Kategorisierung: Transparenz & Einwilligung¹² – wobei viele Biometrie-Einsätze ohnehin verboten bzw. nur in engen Ausnahmen zulässig sind

3.5 AI Literacy (Art. 4)

Anbieter und Betreiber müssen „in angemessenem Umfang AI-Kompetenz” sicherstellen – seit 02.02.2025 anwendbar⁸. Inhalte richten sich nach Kontext, Zielgruppe und Einsatz. Typische Bausteine: Risiken, Grenzen, Prompting, Ausgabenprüfung, Bias, Haftung, Dokumentation⁹.

Rechtlicher Hinweis: AI-Literacy ist keine „Kann-Vorschrift”. Sie ist eine Pflicht für alle, die KI bereitstellen oder einsetzen⁸,⁹ – und damit ein schneller Quick-Win zur Risikoreduktion.


4. Die Umsetzung: In 90 Tagen compliant

Woche 1–2: Bestandsaufnahme

  1. KI-Inventar (30–120 Min je Bereich):

    • Systeme, Use Cases, Datenquellen
    • Rollen (Provider/Importer/Händler/Betreiber)
    • Modell-Typ (GPAI/feinabgestimmt/Eigenentwicklung)
    • Risiko-Hypothese (verboten/hoch/begrenzt/minimal)
  2. Risikobewertung je Use Case:

    • Art. 5-Check⁵,⁶ → sofort stoppen?
    • Annex III-Treffer¹³? Sicherheitskomponente?
    • Art. 50-Transparenz¹⁰,¹¹,¹²? DSGVO-Bezug + DPIA/FRIA-Bedarf prüfen¹⁴
  3. Quick Wins markieren:

    • Begrenzt/minimal → mit Richtlinien, Logging & Schulung schnell legal nutzbar

Praxis-Tipp: Starten Sie mit einem Kanban-Board: Spalten = „Verbote stoppen”, „Hochrisiko (Plan)”, „Transparenz+Literacy”, „Fertig”. So behalten Sie Geschwindigkeit und Governance im Blick.

Monat 1: Grundlagen schaffen

  • Richtlinien & Prozesse: KI-Policy, Prompt-Richtlinien, Freigaben, Kennzeichnung, Vorlagen für Transparenzhinweise
  • AI-Literacy Trainings: Rollenbasiert (Management, Fachbereiche, IT/Datenschutz). Dokumentation der Teilnahme⁸,⁹
  • Technik-Grundlagen: Business-Accounts, Logging, Zugriff, Datenklassifizierung, Prompt-Schutz, Content-Labeling. Bei GPAI-Eigenbetrieb: Blick in den GPAI-Kodex²³,²⁴

Monat 2–3: Implementierung

Hochrisiko-Vorbereitung:

  • Risikomanagement, Daten-Governance, Tests, Genauigkeit, Robustheit
  • Technische Dokumentation (Anhang IV), QMS, Konformitätsbewertung, Registrierung (Art. 49)¹⁶
  • FRIA für betroffene Betreibergruppen vor Erstnutzung¹⁴; ggf. Meldung an Marktaufsicht¹⁵

GPAI-Pflichten (ab 02.08.2025)²³:

  • Transparenz zu Trainingsinhalten (Aggregat), Urheberrecht, Sicherheits-/Red-Team-Prüfungen
  • Für systemische Risiken strengere Vorgaben
  • Kodex als „Comply-by-Design” nutzen²⁴

Monitoring & Post-Market:

  • Metriken, Vorfallprozesse, Updates, Aufbewahrung von Logs¹⁷
  • Templates der Kommission werden erwartet¹⁸

Stolpersteine & Plan B

  • „AI-ready”-Marketing: Achten Sie auf konkrete Nachweise (Transparenzinfos, DPA/AVV, Sicherheitsberichte, Teilnahme am GPAI-Kodex²⁴). Keine reinen Versprechen akzeptieren
  • Biometrie/Emotion in HR & Bildung: Nicht erlaubt – bleibt verboten⁶.
  • Unklare High-Risk-Abgrenzung: Art. 6-Dokumentation erstellen¹³; bei Zweifel konservativ planen oder Sandbox/Behörden-Feedback einholen²¹

5. Metriken & ROI

  • Durchschnittlicher Gen-KI-ROI: 3,7× je investiertem Dollar; Top-Leader bis 10,3׳³ (IDC „Business Opportunity of AI 2024”, Microsoft-gesponsert)
  • Produktivität:
    • +66% im Schnitt über drei Studien³⁰
    • +59% mehr Business-Dokumente/Stunde³⁰
    • +13,8% mehr Support-Tickets/Stunde³¹
    • +126% mehr Software-Projekte/Woche³²
  • Copilot-ROI (SMB): 132%–353%³⁵ (Forrester TEI, 2024)

Einordnung: Studien zeigen große Effekte – aber nur, wenn Prozesse, Qualitätssicherung und Schulung sitzen. Genau das fordert der AI Act: klare Verfahren, Monitoring, Kompetenzen. Wer Compliance ernst nimmt, realisiert den ROI schneller und nachhaltiger.


6. Zukunftssicherung: Nach der Compliance kommt die Chance

  • Skalierung: Ab 02.08.2026 werden die meisten Pflichten scharf gestellt³. Unternehmen mit sauberer Basis (Inventar, Policy, Literacy, Transparenz, Monitoring) können neue Use Cases schneller live bringen – und Sandboxes für innovative Hochrisiko-Vorhaben nutzen²¹

  • Team-Entwicklung: AI-Literacy ist Pflicht⁸ – machen Sie daraus ein kontinuierliches Schulungsprogramm mit Rollenprofilen (Endnutzer, Power-User, Reviewer, Owner)

  • Marktentwicklung: GPAI-Kodex setzt de-facto Standards (Transparenz, Copyright, Safety)²³. Beobachten Sie, welche Anbieter zeichnen²⁴ – das reduziert Ihr Rechts- und Integrationsrisiko


7. Ihre Sofortmaßnahmen (Diese Woche)

Die 3 wichtigsten Schritte jetzt:

  1. Verbote prüfen & stoppen (Art. 5)⁵,⁶: Emotionserkennung in HR/Bildung, Social Scoring, biometrische Kategorisierung, Scraping von Gesichtsbildern

  2. AI-Literacy starten (Art. 4)⁸: Kurztraining für alle Nutzer, Nachweis dokumentieren

  3. Transparenz durchsetzen (Art. 50)¹⁰,¹¹,¹²: Hinweise bei Chatbots, Kennzeichnung synthetischer Inhalte, Verfahren schriftlich fixieren

Kosten-Check (Orientierung):

PostenTypische Bandbreite
Basis-Setup Richtlinien, Inventar, Trainings (10–50 MA)3.000–12.000 €
GPAI-Governance (Nutzung)meist intern + geringe Toolkosten
Hochrisiko-Vorbereitung (ohne Notified Body)10.000–40.000 €
Notified-Body-Bewertungen (falls nötig)projektspezifisch
Bußgelder bei Verstößenbis 35 Mio. € / 7% (Verbote)² bzw. 7,5 Mio. € / 1,5%²

Quellen zu Bußgeldern & Fristen: EP², Skadden, Commission³

Warnung: Ab sofort verboten (Auszug Art. 5)⁵,⁶

  • Emotionserkennung am Arbeitsplatz/Schule
  • Biometrische Kategorisierung sensibler Merkmale
  • Social Scoring
  • Rein profilbasierte Kriminalitätsprognosen
  • Ungezieltes Scraping von Gesichtsbildern⁷
  • Manipulative/sub-liminale Techniken mit erheblichem Schaden
  • Echtzeit-biometrische Fernidentifikation in öffentlichen Räumen (nur enge Strafverfolgungs-Ausnahmen mit Genehmigung)

Zeitplan der AI-Act-Umsetzungsphasen

DatumWas gilt
12.07.2024Veröffentlichung im Amtsblatt (Regulation (EU) 2024/1689)¹
01.08.2024Inkrafttreten³
02.02.2025Verbote (Art. 5) + AI-Literacy (Art. 4) gelten³,⁸,⁹
02.08.2025Governance-Regeln & Pflichten für GPAI-Modelle gelten³; Signatar-Liste des GPAI-Kodex ab 01.08.2025²⁴
02.08.2026Großer Teil der übrigen Pflichten, inkl. Annex-III-Hochrisiko-Systeme (Biometrie, HR, Bildung, kritische Infrastrukturen etc.)³,⁴
02.08.2026Nationale KI-Sandboxes müssen operativ sein²¹
02.08.2027Annex-I-produktregulierte Hochrisiko-Systeme & bestehende GPAI-Modelle müssen konform sein³,⁴; das gesamte Regelwerk greift

Tabellen-Überblick

Risikostufen-Matrix (typische Mittelstands-Use-Cases)

Use CaseStufeKernauswirkung
Interner Schreib-Copilot, RechercheBegrenzt/MinimalTransparenzhinweis intern, AI-Literacy, Review-Prozess⁸,¹⁰
Kundenchatbot auf WebsiteBegrenztNutzer informieren, Gesprächsprotokolle/QA¹⁰
Bild-/Video-Generierung fürs MarketingBegrenztSynthetische Inhalte kennzeichnen¹¹; Urheberrecht prüfen
HR-Screening/LeistungsbewertungHochrisiko (Annex III)Strenge Pflichten, ggf. FRIA¹³,¹⁴
Visionsystem als Sicherheitskomponente einer MaschineHochrisiko (Annex I)Pflichten ab 02.08.2027³,⁴; Konformität + Registrierung
Emotionserkennung bei MitarbeitendenVerbotenSofort stoppen⁶

Tool-Vergleich: „AI-Act-ready” – worauf achten?

KriteriumWarum wichtig
Transparenzdokumente (Modell, Trainingsquellen in Aggregat, Evaluierungen)Erleichtert Nachweisführung, v.a. bei GPAI-Integration²³
Urheberrechts-Policy / Opt-out-RespektSchwerpunkt des GPAI-Kodex²³,²⁴
Sicherheits-/Red-Team-BerichteErwartet für GPAI-Modelle; Risiko-Nachweis²³
Teilnahme am GPAI-KodexLiefert „Pfad der guten Praxis”; Signatar-Liste ab 01.08.2025²⁴

Wie wir Sie bei hafen.io unterstützen

Bei hafen.io unterstützen wir Sie persönlich – praxisnah, DSGVO- & AI-Act-konform:

  • Kostenloser AI-Act Quick-Check: Wir prüfen in 60 Minuten Ihr KI-Inventar, Risiken und Quick Wins
  • 90-Tage-Programm zur Compliance: Inventar → Richtlinien & Literacy → Transparenz → GPAI/Hochrisiko-Vorbereitung

Jetzt Termin für den AI-Act-Check vereinbaren →


Bei hafen.io haben wir dafür eine bewährte Lösung: schlank starten, Risiken sauber dokumentieren, Quick Wins realisieren – und parallel die Pflichten erfüllen. Lassen Sie uns sprechen.

Quellenverzeichnis

¹ EUR-Lex: Regulation (EU) 2024/1689, Amtsblatt 12.07.2024
² European Parliament: Artificial intelligence Act: deal on comprehensive rules for trustworthy AI, 06.12.2023
³ European Commission – Digital Strategy: Application timeline, 2025
⁴ AI Act Explorer (FLI): Implementation Timeline, 28.02.2024
⁵ European Commission – Digital Strategy: AI Act – Shaping Europe’s digital future, 2025
⁶ AI Act Explorer: Article 5: Prohibited AI Practices, 2024
⁷ ai-act-law.eu: Recital 43 – Banning AI facial recognition for mass surveillance, 2024
⁸ European Commission – Digital Strategy: Application timeline / Art.4, 2025
⁹ Mayer Brown: EU AI Act: Ban on certain AI practices and requirements for AI literacy come into effect, 31.01.2025
¹⁰ WilmerHale: Limited-Risk AI—A Deep Dive Into Article 50 of the EU’s AI Act, 28.05.2024
¹¹ EU AI Act (euaiact.com): Key Issue 5: Transparency Obligations, 2024
¹² EU AI Act (euaiact.com): Art. 50 Transparency Obligations, 2024
¹³ AI Act Explorer: High-level summary / Annex III, 2024
¹⁴ DLA Piper – Technology’s Legal Edge: Fundamental Rights Impact Assessments under the EU AI Act, 07.03.2024
¹⁵ ENNHRI: ENNHRI calls on the Commission to ensure effective FRIAs, April 2025
¹⁶ Freshfields: Artificial Intelligence Act – overview, 2025
¹⁷ WilmerHale: WilmerHale’s Guide to the European Union’s AI Act (PDF), 14.04.2025
¹⁸ WilmerHale Blog: EU AI Act published in the Official Journal—Critical Milestones, 16.07.2024
¹⁹ White & Case: AI Watch: Global regulatory tracker – Germany, Mai 2025
²⁰ White & Case: AI Watch: Global regulatory tracker – European Union, Juli 2025
²¹ AI Act Explorer: AI Regulatory Sandbox Approaches, 02.05.2025
²² Autoriteit Persoonsgegevens – AI sandbox (context), AP (NL), 2025
²³ European Commission – Press corner: General-Purpose AI Code of Practice now available, 10.07.2025
²⁴ European Commission – Digital Strategy: The General-Purpose AI Code of Practice, 10.07.2025
²⁵ Wall Street Journal: EU Lays Out AI Code of Practice to Guide Companies on Compliance, 12.07.2025
²⁶ Reuters: Code of practice … may come end 2025, EU says, 03.07.2025
²⁷ The Verge: Meta snubs the EU’s voluntary AI guidelines, 21.07.2025
²⁸ ITPro: Meta isn’t playing ball with the EU on the AI Act, 21.07.2025
²⁹ OpenAI: The EU Code of Practice and future of AI in Europe, 11.07.2025
³⁰ Nielsen Norman Group: AI Improves Employee Productivity by 66%, 16.07.2023
³¹ Nielsen Norman Group: AI Tools Raise the Productivity of Customer-Support Agents, 16.07.2023
³² Nielsen Norman Group: AI Tools Make Programmers More Productive, 16.07.2023
³³ IDC (InfoBrief, Microsoft gesponsert): 2024 Business Opportunity of AI, November 2024
³⁴ Microsoft Blog: IDC’s 2024 AI opportunity study: Top five AI trends to watch, 12.11.2024
³⁵ Forrester (PDF, Microsoft): The Projected Total Economic Impact of Microsoft 365 Copilot for SMB, 17.10.2024
³⁶ Forrester (PDF): The Total Economic Impact of Microsoft 365 Copilot, März 2025
³⁷ IAPP: European Commission holds firm on AI Act implementation timeline, Juli 2025
³⁸ IAPP: EU AI Act: Next Steps for Implementation, Januar 2025
³⁹ White & Case: AI Watch – Germany, Mai 2025
⁴⁰ European Parliament: Artificial intelligence Act – deal … (PDF), 06.12.2023