Lifecycle stage — Govern
Der EU AI Act ist jetzt durchsetzbar, und die Strafen sind nicht symbolisch. Der Einsatz eines verbotenen KI-Systems zieht Bußen bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes nach sich, je nachdem, was höher ist. Nichtkonformität bei Hochrisiko-Systemen reicht bis 15 Mio. Euro oder 3 % des Umsatzes. Der Gesetzestext umfasst 144 Artikel und 13 Anhänge, und jedes Unternehmen, mit dem ich spreche, hat eines von drei Dingen unterschätzt — welche ihrer Systeme tatsächlich in den Anwendungsbereich fallen, wie viel technische Dokumentation Annex IV tatsächlich verlangt, oder wie lange die Konformitätsbewertung dauert, sobald die benannte Stelle ihre erste Liste von Klarstellungen schickt. Das ist die GOVERN-Phase der DEPLOY Method angewandt auf die folgenreichste KI-Regulierung unseres Jahrzehnts. Ich bin KI-Botschafter der französischen Regierung für die digitale Transformation von Finance & Business, was bedeutet, dass ich die letzten Jahre auf der Policy-Seite genau dieser Regulierung verbracht habe — nicht Zusammenfassungen gelesen, sondern den Text, mit den Leuten, die ihn geschrieben haben. Das ist die Perspektive, die dieses Engagement in Ihr Compliance-Programm einbringt.
Sie wissen nicht, welche Systeme in den Anwendungsbereich fallen. Der AI Act definiert verbotene Systeme, Hochrisiko-Systeme, Systeme mit begrenztem Risiko und Systeme mit minimalem Risiko, und die Klassifikation hängt am Use Case — nicht an der Technologie. Ein Recommendation-Modell im Marketing ist vermutlich begrenztes Risiko; dieselbe Modellklasse zur Bonitätsbewertung ist Hochrisiko. Ein biometrisches Kategorisierungssystem im Einzelhandel kann schlicht verboten sein. Die meisten Organisationen haben kein schriftliches Inventar ihrer KI-Systeme, verknüpft mit den Risikoklassen des AI Act — was bedeutet, dass jede Durchsetzungsfrage mit Discovery-Arbeit beginnt, die längst hätte getan sein müssen.
Ihre Zeitplanung der Konformitätsbewertung ist falsch. Teams scopen sie als Audit — ein paar Wochen Papierkram. In der Praxis ist eine Konformitätsbewertung nach Titel III für ein Hochrisiko-System ein monatelanges Engagement mit benannter Stelle, vollständigem Risikomanagement-System, Dokumentation zur Daten-Governance, technischer Dokumentation gemäß Annex IV, Post-Market-Monitoring-Plänen, menschlicher Aufsicht und Behebung jeder im Review aufgedeckten Lücke. Die erste formale Einreichung ist selten die letzte. Teams, die acht Wochen eingeplant haben, sind nach acht Monaten noch dabei, Remediations zu verhandeln.
Die technische Annex-IV-Dokumentation ist ehrlich schwerer, als sie aussieht. Sie verlangt eine allgemeine Systembeschreibung, detailliertes Design, Trainings-Methodik, Daten-Governance, Evaluationsmetriken, bekannte Grenzen, Risikomanagement-Maßnahmen, menschliche Aufsicht, Genauigkeitsspezifikationen und das Change-Log. Die meisten internen Engineering-Dokumentationen überstehen den Kontakt mit Annex IV nicht — sie beantworten andere Fragen, auf anderem Tiefenniveau, für ein anderes Publikum. Das Umschreiben auf Annex-IV-Standard ist keine Formatierungsübung. Es ist eine Engineering-Dokumentationsübung, die Ihr Team so noch nicht gemacht hat.
Post-Market-Monitoring ist fast immer die Lücke. Der Rechtsakt verlangt einen schriftlichen Post-Market-Monitoring-Plan, aktives Monitoring in Produktion und Meldung schwerwiegender Vorfälle innerhalb enger Fristen. Die meisten Organisationen haben reaktive Incident Response, kein proaktives KI-spezifisches Monitoring-Programm. Der erste ernste Incident nach Beginn der Durchsetzung legt diese Lücke offen, und die regulatorische Reaktion ist strukturell unbarmherzig gegenüber Organisationen, die das nicht geplant haben. Post-Market-Monitoring ist der Unterschied zwischen einem konformen Programm und einem Programm auf dem Papier.
Der Scope hängt von der Größe Ihres KI-Footprints und der Anzahl der Hochrisiko-Systeme im Anwendungsbereich ab. Zwölf Wochen decken ein einzelnes Hochrisiko-System ab; vierundzwanzig Wochen ein Portfolio aus drei bis fünf Systemen mit gemeinsamer Governance-Infrastruktur. Ich arbeite eingebettet mit Ihren Legal-, Compliance- und Engineering-Teams — Ihre Teams machen die Arbeit, ich bringe das regulatorische Lesen und die Mustererkennung von der Policy-Seite.
Wir bauen ein schriftliches Inventar jedes KI-Systems in Ihrer Organisation — Produktion, Pilot, Prototyp — und klassifizieren jedes gegen die Risikokategorien des AI Act. Verboten, Hochrisiko gemäß Anhang III, begrenztes Risiko mit Transparenzpflichten oder minimales Risiko. Die Klassifikation wird mit Begründung und Artikelreferenz dokumentiert. Systeme, die ohne Klassifikation in Betrieb gingen, bekommen ein rückwirkendes Review. Am Ende von Woche vier haben Sie das Dokument, auf das jede folgende Compliance-Entscheidung verweist.
Für jedes Hochrisiko-System bauen wir die Compliance-Artefakte parallel: das Risikomanagement-System, die Dokumentation zur Daten-Governance, die technische Annex-IV-Dokumentation, das Design der menschlichen Aufsicht, die Spezifikationen zu Genauigkeit und Robustheit. Das ist die schwerste Phase und dort, wo die meisten Programme den Aufwand unterschätzen. Ich arbeite mit Ihren Engineering-Teams daran, interne Dokumentation auf Annex-IV-Standard umzuschreiben, nicht sie neu zu erfinden. Für Systeme, die eine benannte Stelle erfordern, bereiten wir das Einreichungspaket und das Response-Playbook für die Klarstellungen vor, die folgen werden.
Wir bauen das Post-Market-Monitoring-Programm auf — den schriftlichen Plan, das aktive Monitoring in Produktion, die Kriterien zur Incident-Klassifikation, die Reporting-Workflows mit der Fristen-Compliance, die die Regulierung verlangt. Das Monitoring integriert sich in den Observability-Stack, den Sie bereits haben, erweitert um die KI-spezifischen Signale, die zählen: Accuracy-Drift, demografische Performance-Drift, Monitoring nachteiliger Auswirkungen, Signale von Nutzerschäden. Incident-Response-Runbooks werden auf die Meldefristen der Regulierung geschrieben, nicht im Moment des ersten Incidents erraten.
Wir bauen die Governance-Infrastruktur für die lange Strecke — das Charter des KI-Governance-Ausschusses, den Intake-Prozess für neue KI-Systeme, den wiederkehrenden Review-Zyklus, das Schulungsprogramm für Mitarbeitende, die mit Hochrisiko-Systemen arbeiten, den Vendor-Management-Ansatz für KI-Komponenten Dritter. Das Programm muss ohne mich laufen, wenn das Engagement endet. Ich produziere die Playbooks, die Vorlagen und das Entscheidungs-Log, sodass Ihr nächstes Hochrisiko-System durch einen wiederholbaren Prozess läuft statt die Discovery-Arbeit aus Woche eins zu wiederholen.
Unternehmen, die in der EU oder in die EU hinein tätig sind, mit Hochrisiko-KI-Systemen im Sinne des Anhangs III — Bonitätsbewertung, Beschäftigung, Bildung, essenzielle Dienste, Strafverfolgung, Migration, Justizverwaltung und die weiteren Kategorien, die die Regulierung konkret benennt. Organisationen mit einem KI-Footprint, bei dem bereits die Klassifikation eine mehrwöchige Discovery-Übung ist. Käufer und Betreiber im öffentlichen Sektor, die zusätzlich zum Regulator von ihren eigenen Aufsichtsstellen geprüft werden. Das ist nicht für Organisationen, deren KI-Einsatz vollständig außerhalb des Anhangs III liegt — eine Transparenzpflicht bei begrenztem Risiko ist ein deutlich kleineres Engagement als eine volle Konformitätsbewertung. Es ist auch kein Ersatz für externe Rechtsberatung zur regulatorischen Strategie; ich engineere das Compliance-Programm, Ihre General Counsel oder externe Kanzlei übernimmt die rechtliche Positionierung.
Ihre Kanzlei sagt Ihnen, was die Regulierung verlangt; ich baue das Programm, das sie umsetzt. Das ist komplementär, nicht konkurrierend. Die meisten Organisationen stellen fest: Die Rechtsberatung ist klar, und die Umsetzungslücke ist enorm — die Kanzlei kann Ihre Annex-IV-Dokumentation nicht schreiben, Ihre menschliche Aufsicht nicht designen und Ihre Post-Market-Monitoring-Pipeline nicht aufbauen. Das ist Engineering und Programm-Management, was dieses Engagement liefert. Ich arbeite neben externer Rechtsberatung; sie besitzt die Rechtsstrategie, ich besitze das operative Programm.
Die gestaffelte Durchsetzungszeitachse ist gesetzlich geregelt. Verbote sind seit Februar 2025 durchsetzbar, Regeln zu General-Purpose-KI seit August 2025, und die Hochrisiko-Pflichten greifen im August 2026, mit den restlichen Bestimmungen in 2027. Spezifische Leitlinien benannter Stellen und des Europäischen KI-Büros entwickeln sich weiter, was die Details betrifft, wie Konformität nachgewiesen wird — nicht ob sie erforderlich ist. Jedes Programm, das auf den Hochrisiko-Stichtag 2026 zielt, muss jetzt in der Umsetzung sein, nicht in der Planung, weil allein die Zeitachsen der Konformitätsbewertung in Monaten laufen, sobald eine benannte Stelle beteiligt ist.
Dokumentieren Sie die Klassifikationsbegründung zum Zeitpunkt der Entscheidung, gestützt auf Artikelreferenzen, und seien Sie bereit, sie zu verteidigen. Eine verteidigbare Limited-Risk-Einstufung mit schriftlicher Begründung ist eine deutlich stärkere Position als ein informell oder gar nicht klassifiziertes System. Wo die Klassifikation wirklich mehrdeutig ist, klassifizieren wir konservativ — die Kosten, ein Hochrisiko-System vorzubereiten, das sich als begrenztes Risiko herausstellt, sind gering; die Kosten, ein Hochrisiko-System als begrenztes Risiko zu deployen, sind die Strafen aus dem Untertitel. Ich mache diesen Trade-off im Inventar-Dokument explizit, nicht in einem Spreadsheet versteckt.
Wenn die Ausgabe Ihres KI-Systems in der EU verwendet wird, ja — die Regulierung gilt als Anbieter oder Betreiber unabhängig vom Sitz. Das trifft die meisten US-SaaS-Unternehmen mit europäischen Kunden, was oft eine unerfreuliche Entdeckung ist. Praktisch scopen wir das Programm auf die Systeme mit EU-Exposition und führen die Compliance-Arbeit dagegen — das kann ein kleinerer Footprint sein als Ihr gesamtes KI-Portfolio, was Zeitplan und Kosten deutlich reduziert im Vergleich zum Rollout eines Gesamtprogramms.
Die DSGVO deckt die Verarbeitung personenbezogener Daten ab; der AI Act Sicherheit, Transparenz und Risikomanagement von KI-Systemen. Sie überlappen sich im Bereich Daten-Governance — Ihre AI-Act-Daten-Governance-Dokumentation wird Ihre DSGVO-DPIAs referenzieren und erweitern, wo personenbezogene Daten betroffen sind. In der Praxis sollten beide Programme dasselbe Dateninventar und denselben Governance-Ausschuss teilen, weil dieselben Engineering-Systeme unter beiden Regulierungen in den Anwendungsbereich fallen. Ein Compliance-Programm, das DSGVO und AI Act als parallele Silos fährt, dupliziert Arbeit und produziert Inkonsistenzen, die Auditoren bemerken.
Entdecken Sie weitere Services, die dieses Angebot ergänzen
30 Minuten. Ich diagnostiziere Ihre Situation und sage Ihnen ehrlich, ob dieser Service passt — und wenn nicht, welcher.