2 augustus 2026. Dan begint de handhaving van de EU AI Act voor AI-systemen met hoog risico. Boetes: €35 miljoen of 7% van de wereldwijde omzet. Welk bedrag hoger is. Verboden AI-praktijken zijn al verboden sinds februari 2025. Weet u überhaupt welke van uw AI-systemen als hoog risico worden geclassificeerd? De meeste organisaties niet. Dat is Compliance-Blindheid — en het is het duurste risico dat u negeert.
U hebt geen inventaris van AI-systemen. Biometrische toegangscontrole, wervingsscreeningtools, credit scoring-modellen, AI voor kritieke infrastructuur — elk hiervan maakt u hoog risico onder EU AI Act Artikel 6. En u hebt het niet gecontroleerd.
Vijf documentatie-eisen zijn nu wet: technische documentatie, conformiteitsbeoordelingen, procedures voor menselijk toezicht, datagovernanceregisters en incidentrapportageprotocollen. Niemand in uw organisatie is eigenaar van ook maar één ervan.
Juridisch zegt dat het een tech-probleem is. Tech zegt dat het een juridisch probleem is. Ondertussen begint EU AI Act-handhaving op 2 augustus 2026 en u hebt geen enkele verantwoordelijke aangewezen.
Uw AI-leveranciers claimen compliance. U kunt het niet verifiëren. Onder de EU AI Act bestaan verplichtingen voor gebruikers onafhankelijk van leveranciersverplichtingen. U bent aansprakelijk voor wat u implementeert — ongeacht wat uw leverancier u vertelt.
EU AI Act compliance-consultancy die in weken van beoordeling naar auditgereed gaat, niet in kwartalen. Hetzelfde framework waarmee ik Aegis AI heb gebouwd — een specifiek ontwikkelde compliance-engine voor EU AI Act en GDPR. Praktische governance die integreert met uw bestaande processen, geen ordnersvuloefeningen.
Volledige inventaris van elk AI-systeem — intern gebouwd, leverancierstools, ingebedde modellen. Classificeer elk systeem onder EU AI Act Artikel 6: hoog risico (biometrische systemen, wervings-AI, credit scoring, AI voor kritieke infrastructuur), beperkt risico of minimaal risico. U krijgt helderheid in 2 weken.
Geprioriteerd actieplan dat elk hoog-risicosysteem koppelt aan zijn 5 documentatie-eisen: technische documentatie, conformiteitsbeoordeling, menselijk toezicht, datagovernance en incidentrapportage. Elke eis krijgt een eigenaar en deadline.
Bouw de documentatie, configureer de monitoring, train de teams. Conformiteitsbeoordelingen voor elk hoog-risicosysteem. Procedures voor menselijk toezicht die in de praktijk werken. Datagovernance die voldoet aan zowel EU AI Act als GDPR.
Governance-framework vergrendeld: beleid, processen, rollen, continue monitoring. Uw organisatie kan compliance aantonen aan elke auditor, toezichthouder of bestuurslid op verzoek.
Afgestemd op ISO 42001 AI-managementsysteemstandaarden en EU-datasoevereiniteitseisen. GOVERN behandelt EU AI Act-compliance als een engineeringprobleem, geen juridische afvinkexercitie. Elke deliverable koppelt rechtstreeks aan een regelgevingsverplichting onder Artikel 6 hoog-risicoclassificatie. Mohammed bouwde Aegis AI — een volledige compliance-engine voor EU AI Act-risicoclassificatie, verplichtingenextractie en auditklare rapportage — met precies deze methodologie.
U zet AI in op de EU-markt of bedient EU-burgers. U hebt meerdere AI-systemen en geen gecentraliseerde inventaris. Uw bestuur vraagt naar EU AI Act-compliance en niemand heeft antwoorden. U gebruikt AI bij werving, credit scoring, biometrie of kritieke infrastructuur — elk waarvan hoog-risicoclassificatie triggert. U wilt auditklare compliance vóór 2 augustus 2026, geen theoretische frameworks die stof vangen.
Ja. De EU AI Act heeft extraterritoriaal bereik. Als de output van uw AI-systeem iemand in de EU beïnvloedt — zelfs als uw bedrijf in New York, Singapore of Dubai is gevestigd — valt u onder de jurisdictie. Hetzelfde extraterritoriale principe als GDPR. Mohammed Cherifi, EU AI Act-complianceconsultant gevestigd in Parijs, adviseert organisaties in Europa, Noord-Amerika en Azië-Pacific over het voldoen aan deze grensoverschrijdende verplichtingen.
Hoog-risicoclassificatie onder EU AI Act Artikel 6 hangt af van wat uw AI doet, niet hoe het werkt. Biometrische identificatiesystemen, AI gebruikt bij wervingsbeslissingen, credit scoring-modellen, AI in onderwijs, gezondheidszorgdiagnostiek en beheer van kritieke infrastructuur — allemaal hoog risico. De toets is de use case, niet de technologie. Mohammed voert systematische AI-inventarisaties uit om precies te identificeren welke van uw systemen conformiteitsbeoordeling vereisen en welke lichtere governance krijgen.
Drie datums zijn belangrijk. 2 februari 2025: verboden AI-praktijken al verboden (social scoring, real-time biometrische surveillance met beperkte uitzonderingen). 2 augustus 2025: verplichtingen voor AI-modellen voor algemene doeleinden van toepassing. 2 augustus 2026: hoog-risicosysteemeisen volledig afdwingbaar. U hebt maanden, geen jaren. Nu beginnen geeft u tijd voor inventarisatie, classificatie en documentatie. Beginnen in juni 2026 betekent noodscenario's en hiaten.
Nee. De EU AI Act scheidt aanbiederverplichtingen van gebruikersverplichtingen. Uw leverancier moet ervoor zorgen dat hun systeem voldoet aan technische standaarden. U moet zorgen voor correct gebruik, menselijk toezicht, monitoring en incidentrapportage. Als de wervings-AI van uw leverancier discrimineert en u het hebt geïmplementeerd zonder toezichtprocedures, bent u aansprakelijk. Mohammed helpt gebruikers hun specifieke verplichtingen in kaart te brengen onafhankelijk van leveranciersclaims.
Drie niveaus. Tot €35 miljoen of 7% van de wereldwijde jaaromzet voor verboden AI-praktijken. Tot €15 miljoen of 3% voor schendingen van hoog-risicosystemen. Tot €7,5 miljoen of 1,5% voor het verstrekken van onjuiste informatie aan autoriteiten. De verordening gebruikt het hogere bedrag. Voor MKB's worden boetes proportioneel verlaagd maar blijven materieel. Deze sancties zijn ontworpen om niet-naleving duurder te maken dan naleving.
Twee variabelen: hoeveel AI-systemen u opereert en of u bestaande governance hebt. Organisaties met ISO 42001 of vergelijkbare frameworks bereiken doorgaans auditklare status in 3-4 maanden. Organisaties die bij nul beginnen hebben 6-9 maanden nodig. De grootste tijdvreters zijn AI-systeeminventarisatie (de meeste bedrijven ondertellen met 40-60%), conformiteitsbeoordelingen voor elk hoog-risicosysteem en het bouwen van procedures voor menselijk toezicht die in de praktijk werken. Hyperion Consulting voltooit de beoordelingssprint in 2 weken.
ISO 42001 is de internationale standaard voor AI-managementsystemen. Het behandelt risicomanagement, governance en verantwoorde AI-ontwikkeling. Hoewel het vrijwillig is en de EU AI Act wet is, hebben organisaties met ISO 42001-certificering 60-70% van de governance-infrastructuur al op orde. Het GOVERN Framework is afgestemd op ISO 42001 zodat u certificering kunt nastreven naast regelgevingscompliance — twee resultaten uit één investering.
Als uw AI-modellen zijn getraind op data van EU-burgers maar gehost worden op Amerikaanse of Chinese cloudinfrastructuur, hebt u overlappend regelgevingsrisico onder zowel EU AI Act als GDPR. Soevereine AI-implementatie — on-premise, EU-gehoste cloud of hybride architecturen — vermindert dit risico. Mohammed beoordeelt soevereine AI-opties die data en AI-verwerking binnen jurisdictiegrenzen houden zonder inferentiesnelheid of kostenefficiëntie op te offeren.
47 eisen gekoppeld aan EU AI Act-artikelen. Dezelfde checklist die Mohammed gebruikt met enterprise-klanten om van nul inventaris naar auditklare compliance te komen vóór 2 augustus 2026.
Ontdek andere diensten die dit aanbod aanvullen
Laten we bespreken hoe deze dienst uw specifieke uitdagingen aanpakt en echte resultaten oplevert.