2 aout 2026. C'est la date d'entree en vigueur de l'EU AI Act pour les systemes AI a haut risque. Amendes : 35 millions d'euros ou 7 % du chiffre d'affaires mondial. Le montant le plus eleve prevaut. Les pratiques AI interdites sont deja bannies depuis fevrier 2025. Savez-vous seulement lesquels de vos systemes AI sont a haut risque ? La plupart des organisations ne le savent pas. C'est l'Aveuglement Reglementaire — et c'est le risque le plus couteux que vous ignorez.
Vous n'avez aucun inventaire de systemes AI. Controle d'acces biometrique, outils de screening de recrutement, modeles de scoring credit, AI d'infrastructure critique — n'importe lequel de ces systemes vous place en categorie haut risque selon l'article 6 de l'EU AI Act. Et vous n'avez pas verifie.
Cinq exigences documentaires sont desormais loi : documentation technique, evaluations de conformite, procedures de supervision humaine, registres de gouvernance des donnees, et protocoles de signalement d'incidents. Personne dans votre organisation n'en est responsable.
Le juridique dit que c'est un probleme Tech. La Tech dit que c'est un probleme juridique. Pendant ce temps, l'EU AI Act entre en vigueur le 2 aout 2026, et vous n'avez designe aucune personne responsable.
Vos fournisseurs AI affirment leur conformite. Vous ne pouvez pas le verifier. Sous l'EU AI Act, les obligations du deployeur existent independamment des obligations du fournisseur. Vous etes responsable de ce que vous deployez — quelle que soit ce que votre fournisseur vous dit.
Du conseil en conformite EU AI Act qui passe de l'evaluation a la preparation d'audit en semaines, pas en trimestres. Le meme framework que j'ai utilise pour construire Aegis AI — un moteur de conformite concu specifiquement pour l'EU AI Act et le RGPD. Une gouvernance pratique qui s'integre a vos processus existants, pas des exercices de remplissage de classeurs.
Inventaire complet de chaque systeme AI — constructions internes, outils fournisseurs, modeles embarques. Classifier chacun selon l'article 6 de l'EU AI Act : haut risque (systemes biometriques, AI de recrutement, scoring credit, AI d'infrastructure critique), risque limite, ou risque minimal. Vous obtenez la clarte en 2 semaines.
Plan d'action priorise cartographiant chaque systeme a haut risque avec ses 5 exigences documentaires : documentation technique, evaluation de conformite, supervision humaine, gouvernance des donnees, et signalement d'incidents. Chaque exigence a un responsable et un delai.
Construire la documentation, configurer le monitoring, former les equipes. Evaluations de conformite pour chaque systeme a haut risque. Procedures de supervision humaine qui fonctionnent en pratique. Gouvernance des donnees qui satisfait a la fois l'EU AI Act et le RGPD.
Framework de gouvernance verrouille : politiques, processus, roles, monitoring continu. Votre organisation peut demontrer sa conformite a tout auditeur, regulateur ou membre du conseil sur demande.
Aligne avec les standards ISO 42001 de Systeme de Management AI et les exigences de souverainete des donnees europeennes. GOVERN traite la conformite EU AI Act comme un probleme d'ingenierie, pas un exercice juridique a cocher. Chaque livrable correspond directement a une obligation reglementaire sous la classification haut risque de l'article 6. Mohammed a construit Aegis AI — un moteur de conformite complet pour la classification des risques EU AI Act, l'extraction des obligations, et le reporting pret pour l'audit — en utilisant exactement cette methodologie.
Vous deployez de l'AI sur le marche europeen ou servez des citoyens europeens. Vous avez plusieurs systemes AI et aucun inventaire centralise. Votre conseil pose des questions sur la conformite EU AI Act et personne n'a de reponses. Vous utilisez l'AI dans le recrutement, le scoring credit, la biometrie, ou l'infrastructure critique — n'importe lequel de ces usages declenche la classification haut risque. Vous voulez une conformite prete pour l'audit avant le 2 aout 2026, pas des frameworks theoriques qui prennent la poussiere.
Oui. L'EU AI Act a une portee extraterritoriale. Si les resultats de votre systeme AI affectent quiconque dans l'UE — meme si votre entreprise a son siege a New York, Singapour ou Dubai — vous relevez de sa juridiction. Meme principe extraterritorial que le RGPD. Mohammed Cherifi, consultant en conformite EU AI Act base a Paris, conseille des organisations a travers l'Europe, l'Amerique du Nord et l'Asie-Pacifique sur ces obligations transfrontalieres.
La classification haut risque sous l'article 6 de l'EU AI Act depend de ce que fait votre AI, pas de comment elle fonctionne. Systemes d'identification biometrique, AI utilisee dans les decisions de recrutement, modeles de scoring credit, AI dans l'education, diagnostics medicaux, et gestion d'infrastructure critique — tous haut risque. Le test porte sur le cas d'usage, pas la technologie. Mohammed realise des inventaires AI systematiques pour identifier exactement lesquels de vos systemes necessitent une evaluation de conformite et lesquels beneficient d'une gouvernance plus legere.
Trois dates comptent. 2 fevrier 2025 : les pratiques AI interdites sont deja bannies (scoring social, surveillance biometrique en temps reel avec exceptions limitees). 2 aout 2025 : les obligations pour les modeles AI a usage general s'appliquent. 2 aout 2026 : les exigences pour les systemes a haut risque sont pleinement applicables. Vous avez des mois, pas des annees. Commencer maintenant vous donne le temps pour l'inventaire, la classification et la documentation. Commencer en juin 2026 signifie un sprint d'urgence et des lacunes.
Non. L'EU AI Act separe les obligations du fournisseur de celles du deployeur. Votre fournisseur doit s'assurer que son systeme repond aux normes techniques. Vous devez assurer l'utilisation correcte, la supervision humaine, le monitoring et le signalement d'incidents. Si l'AI de recrutement de votre fournisseur discrimine et que vous l'avez deployee sans procedures de supervision, vous etes responsable. Mohammed aide les deployeurs a cartographier leurs obligations specifiques independamment des affirmations des fournisseurs.
Trois niveaux. Jusqu'a 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel pour les pratiques AI interdites. Jusqu'a 15 millions d'euros ou 3 % pour les violations relatives aux systemes a haut risque. Jusqu'a 7,5 millions d'euros ou 1,5 % pour la fourniture d'informations incorrectes aux autorites. Le reglement applique le montant le plus eleve. Pour les PME, les amendes sont proportionnellement reduites mais restent significatives. Ces sanctions sont concues pour rendre la non-conformite plus couteuse que la conformite.
Deux variables : combien de systemes AI vous exploitez et si vous disposez d'une gouvernance existante. Les organisations avec ISO 42001 ou des frameworks similaires atteignent generalement le statut pret pour l'audit en 3-4 mois. Les organisations partant de zero ont besoin de 6-9 mois. Les plus gros postes de temps sont l'inventaire des systemes AI (la plupart des entreprises sous-estiment de 40-60 %), les evaluations de conformite pour chaque systeme a haut risque, et la construction de procedures de supervision humaine qui fonctionnent en pratique. Hyperion Consulting complete le sprint d'evaluation en 2 semaines.
ISO 42001 est le standard international pour les Systemes de Management AI. Il couvre la gestion des risques, la gouvernance et le developpement AI responsable. Bien qu'il soit volontaire et que l'EU AI Act soit une loi, les organisations certifiees ISO 42001 disposent deja de 60-70 % de l'infrastructure de gouvernance necessaire. Le Framework GOVERN s'aligne avec ISO 42001 pour que vous puissiez poursuivre la certification en meme temps que la conformite reglementaire — deux resultats pour un seul investissement.
Si vos modeles AI sont entraines sur des donnees de citoyens europeens mais heberges sur une infrastructure cloud americaine ou chinoise, vous faites face a une exposition reglementaire croisee sous l'EU AI Act et le RGPD. Le deploiement AI souverain — on-premise, cloud heberge dans l'UE, ou architectures hybrides — reduit ce risque. Mohammed evalue les options AI souveraines qui maintiennent les donnees et le traitement AI dans les limites juridictionnelles sans sacrifier la vitesse d'inference ni l'efficacite des couts.
47 exigences cartographiees article par article de l'EU AI Act. La meme checklist que Mohammed utilise avec ses clients enterprise pour passer de zero inventaire a une conformite prete pour l'audit avant le 2 aout 2026.
Decouvrez d'autres services qui completent cette offre
Discutons de la facon dont ce service peut repondre a vos defis specifiques et produire des resultats concrets.