Lifecycle stage — Discover
Vous avez dépensé entre 50 k€ et 500 k€ en outils IA, pilotes et contrats fournisseurs au cours des dix-huit derniers mois. Vous ne pouvez pas me dire — avec des chiffres — si quoi que ce soit fonctionne. Ce n'est pas un manque de rigueur ; c'est ce qui se produit quand la technologie avance plus vite que le modèle opérationnel que vous aviez bâti pour la gouverner. Il s'agit de la phase DIAGNOSE de la Hyperion Lifecycle, compressée en deux semaines et facturée au forfait pour qu'aucun compteur ne tourne pendant que vous décidez. J'ai audité plus de 30 startups IA en tant que conseiller Berkeley SkyDeck et mis dix ventures IA personnelles en production. Les schémas d'échec se répètent. Je sais ce qu'il faut chercher, et je sais quels écarts sont bloquants par rapport à ceux avec lesquels vous pouvez vivre jusqu'à l'année prochaine.
Vous avez acheté des outils sans pouvoir démontrer le ROI. Il y a une licence Copilot par ingénieur, une facture d'API LLM qui a augmenté de 40 % le trimestre dernier, un contrat fournisseur pour une plateforme GenAI que personne n'ouvre, et un chatbot qui répond à 200 questions client par jour. Rien de tout cela n'est rattaché à un résultat métier mesurable. Quand le CFO demande si l'IA se rentabilise, vous ne le savez pas — et votre responsable data non plus.
La direction ne sait pas distinguer les bloquants des écarts tolérables. Votre équipe vous apporte une liste de 40 « risques IA ». Certains sont de vrais bloquants d'achat — traçabilité des données manquante pour des workloads régulés, pas de harnais d'évaluation, aucun protocole de réponse aux incidents pour les défaillances de modèles. D'autres sont des risques de magazine qui n'auront pas d'importance avant deux ans. Il vous faut quelqu'un d'extérieur à l'équipe pour les classer, et votre équipe ne peut pas se classer elle-même honnêtement.
Personne en interne ne peut auditer les fournisseurs. Vos fournisseurs IA font de bonnes démos. Ils vous montrent une évaluation qu'ils ont conçue eux-mêmes. Ils répondent aux questions avec l'assurance de ceux qui savent que votre équipe ne vérifiera pas les calculs. Vous n'avez pas d'expert interne capable de lire une model card, de stress-tester une démo commerciale, ou de dire si le « fine-tuning » mentionné au contrat est un vrai fine-tuning ou un system prompt. Cette asymétrie vous coûte à chaque renouvellement.
La roadmap à 90 jours repart à zéro chaque trimestre. Tous les trois mois, un nouveau modèle sort, un nouveau fournisseur écrit à votre CAIO, et votre plan est réécrit pour coller à la dernière nouveauté. Le plan n'a pas de hiérarchie — pas de « voici ce que l'on fait, quoi qu'OpenAI livre mardi prochain ». Sans cette colonne vertébrale, la roadmap est réactive, et les roadmaps réactives sont la raison pour laquelle des organisations passent trois ans sur l'IA sans capitaliser le moindre avantage.
Il s'agit d'une mission au forfait, avec un périmètre et une échéance fixes. Semaine une : découverte et évaluation technique. Semaine deux : synthèse et livrable écrit. Je travaille en asynchrone entre les entretiens pour que votre équipe ne soit pas bloquée en m'attendant.
Entretiens structurés de 60 minutes avec le CEO, le CFO, le CAIO ou responsable data, le responsable de l'ingénierie, et deux opérateurs qui utilisent réellement les outils IA au quotidien. Je pose les mêmes questions à chaque fois pour trianguler là où le récit craque. Je relis aussi vos quatre derniers decks de conseil traitant d'IA, chaque contrat fournisseur de plus de 25 k€, et votre politique IA actuelle s'il en existe une. À la fin du jour trois, j'ai une thèse de travail sur votre point de départ réel.
J'entre en profondeur dans les systèmes IA en production ou pilotés — pipelines de données, pratique d'évaluation (ou son absence), gouvernance des modèles, posture de sécurité, verrouillage fournisseur, réponse aux incidents. Pour chaque système, je réponds à trois questions : est-ce que ça marche, est-ce que c'est mesurable, est-ce défendable lors d'une revue d'achat ou d'un audit. C'est la couche que la plupart des équipes internes ne peuvent pas produire honnêtement car leurs incitations vont dans l'autre sens.
Je classe chaque écart sur une échelle à quatre niveaux : bloquant d'achat (à corriger maintenant, sinon vous perdez des deals ou échouez à un audit), bloquant de ROI (à corriger ce trimestre, sinon vous ne pouvez pas prouver la valeur), risque de passage à l'échelle (à corriger avant de doubler les dépenses IA) et finition (à corriger quand la capacité le permet). Chaque élément reçoit une estimation d'effort et une proposition de responsable. Ce classement est ce dont la direction a réellement besoin — la liste complète sans classement est paralysante.
J'écris la roadmap à 90 jours — projets précis, responsables précis, indicateurs de succès précis, séquencés pour que les premières victoires financent la suite. Puis je livre le rapport à votre équipe de direction lors d'une restitution de 90 minutes et je réponds aux questions difficiles en direct. Vous sortez de la pièce avec un document que le CFO peut défendre, que le CAIO peut exécuter et que le conseil peut revoir au trimestre suivant.
CEO de PME et entreprises mid-market qui ont dépensé 50 k€-500 k€ en outillage IA sur les dix-huit derniers mois sans image claire du ROI. CAIO préparant un engagement du T3 ou T4 qui ont besoin d'une évaluation externe avant de signer le prochain contrat fournisseur. Dirigeants du secteur public confrontés à une revue d'achat ou à un audit et qui ne peuvent pas répondre « est-ce que cela fonctionne » avec des données. Ce n'est pas pour les grandes entreprises avec des budgets IA supérieurs à 5 M€ — ces organisations ont besoin du Strategy Sprint de 4 semaines avec un business case complet et un plan d'exécution sur 12 mois. Ce n'est pas non plus pour des startups pré-revenu sans IA déployée ; l'audit suppose qu'il y a quelque chose à auditer.
Parce que la valeur d'un audit, c'est le classement, pas les heures. Une mission en régie crée la mauvaise incitation — passer plus de temps, trouver plus de problèmes. Un forfait à périmètre fixe signifie que je livre le rapport au jour quatorze, quel que soit le nombre d'entretiens menés, et mon incitation est de vous fournir le classement le plus utile dans le temps imparti. Si je mets trois jours de plus à terminer l'évaluation technique, c'est mon problème, pas le vôtre.
Parce que votre responsable data est à l'intérieur de l'économie politique des décisions à auditer. Il ne peut pas vous dire que le contrat fournisseur signé par son équipe l'an dernier était une erreur — pas parce qu'il mentirait, mais parce que ses incitations ne soutiennent pas cette conversation. Un auditeur externe sans enjeu dans l'historique peut classer les écarts honnêtement. J'apporte aussi la reconnaissance de schémas issue de plus de 30 autres audits que votre responsable data, par définition, n'a pas.
Périmètre, prix et qui fait le travail. Une évaluation IA Big Four dure typiquement 8 à 12 semaines, coûte 200 k€+, et est réalisée par des analystes qui ont moins d'expérience IA en production que votre propre équipe d'ingénierie. Ici : deux semaines, forfait, et réalisé par quelqu'un qui a mis dix ventures IA en production et en a audité trente autres. Le livrable est plus tranchant parce que le jugement l'est, et vous obtenez un document que votre CAIO respecte plutôt qu'un document qu'il doit refaire en interne.
Alors c'est ce que dira le rapport, et il le dira par écrit avec preuves. Environ un audit sur cinq conclut que l'organisation investit au-delà de sa capacité opérationnelle et devrait consolider avant d'en rajouter. C'est une conclusion légitime et souvent onéreuse — un contrat fournisseur de 300 k€ non renouvelé amortit l'audit vingt fois. Je n'ai aucune incitation à vous vendre plus d'IA ; mon incitation est de vous donner un classement que vous pouvez défendre.
Decouvrez d'autres services qui completent cette offre
30 minutes. Je diagnostique votre situation, je vous dis honnêtement si ce service convient — et sinon, lequel conviendrait.