L'entreprise AI que vous evaluez est-elle reellement defensible ? Ou juste une interface sur le modele de quelqu'un d'autre ? Les startups AI ont leve 131,5 milliards d'euros en 2025. La plupart ne survivront pas. L' 'ere des wrappers' s'effondre alors que les modeles de fondation integrent les fonctionnalites que les startups presentaient comme uniques. Sur plus de 30 evaluations : 40 % montraient un risque de wrapper significatif. 30 % avaient une defensibilite moderee. Seuls 20 % avaient des moats solides. Ce service va au niveau moleculaire — retro-ingenierie des architectures AI, evaluation de la provenance des donnees, test des affirmations de performance des modeles, et determination de si le moat est reel, artificiel ou inexistant.
70 % des 'entreprises AI' sont de fines couches au-dessus de modeles de fondation. Quand OpenAI ou Anthropic livre leur fonctionnalite comme capacite integree, toute la proposition de valeur de la startup s'evapore du jour au lendemain. J'ai vu cela arriver a 4 entreprises que j'ai evaluees dans les 12 derniers mois.
Les demos AI sont seduisantes. Une demo soigneusement preparee peut faire passer un appel API a 50 USD/mois pour une percee a 50M USD. Vous avez besoin de quelqu'un qui peut lire la facture d'infrastructure et faire la difference en minutes, pas en semaines.
La provenance des donnees est la nouvelle PI — mais la plupart des investisseurs ne peuvent pas evaluer si l'avantage en donnees d'une entreprise est reel, durable, et juridiquement defensible sous le RGPD et l'EU AI Act. Le moat data est le moat. Tout le reste est temporaire.
L'EU AI Act cree une nouvelle dimension de risque. Une classification AI haut risque peut ajouter 500 000 a 2 millions d'euros de couts de conformite que personne n'a budgetes. Et une entreprise construite sur le modele de quelqu'un d'autre n'a aucun controle sur la conformite quand le fournisseur change ses conditions.
Une investigation systematique qui va des affirmations de surface a la realite au niveau moleculaire. Chaque couche s'appuie sur la precedente, creant une image complete de ce qu'est reellement l'AI, de sa defensibilite, et de la duree de vie du moat.
Retro-ingenierie du pipeline AI : ingestion de donnees, feature engineering, architecture du modele, pipeline d'inference, boucles de feedback. Est-ce un modele fine-tune, un systeme RAG, une chaine de prompts, ou une veritable architecture nouvelle ?
Evaluer la provenance des donnees, la rarete, les effets de reseau, et la defensibilite. Un concurrent bien finance peut-il repliquer cet avantage en donnees en 12 mois ? Les donnees sont-elles obtenues legalement et conformes au RGPD ?
Methodologie d'entrainement, innovation architecturale, optimisation specifique au domaine. Est-ce reproductible par une equipe ML competente en 3 mois ? Y a-t-il de veritables secrets commerciaux ou juste du prompt engineering ?
Cartographier le moat technique face aux feuilles de route des modeles de fondation (OpenAI, Anthropic, Google, Meta). Ou se situe exactement le moat, et combien de mois tient-il avant la commoditisation ?
Une methodologie d'evaluation forensique AI construite a partir de la construction de 31 modeles AI de production et de l'evaluation de plus de 30 entreprises AI. Va au-dela de la revue technique de surface pour atteindre la forensique d'architecture au niveau moleculaire.
Les VCs evaluant des startups AI-first du Seed a la Serie C. Les fonds PE acquerant des entreprises AI-enabled ou l'AI est la these de valeur. Les branches de corporate venture evaluant des partenariats technologiques AI. Vous avez besoin de quelqu'un qui a construit de l'AI de production — pas juste revue — pour vous dire si cette AI est reelle.
La DD technique standard couvre toute la stack technologique : infrastructure, equipe, securite, scalabilite. La Forensique de Moat AI est concentree comme un laser sur l'AI specifiquement : l'AI est-elle reelle ? Est-elle defensible ? Combien de temps avant que les modeles de fondation ne la commoditisent ? Considerez cela comme l'examen specialise apres le bilan general.
Multiples signaux : patterns d'appels API vers des fournisseurs externes, profils de latence de reponse, patterns de messages d'erreur, tests de coherence du comportement du modele, analyse des couts d'infrastructure vs. capacites affirmees, et investigation architecturale directe. Une entreprise faisant tourner des modeles proprietaires a une empreinte d'infrastructure fondamentalement differente de celle qui appelle l'API d'OpenAI.
Expertise approfondie en AI de production dans l'automobile (Renault-Nissan), les plateformes enterprise (Cisco), l'IoT industriel (ABB), et le SaaS general. Pour les domaines hautement specialises comme la decouverte de medicaments ou la modelisation climatique, j'evalue l'architecture AI et la defensibilite tout en m'associant avec des experts du domaine pour l'evaluation au niveau applicatif.
Sur plus de 30 evaluations : environ 40 % montrent un risque de wrapper significatif (fine couche sur des modeles de fondation), 30 % ont une defensibilite moderee (donnees proprietaires ou fine-tuning, mais reproductible), 20 % ont des moats solides (veritable innovation architecturale ou actifs de donnees irremplacables), et 10 % sont exceptionnels (veritable percee tres difficile a repliquer).
Chaque evaluation inclut la classification EU AI Act : Inacceptable (interdit), Haut risque (exigences de conformite lourdes), Risque limite (obligations de transparence), ou Risque minimal (auto-regulation). Pour les classifications haut risque, j'estime les couts de conformite (200 000 a 2M EUR+), le calendrier, et l'impact sur le modele economique. C'est de plus en plus critique pour tout investissement AI en Europe.
Decouvrez d'autres services qui completent cette offre
Discutons de la facon dont ce service peut repondre a vos defis specifiques et produire des resultats concrets.