L'entreprise AI que vous evaluez est-elle reellement defensible ? Ou juste une interface sur le modèle de quelqu'un d'autre ? Les startups AI ont lève 131,5 milliards d'euros en 2025. La plupart ne survivront pas. L' 'ere des wrappers' s'effondre alors que les modèles de fondation integrent les fonctionnalités que les startups presentaient comme uniques. Sur plus de 30 évaluations : 40 % montraient un risque de wrapper significatif. 30 % avaient une defensibilite moderee. Seuls 20 % avaient des moats solides. Ce service va au niveau moleculaire — retro-ingénierie des architectures AI, évaluation de la provenance des données, test des affirmations de performance des modèles, et determination de si le moat est reel, artificiel ou inexistant.
70 % des 'entreprises AI' sont de fines couches au-dessus de modèles de fondation. Quand OpenAI ou Anthropic livre leur fonctionnalité comme capacité intégrée, toute la proposition de valeur de la startup s'evapore du jour au lendemain. J'ai vu cela arriver a 4 entreprises que j'ai évaluées dans les 12 derniers mois.
Les demos AI sont seduisantes. Une demo soigneusement préparée peut faire passer un appel API a 50 USD/mois pour une percee a 50M USD. Vous avez besoin de quelqu'un qui peut lire la facture d'infrastructure et faire la différence en minutes, pas en semaines.
La provenance des données est la nouvelle PI — mais la plupart des investisseurs ne peuvent pas évaluer si l'avantage en données d'une entreprise est reel, durable, et juridiquement defensible sous le RGPD et l'EU AI Act. Le moat data est le moat. Tout le reste est temporaire.
L'EU AI Act crée une nouvelle dimension de risque. Une classification AI haut risque peut ajouter 500 000 a 2 millions d'euros de coûts de conformité que personne n'a budgetes. Et une entreprise construite sur le modèle de quelqu'un d'autre n'a aucun controle sur la conformité quand le fournisseur change ses conditions.
Une investigation systématique qui va des affirmations de surface a la réalité au niveau moleculaire. Chaque couche s'appuie sur la précédente, creant une image complété de ce qu'est reellement l'AI, de sa defensibilite, et de la duree de vie du moat.
Retro-ingénierie du pipeline AI : ingestion de données, feature engineering, architecture du modèle, pipeline d'inférence, boucles de feedback. Est-ce un modèle fine-tune, un système RAG, une chaîne de prompts, ou une veritable architecture nouvelle ?
Evaluer la provenance des données, la rarete, les effets de réseau, et la defensibilite. Un concurrent bien finance peut-il repliquer cet avantage en données en 12 mois ? Les données sont-elles obtenues legalement et conformes au RGPD ?
Méthodologie d'entraînement, innovation architecturale, optimisation spécifique au domaine. Est-ce reproductible par une équipe ML competente en 3 mois ? Y a-t-il de veritables secrets commerciaux ou juste du prompt engineering ?
Cartographier le moat technique face aux feuilles de route des modèles de fondation (OpenAI, Anthropic, Google, Meta). Ou se situe exactement le moat, et combien de mois tient-il avant la commoditisation ?
Une méthodologie d'évaluation forensique AI construite à partir de la construction de 31 modèles AI de production et de l'évaluation de plus de 30 entreprises AI. Va au-delà de la revue technique de surface pour atteindre la forensique d'architecture au niveau moleculaire.
Les VCs evaluant des startups AI-first du Seed a la Serie C. Les fonds PE acquerant des entreprises AI-enabled ou l'AI est la thèse de valeur. Les branches de corporate venture evaluant des partenariats technologiques AI. Vous avez besoin de quelqu'un qui a construit de l'AI de production — pas juste revue — pour vous dire si cette AI est reelle.
La DD technique standard couvre toute la stack technologique : infrastructure, équipe, sécurité, scalabilité. La Forensique de Moat AI est concentree comme un laser sur l'AI spécifiquement : l'AI est-elle reelle ? Est-elle defensible ? Combien de temps avant que les modèles de fondation ne la commoditisent ? Considerez cela comme l'examen spécialisé après le bilan général.
Multiples signaux : patterns d'appels API vers des fournisseurs externes, profils de latence de réponse, patterns de messages d'erreur, tests de cohérence du comportement du modèle, analyse des coûts d'infrastructure vs. capacités affirmees, et investigation architecturale directe. Une entreprise faisant tourner des modèles proprietaires à une empreinte d'infrastructure fondamentalement différente de celle qui appelle l'API d'OpenAI.
Expertise approfondie en AI de production dans l'automobile (Renault-Nissan), les plateformes enterprise (Cisco), l'IoT industriel (ABB), et le SaaS général. Pour les domaines hautement spécialisés comme la découverte de medicaments ou la modélisation climatique, j'évalué l'architecture AI et la defensibilite tout en m'associant avec des experts du domaine pour l'évaluation au niveau applicatif.
Sur plus de 30 évaluations : environ 40 % montrent un risque de wrapper significatif (fine couche sur des modèles de fondation), 30 % ont une defensibilite moderee (données proprietaires ou fine-tuning, mais reproductible), 20 % ont des moats solides (veritable innovation architecturale ou actifs de données irremplacables), et 10 % sont exceptionnels (veritable percee tres difficile a repliquer).
Chaque évaluation inclut la classification EU AI Act : Inacceptable (interdit), Haut risque (exigences de conformité lourdes), Risque limite (obligations de transparence), ou Risque minimal (auto-regulation). Pour les classifications haut risque, j'estime les coûts de conformité (200 000 a 2M EUR+), le calendrier, et l'impact sur le modèle économique. C'est de plus en plus critique pour tout investissement AI en Europe.
Decouvrez d'autres services qui completent cette offre
Discutons de la façon dont ce service peut répondre à vos defis spécifiques et produire des résultats concrets.