Is het AI-bedrijf dat u evalueert echt verdedigbaar? Of gewoon een UI op andermans model? AI-startups haalden €131,5B op in 2025. De meeste zullen niet overleven. Het 'wrapper-tijdperk' stort in nu foundation models functies integreren die startups als uniek pitchten. Uit 30+ beoordelingen: 40% toonde significant wrapperrisico. 30% had matige verdedigbaarheid. Slechts 20% had sterke moats. Deze dienst gaat naar moleculair niveau — reverse-engineering van AI-architecturen, evaluatie van dataherkomst, testen van modelprestatie-claims en vaststellen of de moat echt, kunstmatig of niet-bestaand is.
70% van 'AI-bedrijven' zijn dunne lagen bovenop foundation models. Wanneer OpenAI of Anthropic hun functie als ingebouwde capaciteit levert, verdampt de gehele waardepropositie van de startup van de ene op de andere dag. Ik heb het zien gebeuren bij 4 bedrijven die ik het afgelopen jaar heb beoordeeld.
AI-demo's zijn verleidelijk. Een zorgvuldig samengestelde demo kan een $50/maand API-aanroep eruitzien als een doorbraak van $50M. U hebt iemand nodig die de infrastructuurrekening kan lezen en het verschil kent in minuten, niet weken.
Dataherkomst is het nieuwe IP — maar de meeste investeerders kunnen niet beoordelen of het datavoordeel van een bedrijf echt, duurzaam en juridisch verdedigbaar is onder GDPR en EU AI Act. De datamoat is de moat. Al het andere is tijdelijk.
De EU AI Act creëert een nieuwe risico-dimensie. Een hoog-risico AI-classificatie kan €500K-€2M aan compliancekosten toevoegen waar niemand budget voor had. En een bedrijf gebouwd op andermans model heeft nul controle over compliance wanneer de provider zijn voorwaarden wijzigt.
Een systematisch onderzoek dat gaat van oppervlakte-claims naar moleculair-niveau realiteit. Elke laag bouwt voort op de vorige en creëert een compleet beeld van wat de AI werkelijk is, hoe verdedigbaar het is en hoe lang de moat standhoudt.
Reverse-engineer de AI-pipeline: data-ingestie, feature engineering, modelarchitectuur, inferentiepipeline, feedbackloops. Is dit een fine-tuned model, een RAG-systeem, een promptketen of echte nieuwe architectuur?
Evalueer dataherkomst, zeldzaamheid, netwerkeffecten en verdedigbaarheid. Kan een goed gefinancierde concurrent dit datavoordeel in 12 maanden repliceren? Is de data legaal verkregen en GDPR-compliant?
Trainingsmethodologie, architecturale innovatie, domeinspecifieke optimalisatie. Is dit reproduceerbaar door een competent ML-team in 3 maanden? Zijn er echte bedrijfsgeheimen of alleen prompt engineering?
Breng de technische moat in kaart tegen foundation model-routekaarten (OpenAI, Anthropic, Google, Meta). Waar precies zit de moat en hoeveel maanden houdt het stand vóór commoditisering?
Een forensische AI-beoordelingsmethodologie gebouwd uit het bouwen van 31 productie-AI-modellen en het evalueren van 30+ AI-bedrijven. Gaat verder dan oppervlakkige technische review naar moleculair-niveau architectuurforensiek.
VC's die AI-first startups evalueren van Seed tot Series C. PE-firma's die AI-enabled bedrijven overnemen waar de AI de waardethese is. Corporate venture-afdelingen die AI-technologiepartnerschappen beoordelen. U hebt iemand nodig die productie-AI heeft gebouwd — niet alleen gereviewed — om u te vertellen of deze AI echt is.
Standaard tech DD dekt de volledige technologiestack: infrastructuur, team, beveiliging, schaalbaarheid. AI Moat Forensics is lasergeconcentreerd op de AI specifiek: Is de AI echt? Is het verdedigbaar? Hoe lang voordat foundation models het commoditiseren? Zie het als het specialistisch onderzoek na de algemene controle.
Meerdere signalen: API-aanroeppatronen naar externe providers, responslatentieprofielen, foutmeldingspatronen, modelgedragconsistentietests, infrastructuurkostenanalyse vs. geclaimde capaciteiten en directe architectuuronderzoek. Een bedrijf dat eigen modellen draait heeft een fundamenteel andere infrastructuurvoetafdruk dan een bedrijf dat OpenAI's API aanroept.
Diepgaande expertise in productie-AI in automotive (Renault-Nissan), enterprise-platforms (Cisco), industrieel IoT (ABB) en algemene SaaS. Voor zeer gespecialiseerde domeinen zoals geneesmiddelonderzoek of klimaatmodellering beoordeel ik de AI-architectuur en verdedigbaarheid terwijl ik samenwerk met domeinexperts voor evaluatie op toepassingsniveau.
Uit 30+ beoordelingen: ruwweg 40% toont significant wrapperrisico (dunne laag op foundation models), 30% heeft matige verdedigbaarheid (eigen data of fine-tuning, maar reproduceerbaar), 20% heeft sterke moats (echte architecturale innovatie of onvervangbare data-assets) en 10% is uitzonderlijk (echte doorbraak die zeer moeilijk te repliceren zou zijn).
Elke beoordeling omvat EU AI Act-classificatie: Onaanvaardbaar (verboden), Hoog risico (zware compliance-eisen), Beperkt risico (transparantieverplichtingen) of Minimaal risico (zelfregulering). Voor hoog-risicoclassificaties schat ik compliancekosten (€200K-€2M+), tijdlijn en impact op het bedrijfsmodel. Dit is steeds kritischer voor elke AI-investering in Europa.
Ontdek andere diensten die dit aanbod aanvullen
Laten we bespreken hoe deze dienst uw specifieke uitdagingen aanpakt en echte resultaten oplevert.