Ist das AI-Unternehmen, das Sie evaluieren, wirklich verteidigungsfähig? Oder nur eine UI auf dem Modell eines anderen? AI-Startups haben 2025 €131,5 Mrd. eingeworben. Die meisten werden nicht überleben. Die ‚Wrapper-Ära' kollabiert, da Foundation Models Funktionen integrieren, die Startups als einzigartig gepitcht haben. Aus über 30 Bewertungen: 40 % zeigten signifikantes Wrapper-Risiko. 30 % hatten moderate Verteidigungsfähigkeit. Nur 20 % hatten starke Moats. Dieser Service geht auf die molekulare Ebene — AI-Architekturen reverse-engineeren, Datenherkunft evaluieren, Modellleistungsbehauptungen testen und feststellen, ob der Moat echt, künstlich oder nicht existent ist.
70 % der ‚AI-Unternehmen' sind dünne Schichten auf Foundation Models. Wenn OpenAI oder Anthropic ihr Feature als eingebaute Fähigkeit ausliefert, verdunstet das gesamte Wertversprechen des Startups über Nacht. Ich habe das bei 4 Unternehmen beobachtet, die ich in den letzten 12 Monaten bewertet habe.
AI-Demos sind verführerisch. Eine sorgfältig kuratierte Demo kann einen $50/Monat-API-Aufruf wie einen $50M-Durchbruch aussehen lassen. Sie brauchen jemanden, der die Infrastrukturrechnung lesen und den Unterschied in Minuten erkennen kann, nicht in Wochen.
Datenherkunft ist das neue IP — aber die meisten Investoren können nicht evaluieren, ob der Datenvorteil eines Unternehmens echt, nachhaltig und unter DSGVO und EU AI Act rechtlich verteidigbar ist. Der Daten-Moat ist der Moat. Alles andere ist temporär.
Der EU AI Act schafft eine neue Risikodimension. Eine Hochrisiko-AI-Klassifizierung kann €500K-€2M an Compliance-Kosten hinzufügen, die niemand budgetiert hat. Und ein Unternehmen, das auf dem Modell eines anderen aufgebaut ist, hat null Kontrolle über Compliance, wenn der Provider seine Bedingungen ändert.
Eine systematische Untersuchung, die von Oberflächen-Behauptungen zur molekularen Realität vordringt. Jede Schicht baut auf der vorherigen auf und schafft ein vollständiges Bild davon, was die AI tatsächlich ist, wie verteidigungsfähig sie ist und wie lange der Moat hält.
Die AI-Pipeline reverse-engineeren: Datenaufnahme, Feature Engineering, Modellarchitektur, Inferenz-Pipeline, Feedback-Schleifen. Ist das ein feinabgestimmtes Modell, ein RAG-System, eine Prompt-Kette oder echte neuartige Architektur?
Datenherkunft, Seltenheit, Netzwerkeffekte und Verteidigungsfähigkeit evaluieren. Kann ein gut finanzierter Wettbewerber diesen Datenvorteil in 12 Monaten replizieren? Sind die Daten legal beschafft und DSGVO-konform?
Trainingsmethodik, architektonische Innovation, domänenspezifische Optimierung. Ist das reproduzierbar durch ein kompetentes ML-Team in 3 Monaten? Gibt es echte Geschäftsgeheimnisse oder nur Prompt Engineering?
Den technischen Moat gegen Foundation-Model-Roadmaps kartieren (OpenAI, Anthropic, Google, Meta). Wo genau liegt der Moat, und wie viele Monate hält er vor der Kommoditisierung?
Eine forensische AI-Assessment-Methodik, aufgebaut aus dem Bau von 31 produktiven AI-Modellen und der Evaluierung von über 30 AI-Unternehmen. Geht über Oberflächen-technisches Review hinaus zu molekularer Architektur-Forensik.
VCs, die AI-first-Startups von Seed bis Series C evaluieren. PE-Firmen, die AI-getriebene Unternehmen akquirieren, bei denen die AI die Wertthese ist. Corporate-Venture-Arms, die AI-Technologiepartnerschaften bewerten. Sie brauchen jemanden, der produktive AI gebaut — nicht nur reviewed — hat, um Ihnen zu sagen, ob diese AI echt ist.
Standard-Tech-DD deckt den gesamten Technologie-Stack ab: Infrastruktur, Team, Sicherheit, Skalierbarkeit. AI Moat-Forensik ist laserfokussiert auf die AI im Speziellen: Ist die AI echt? Ist sie verteidigungsfähig? Wie lange, bis Foundation Models sie kommoditisieren? Stellen Sie es sich als Fachuntersuchung nach dem allgemeinen Check-up vor.
Mehrere Signale: API-Aufrufmuster an externe Provider, Antwortlatenz-Profile, Fehlernachrichtenmuster, Modellverhaltens-Konsistenztests, Infrastrukturkosten-Analyse vs. behauptete Fähigkeiten und direkte architektonische Untersuchung. Ein Unternehmen, das proprietäre Modelle betreibt, hat einen grundlegend anderen Infrastruktur-Fußabdruck als eines, das OpenAIs API aufruft.
Tiefe Expertise in produktiver AI über Automotive (Renault-Nissan), Enterprise-Plattformen (Cisco), Industrial IoT (ABB) und allgemeines SaaS. Für hochspezialisierte Domänen wie Drug Discovery oder Klimamodellierung bewerte ich die AI-Architektur und Verteidigungsfähigkeit, während ich mit Domänenexperten für die anwendungsbezogene Evaluierung zusammenarbeite.
Aus über 30 Bewertungen: ungefähr 40 % zeigen signifikantes Wrapper-Risiko (dünne Schicht auf Foundation Models), 30 % haben moderate Verteidigungsfähigkeit (proprietäre Daten oder Fine-Tuning, aber reproduzierbar), 20 % haben starke Moats (echte architektonische Innovation oder unersetzliche Datenressourcen) und 10 % sind außergewöhnlich (echter Durchbruch, der sehr schwer zu replizieren wäre).
Jede Bewertung umfasst EU AI Act-Klassifizierung: Inakzeptabel (verboten), Hochrisiko (schwere Compliance-Anforderungen), Begrenztes Risiko (Transparenzpflichten) oder Minimales Risiko (Selbstregulierung). Für Hochrisiko-Klassifizierungen schätze ich Compliance-Kosten (€200K-€2M+), Zeitrahmen und Auswirkungen auf das Geschäftsmodell. Das wird zunehmend kritisch für jede AI-Investition in Europa.
Entdecken Sie weitere Services, die dieses Angebot ergänzen
Lassen Sie uns besprechen, wie dieser Service Ihre spezifischen Herausforderungen adressiert und echte Ergebnisse liefert.