Lifecycle stage — Build
Dit is niet de maatwerk Domain-Expert LLM Lab. Het is de MKB-adaptatie ervan. Een klein of middelgroot bedrijf met een specifieke verticale use case — contractreview, productcatalogus-verrijking, onkostencategorisatie — zou niet moeten betalen voor acht weken maatwerk research wanneer de pipeline voor die verticaal al voor 80% is gebouwd. De gepackagede samenwerking gebruikt een gecureerd base model, een retrieval-laag en een eval-harness die Hyperion al heeft samengesteld voor een kleine set ondersteunde verticalen, en past ze toe op uw eigen data. U bewaart de gewichten en de eval-harness; Hyperion bewaart de pipeline-template. Het resultaat is een domain-expert-model dat op uw infrastructuur of een soevereine-cloud-tenant draait, tegen een vaste prijs per verticaal, geleverd in vier weken in plaats van acht. De verticalen die vandaag worden ondersteund zijn bewust smal — juridische clausule-extractie, retail-catalogusverrijking en boekhouding-factuurextractie — omdat de beoordelingsmomenten die een packaged aanbod levensvatbaar maken vereisen dat dezelfde pipeline over meerdere klanten is gevalideerd voordat het een product wordt. Buiten die verticalen is de maatwerk Lab de juiste ingang.
De maatwerk samenwerking is geprijsd voor enterprises en u bent er geen. Fine-tuning-programma's van acht weken met embedded ML-engineers zijn correct geprijsd voor bedrijven met zevencijferige AI-budgetten en een echt ML-team om de kennisoverdracht te absorberen. Voor een MKB met één enkele verticale use case en een tweekoppig technisch team is de maatwerk samenwerking overdreven. Wat het MKB feitelijk nodig heeft is de 20% van het werk die uniek is voor zijn data, meeliftend op de 80% die gemeenschappelijk is aan bedrijven in dezelfde verticaal. Die economie werkt alleen als de gemeenschappelijke 80% al is gebouwd.
Frontier-API's worden steeds beter op algemene taken en steeds slechter op die van u. GPT-4 en Claude verbeteren elk kwartaal op brede benchmarks, en uw specialistentaak — contractclausule-extractie in het Franse handelsrecht, SKU-level catalogusverrijking voor mode-retail, BTW-bewuste onkostencategorisatie voor Belgische boekhouding — beweegt niet met hen mee. U betaalt een premie voor algemene intelligentie die nooit ging winnen op uw smalle taak, en de kloof tussen 'generieke API-output' en 'output waar uw domeinexpert voor zou tekenen' wordt niet kleiner. Op een gegeven moment is het eerlijke antwoord dat uw verticaal een specialistenmodel vereist en de generalist-API altijd een noodoplossing was.
Uw team kan geen fine-tuning-pipeline vanaf nul bouwen en het zou een slechte besteding van hun tijd zijn als ze dat konden. Een model correct fine-tunen — datacuratie, base-modelkeuze, bouw van eval-harness, quantisatie-trade-offs, deployment — is een werkstroom van meerdere weken voor een ervaren ML-engineer. Als u die engineer heeft, zouden ze uw product moeten bouwen. Als u die niet heeft, leveren de tutorials u een model op dat er getraind uitziet maar de eval verliest, en u zult niet weten waarom. Het gepackagede aanbod comprimeert de meerwekige werkstroom tot een vier-weekse samenwerking met vaste prijs, met een voorvalideerd recept voor uw specifieke verticaal.
U heeft het model nodig op een plek die geen frontier-API-provider is. Uw klanten — advocatenkantoren, accountancies, regionale retailers — hebben data-residency-zorgen, cliëntvertrouwelijkheidsverplichtingen of sectorale regelgeving die het verzenden van hun data naar een Amerikaanse hyperscaler een commercieel probleem maakt zelfs wanneer het technisch is toegestaan. Een model dat u bezit, uitgerold op uw infrastructuur of een Europese soevereine tenant, is een structureel antwoord op die zorgen op een manier die een frontier-API-vendor-contract nooit zal zijn. Voor een MKB is die positie een echte commerciële differentiator, geen compliance-vinkje.
De samenwerking is de ENGINEER-fase van de Hyperion Lifecycle, gecomprimeerd tot vier weken door de vooraf gebouwde pipeline voor uw ondersteunde verticaal. Uw team levert de eigen data en de vakinhoudelijk expert die de output beoordeelt. De pipeline — base model, retrieval, eval-template, inferentie-stack — is al samengesteld. Het eerste gesprek bevestigt dat uw verticaal in de ondersteunde set zit; als dat niet zo is, is de maatwerk Lab de juiste samenwerking en beginnen we deze niet.
Uw data landt op de pipeline. We auditen dekking, licenties en kwaliteit tegen de vereisten van de gepackagede verticaal — juridisch, retail of boekhouding. De eval-harness wordt geïnstantieerd tegen de taakdefinitie voor uw verticaal en een baseline wordt gedraaid op de bestaande frontier-API, zodat we weten wat winnen er uit ziet voordat er getraind wordt. Als de datadekking dun is of de taakdefinitie buiten de ondersteunde verticaal valt, stoppen we hier en krijgt u het saldo terug; het gepackagede aanbod werkt alleen wanneer de fit echt is.
Het vooraf geselecteerde base model voor uw verticaal — een specifieke Llama 3-, Mistral- of Qwen-variant gekozen voor dit taakprofiel — wordt fine-tuned op uw gecureerde data met het pipeline-recept. We draaien de eval-harness elke dag van de week en itereren op de data-mix waar de cijfers het vragen. Tegen het einde van week twee verslaat het model ofwel de frontier-API-baseline op uw taakspecifieke eval, ofwel keren we terug naar de volgende-beste configuratie en documenteren we het plafond eerlijk. Het gepackagede aanbod is alleen de moeite waard als het model daadwerkelijk wint.
Inferentie wordt opgezet waar u het daadwerkelijk gaat draaien — een soevereine-cloud-tenant, een kleine on-premise GPU of een dedicated inferentie-provider die data in uw jurisdictie houdt. De latentie- en kostenenvelop is vastgelegd voor de gepackagede verticalen, dus we stemmen af tegen een bekend doel in plaats van de volledige ontwerpruimte te verkennen. De vakinhoudelijk expert aan uw kant tekent voor de output van het uitgerolde model over een steekproef van echte productiegevallen; die handtekening is het acceptatiecriterium.
Uw tweekoppige technische team wordt door het trainingsrecept, de eval-harness en het deployment-runbook geloodst. Het model, de gewichten, de data-pipeline en de eval zijn van u om te houden. De pipeline-template — de cross-klant-scaffolding die de vier-weekse tijdlijn mogelijk maakte — blijft intellectueel eigendom van Hyperion; u betaalt voor de gespecialiseerde toepassing ervan op uw data, niet voor het onderliggende raamwerk. Wanneer een beter base model uitkomt, kan uw team het recept op het nieuwe base opnieuw draaien in minder dan een week zonder verdere samenwerking.
Kleine en middelgrote bedrijven in juridische dienstverlening, retail of boekhouding — de drie verticalen die de gepackagede pipeline vandaag ondersteunt — met een specifieke taak (contractclausule-extractie, catalogusverrijking, factuur- of onkostencategorisatie) en een proprietaire dataset die ten minste groot genoeg is om tegen te fine-tunen. Teams waar de bestaande frontier-API-oplossing op domeinkwaliteit is gestagneerd en de kosten materieel zijn bij huidige volumes. Bedrijven waar data-residency of cliëntvertrouwelijkheid een zelf-gehost of soevereine-cloud-model tot een echte commerciële voorkeur maakt in plaats van een afvinkoefening. Dit is niet voor MKB's wier use case buiten de ondersteunde verticalen valt — de maatwerk Domain-Expert LLM Lab is de juiste ingang voor die samenwerkingen, tegen eigen tijdlijn en prijs. Het is ook niet voor teams zonder proprietaire data; zonder het data-activum heeft een fine-tuned verticaal model geen duurzaam voordeel ten opzichte van de frontier-API, en is de Readiness Audit het juiste eerste gesprek.
Niet als het gepackagede aanbod, nee. De drie ondersteunde verticalen worden ondersteund omdat de pipeline over genoeg eerdere samenwerkingen is gevalideerd om als product geprijsd te worden. Buiten die verticalen is de maatwerk Domain-Expert LLM Lab de juiste samenwerking — acht weken, maatwerk fine-tuning, dienovereenkomstig geprijsd. Als uw taak dicht bij een ondersteunde verticaal ligt maar er niet helemaal binnen, is het eerste gesprek gratis en zal ik u eerlijk vertellen of de gepackagede pipeline van toepassing is of dat de maatwerk Lab de juiste fit is.
Omdat de vooraf gebouwde pipeline voor uw verticaal — base-modelkeuze, retrieval-laag, eval-template, inferentie-stack — al is samengesteld uit eerdere samenwerkingen. In de maatwerk Lab worden die beslissingen vers genomen voor elke klant, wat correct geprijsd is voor enterprises met nieuwe taken. In het gepackagede aanbod worden die beslissingen hergebruikt, wat correct geprijsd is voor MKB's met taken die lijken op de patronen waarop de pipeline is gebouwd. De vier weken die u betaalt zijn de gespecialiseerde toepassing op uw data, de eval tegen uw baseline en de deployment op uw infrastructuur — niet het raamwerk eronder.
We komen er in week twee achter, en als het antwoord nee is, eindigt de samenwerking op dat punt en krijgt u het saldo terug. De vooraf gebouwde pipeline voor een ondersteunde verticaal heeft een bekende slagingskans op representatieve data; de eval in week twee is expliciet het checkpoint waar we bevestigen dat het patroon opgaat voor uw specifieke data. Als de data te dun is, de taak buiten de gevalideerde scope van de pipeline valt, of de frontier-API al aan het plafond zit dat uw taak toestaat, zal ik dat schriftelijk zeggen. Het gepackagede aanbod is geprijsd om aan te nemen dat de fit echt is; wanneer dat niet zo is, is de eerlijke uitkomst stoppen in plaats van een resultaat forceren.
Meestal niet. Voor de gepackagede verticalen is inferentie klein genoeg om op een bescheiden GPU in een Europese soevereine-cloud-tenant — Scaleway, OVHcloud of vergelijkbaar — of op een dedicated inferentie-provider zoals Together of Fireworks die data in-regio houdt, te draaien. Training wordt gedaan op gehuurde GPU's en vereist geen hardware-aankoop. De vaste prijs omvat een kostenenvelop voor inferentie bij typische MKB-volumes; zwaardere workloads duwen het model richting on-premise GPU's, maar dat is een uitzondering in plaats van de default.
Meestal niet. Uw team is eigenaar van de eval-harness, de data-pipeline en het recept, wat betekent dat het opnieuw draaien van de training op een nieuw base model — Llama 5 wanneer die landt, een nieuwe Mistral-release, een sterkere Qwen-variant — een interne oefening is die uw team zonder verdere samenwerking met Hyperion uitvoert. De meeste MKB's halen de hertraining in-house na de eerste samenwerking; sommigen kiezen voor een korte refresh-samenwerking met Hyperion wanneer een nieuw base model materieel beter is, maar dat is optioneel en apart geprijsd. De eigenaarschapspositie is bewust: het gepackagede aanbod is één samenwerking, geen retainer.
30 minuten. Ik diagnosticeer uw situatie en zeg u eerlijk of deze dienst past — en zo niet, welke wel.