Tools die ik gebruik in productie — niet tools waarmee ik een partnerschap heb
Elke technologie hier vermeld is gedeployd in een productiesysteem. Ik ben leveranciersneutraal van opzet — de juiste tool hangt af van uw use case, uw data en uw budget. Geen partnerschappen beïnvloeden mijn aanbevelingen.
Foundation modellen voor redeneren, generatie en multimodale taken
Brancheerkende referenties die expertise aantonen
Scrum.org
Product ownership and value maximization in Scrum
Uitgegeven 2019
Scrum Alliance
Agile facilitation and Scrum framework mastery
Uitgegeven 2018
Scaled Agile
Scaled Agile Framework for enterprise transformation
Uitgegeven 2021
Product School
Building and managing AI-powered products
Uitgegeven 2023
DeepLearning.AI
Neural networks, CNNs, RNNs, and transformers
Uitgegeven 2022
Geen leverancierspartnerschappen beïnvloeden mijn aanbevelingen. Ik kies het model dat past bij uw latentie-, kosten- en nauwkeurigheidsvereisten.
Elke tool hier is gedeployd in een systeem dat echt verkeer verwerkt. Labgeteste tools halen deze lijst niet.
De meeste AI-projecten geven 3-5x te veel uit aan infrastructuur. Ik dimensioneer juist vanaf het begin — kleinere modellen, slimmer caching, efficiënte inferentie.
AI-modellen veranderen elk kwartaal. Mijn architecturen abstraheren de modellaag zodat u van provider kunt wisselen zonder uw applicatie te herschrijven.
Boek een gesprek van 30 minuten. Ik beoordeel uw vereisten en beveel de juiste combinatie van modellen, infrastructuur en frameworks aan — met kostenramingen.
Elke tool die wij evalueren, implementeren of aanbevelen — met eerlijke beoordelingen.
Anthropic
Most capable Claude model — complex reasoning, long-context analysis, agentic tasks.
Officiële documentatie →Anthropic
Best balance of intelligence and speed for production workloads.
Officiële documentatie →Anthropic
Fastest and lowest-cost Claude model for high-volume tasks.
Officiële documentatie →Anthropic
AI-native CLI for agentic software engineering — reads, writes, and runs code autonomously.
Officiële documentatie →Anthropic
Open protocol connecting AI assistants to external tools, data sources, and services.
Officiële documentatie →Anthropic
Build, orchestrate, and deploy multi-agent systems powered by Claude.
Officiële documentatie →Mistral AI
Top-tier reasoning model with 128K context — Mistral's flagship for enterprise tasks.
Officiële documentatie →Mistral AI
Cost-efficient multimodal model — text and image understanding.
Officiële documentatie →Mistral AI
Apache 2.0 multilingual model — EU-sovereign deployments, 128K context.
Officiële documentatie →Mistral AI
Code generation specialist — 80+ languages, fill-in-the-middle, 32K context.
Officiële documentatie →Mistral AI
Frontier vision-language model — document analysis, chart reading, 128K context.
Officiële documentatie →Mistral AI
High-quality text embeddings for RAG and semantic search.
Officiële documentatie →Mistral AI
Train and own frontier AI model weights outright — no API rental, full data sovereignty.
Officiële documentatie →Mistral AI
Enterprise AI assistant — SSO, audit logs, EU data residency, web search, document upload.
Officiële documentatie →Meta
Meta's flagship open-weight model — Apache 2.0, matches GPT-4 on many benchmarks at fraction of cost.
Officiële documentatie →Meta
Lightweight Llama models for mobile, edge, and on-device inference.
Officiële documentatie →Meta
Vision-language Llama models — image understanding, document analysis.
Officiële documentatie →Google's open-weight family — Apache 2.0, strong reasoning, multilingual, edge-to-server range.
Officiële documentatie →Microsoft
MIT-licensed reasoning specialist — outperforms models 3× larger on math and coding.
Officiële documentatie →Microsoft
Edge-optimised reasoning model — 3.8B parameters, strong instruction following on constrained hardware.
Officiële documentatie →Alibaba
Alibaba's Apache 2.0 multilingual family — exceptional Chinese/English, strong math, full size range.
Officiële documentatie →Alibaba
State-of-the-art open-source code generation — rivals GPT-4o on coding benchmarks.
Officiële documentatie →DeepSeek
MIT-licensed reasoning specialist with chain-of-thought — matches o1 on math and science tasks.
Officiële documentatie →DeepSeek
671B MoE open-weight general model — top open-source benchmark scores across all categories.
Officiële documentatie →TII UAE
TII's Apache 2.0 family — strong multilingual performance, designed for EU/MENA sovereign deployments.
Officiële documentatie →Hugging Face
Ultra-compact models for on-device and browser inference — Apache 2.0, efficiency benchmark.
Officiële documentatie →Ollama
One-command local model serving — runs Llama, Mistral, Gemma and 100+ models on any hardware.
Officiële documentatie →vLLM Project
High-throughput production LLM serving — PagedAttention, continuous batching, OpenAI-compatible.
Officiële documentatie →Hugging Face
Hugging Face's production inference server — tensor parallelism, quantization, streaming.
Officiële documentatie →ggerganov
CPU/GPU inference in C++ — GGUF format, runs on Apple Silicon, NVIDIA, AMD, CPU-only.
Officiële documentatie →LM Studio
Desktop GUI for discovering, downloading, and running local LLMs — OpenAI-compatible server.
Officiële documentatie →Hugging Face
Run Transformers in the browser and Node.js — ONNX-based, no server required.
Officiële documentatie →Microsoft
Cross-platform optimised inference — CPU, GPU, mobile, browser, WASM support.
Officiële documentatie →BerriAI
Universal LLM API proxy — call 100+ models with OpenAI format, load balancing, fallbacks.
Officiële documentatie →Unsloth AI
2× faster fine-tuning, 70% less VRAM — LoRA and QLoRA for Llama, Mistral, Qwen, Gemma.
Officiële documentatie →OpenAccess AI Collective
Production fine-tuning framework — YAML config, LoRA/QLoRA/full, multi-GPU, Flash Attention.
Officiële documentatie →hiyouga
Fine-tune 100+ LLMs with a web UI or CLI — SFT, DPO, GRPO, LoRA, QLoRA.
Officiële documentatie →PyTorch
PyTorch-native fine-tuning library — recipe-based, minimal dependencies, full control.
Officiële documentatie →Hugging Face
Parameter-Efficient Fine-Tuning — LoRA, QLoRA, IA³, AdaLoRA, Prefix Tuning.
Officiële documentatie →Hugging Face
Transformer Reinforcement Learning — SFT, DPO, GRPO, PPO, ORPO for alignment training.
Officiële documentatie →Microsoft
ZeRO optimizer for large model training — 10× throughput, trillion-parameter scale.
Officiële documentatie →Hugging Face
One-line multi-GPU and TPU training — no code changes, FSDP and DeepSpeed integration.
Officiële documentatie →NVIDIA
NVIDIA's large-scale pre-training framework — tensor/pipeline/sequence parallelism.
Officiële documentatie →Hugging Face
900K+ models, 100K+ datasets, and Spaces — the de facto standard for AI artifact sharing.
Officiële documentatie →Hugging Face
Core model library — load, run, and fine-tune any model in PyTorch, TensorFlow, or JAX.
Officiële documentatie →Hugging Face
100K+ datasets with streaming, arrow-based loading, and one-line preprocessing.
Officiële documentatie →Hugging Face
Managed dedicated or serverless model deployment — auto-scaling, private endpoints.
Officiële documentatie →Hugging Face
No-code fine-tuning for LLMs and other models — SFT, DPO, classification, NER.
Officiële documentatie →Hugging Face
Host Gradio and Streamlit ML demos — free tier available, GPU-enabled options.
Officiële documentatie →Hugging Face
Standardised metrics library — BLEU, ROUGE, accuracy, F1, and 100+ custom metrics.
Officiële documentatie →Hugging Face
Programmatic Hub access — upload models, create repos, manage tokens, search.
Officiële documentatie →LangChain
LLM application framework — chains, agents, RAG, tool use, memory.
Officiële documentatie →LlamaIndex
Data framework for LLM apps — ingestion, indexing, querying over any data source.
Officiële documentatie →deepset
Production NLP pipeline framework — RAG, document search, question answering.
Officiële documentatie →Stanford NLP
Declarative LLM programming — optimise prompts and weights automatically.
Officiële documentatie →Jason Liu
Structured output extraction — Pydantic schemas from any LLM, with validation and retries.
Officiële documentatie →Microsoft
Enterprise LLM orchestration for .NET, Python, Java — plugins, planners, memory.
Officiële documentatie →CrewAI
Role-based multi-agent orchestration — agents collaborate with defined roles and goals.
Officiële documentatie →Microsoft
Microsoft's multi-agent conversation framework — async agents, human-in-the-loop.
Officiële documentatie →Hugging Face
Minimal agentic framework — code-first agents that write and execute Python, 1000-line core.
Officiële documentatie →Qdrant
Rust-based vector search — on-prem friendly, filterable, sparse+dense hybrid search.
Officiële documentatie →Weaviate
GraphQL API vector database — multi-tenancy, hybrid search, generative search.
Officiële documentatie →Chroma
Local-first open-source vector database — Python-native, zero infrastructure required.
Officiële documentatie →Zilliz
Distributed vector search for billion-scale data — HNSW, IVF, GPU acceleration.
Officiële documentatie →PostgreSQL
Vector similarity search extension for PostgreSQL — no separate infrastructure needed.
Officiële documentatie →Pinecone
Managed cloud vector database — serverless tier, namespaces, metadata filtering.
Officiële documentatie →Pollen Robotics
Open-source humanoid robot for research and industry — Apache 2.0, ROS2, Python SDK.
Officiële documentatie →Open Robotics
Robot Operating System 2 — real-time communication, sensor fusion, navigation stack.
Officiële documentatie →Hugging Face
Open-source robot learning — imitation learning, reinforcement learning, pre-trained policies.
Officiële documentatie →NVIDIA
Robot simulation and deployment platform — synthetic data generation, physics simulation.
Officiële documentatie →OpenCV
Computer vision library — 2500+ algorithms, real-time image processing, widely deployed.
Officiële documentatie →Meta
Segment Anything Model 2 — real-time video and image segmentation, zero-shot.
Officiële documentatie →Ultralytics
Real-time object detection — fastest production-grade detector, ONNX/CoreML export.
Officiële documentatie →Amazon
Managed foundation model APIs on AWS — Claude, Llama, Mistral, Titan, Stable Diffusion.
Officiële documentatie →Microsoft
Microsoft's enterprise AI platform — model catalog, fine-tuning, responsible AI tools.
Officiële documentatie →GCP's unified AI/ML platform — Gemini, model garden, AutoML, feature store.
Officiële documentatie →Cloudflare
Run AI models at the edge globally — Workers AI, 100+ models, serverless inference.
Officiële documentatie →LangChain
LLM observability and tracing — log runs, compare prompts, regression testing.
Officiële documentatie →Weights & Biases
ML experiment tracking, visualisation, and hyperparameter sweeps — industry standard.
Officiële documentatie →Databricks
ML lifecycle management — experiment tracking, model registry, deployment.
Officiële documentatie →CNCF / Grafana Labs
Inference metrics collection and dashboards — latency, throughput, error rates.
Officiële documentatie →Arize AI
LLM evaluation and monitoring — hallucination detection, embeddings visualisation, drift.
Officiële documentatie →Exploding Gradients
RAG evaluation framework — faithfulness, answer relevancy, context precision metrics.
Officiële documentatie →