TL;DR
- Begin met de API van Mistral in minder dan 5 minuten met behulp van de Python SDK
- Kies tussen
mistral-small(kostenefficiënt) enmistral-large-2(geavanceerde redeneervermogen) op basis van uw use case Bron: Modelkaarten - Gebruik function calling voor toolintegratie (bijv. databases, websites)
- Fine-tune modellen via de API voor domeinspecifieke taken zoals juridische of medische toepassingen Bron: Functieoverzicht
- Monitor gebruik en kosten met de ingebouwde tools van Mistral Bron: Prijzenpagina
1. Aan de slag met de API van Mistral
La Plateforme van Mistral AI biedt een ontwikkelaarsvriendelijke API voor het integreren van grote taalmodellen in enterprise-applicaties. Zo kunt u beginnen:
Genereer een API-sleutel
- Meld u aan bij het officiële documentatieportaal van Mistral
- Navigeer naar het gedeelte API Keys in het dashboard
- Maak een nieuwe sleutel aan en kopieer deze onmiddellijk (sleutels worden slechts één keer weergegeven)
Stel de sleutel in als omgevingsvariabele:
export MISTRAL_API_KEY="uw-api-sleutel-hier"
Voor Windows (PowerShell):
$env:MISTRAL_API_KEY="uw-api-sleutel-hier"
Belangrijk: Het gratis abonnement heeft snelheidsbeperkingen (bijv. 10 verzoeken/minuut). Voor productieworkloads, upgrade naar een betaald abonnement met hogere limieten Bron: Snelheidslimieten.
2. Gebruik van de Python SDK
Mistral biedt een officiële Python SDK voor naadloze integratie. Installeer deze met:
pip install mistralai --upgrade
Basisvoorbeeld voor chat
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
client = MistralClient()
response = client.chat(
model="mistral-small",
messages=[ChatMessage(role="user", content="Leg Mistral AI uit in 2026.")]
)
print(response.choices[0].message.content)
Verwachte uitvoer:
Mistral AI is een toonaangevend Europees AI-lab dat zich richt op de ontwikkeling van geavanceerde taalmodellen...
Streamen van reacties
Voor realtime toepassingen, gebruik streaming:
for chunk in client.chat_stream(
model="mistral-small",
messages=[ChatMessage(role="user", content="Schrijf een haiku over AI.")]
):
print(chunk.choices[0].delta.content, end="")
Verwachte uitvoer:
Neurale netwerken groeien,
Stille geesten in circuits stromen,
Toekomst begint te gloeien.
3. Gids voor modelselectie
Mistral biedt vier primaire modellen, elk geoptimaliseerd voor verschillende use cases Bron: Modelkaarten:
| Model | Use Case | Contextvenster | Invoer/Uitvoerprijs (per 1M tokens) Bron: Prijzenpagina |
|---|---|---|---|
mistral-tiny | Eenvoudige taken, testen | 8K tokens | Gratis (beperkt) |
mistral-small | Kostengevoelige productie | 32K tokens | $0,50 / $1,50 |
mistral-medium | Gebalanceerde prestaties | 64K tokens | $2,00 / $6,00 |
mistral-large-2 | Complexe redeneervermogen, toolgebruik | 128K tokens | $8,00 / $24,00 |
Aanbevelingen:
- Begin met
mistral-smallvoor de meeste taken (bijv. samenvattingen, classificatie) - Gebruik
mistral-large-2voor:- Meerstaps redeneervermogen
- Function calling
- Taken met lange context (>32K tokens) Bron: Modelkaarten
4. Function calling voor toolintegratie
Mistral ondersteunt function calling, waardoor modellen kunnen communiceren met externe tools zoals databases of API's Bron: Functieoverzicht.
Voorbeeld: Webzoekintegratie
tools = [
{
"type": "function",
"function": {
"name": "web_search",
"description": "Zoek op het web naar recente informatie",
"parameters": {
"type": "object",
"properties": {
"query": {"type": "string"},
"max_results": {"type": "integer", "default": 3}
},
"required": ["query"]
}
}
}
]
response = client.chat(
model="mistral-large-2",
messages=[ChatMessage(role="user", content="Wat is het laatste nieuws over Mistral AI in 2026?")],
tools=tools
)
# Extraheer de tool call
tool_call = response.choices[0].message.tool_calls[0]
print(f"Tool: {tool_call.function.name}, Query: {tool_call.function.arguments}")
Verwachte uitvoer:
Tool: web_search, Query: {"query": "Mistral AI laatste nieuws 2026", "max_results": 3}
Implementatie van de tool
def web_search(query, max_results=3):
# Vervang door een echte zoek-API (bijv. SerpAPI, Brave Search)
return [
{"title": "Mistral AI breidt enterprise-aanbod uit", "url": "https://example.com/news1"},
{"title": "Nieuwe benchmarks voor meertalige modellen", "url": "https://example.com/news2"}
]
# Voer de tool uit en ga verder met het gesprek
search_results = web_search(**eval(tool_call.function.arguments))
response = client.chat(
model="mistral-large-2",
messages=[
ChatMessage(role="user", content="Wat is het laatste nieuws over Mistral AI in 2026?"),
response.choices[0].message,
ChatMessage(role="tool", content=str(search_results), tool_call_id=tool_call.id)
]
)
print(response.choices[0].message.content)
5. Fine-tuning voor domeinspecifieke taken
Fine-tuning stelt u in staat om de modellen van Mistral aan te passen aan uw branche (bijv. juridisch, medisch of klantenservice) Bron: Functieoverzicht.
Bereid uw dataset voor
Maak een JSONL-bestand (dataset.jsonl) met trainingsvoorbeelden:
{"messages": [{"role": "user", "content": "Wat is het retourbeleid?"}, {"role": "assistant", "content": "Ons retourbeleid staat retouren binnen 30 dagen met origineel bon toe."}]}
{"messages": [{"role": "user", "content": "Hoe kan ik mijn bestelling volgen?"}, {"role": "assistant", "content": "U kunt uw bestelling volgen via de link in uw bevestigingsmail."}]}
Uploaden en trainen
from mistralai.fine_tuning import MistralFineTuningClient
ft_client = MistralFineTuningClient()
job = ft_client.create_job(
model="mistral-small", # Basismodel
training_files=["dataset.jsonl"],
hyperparameters={
"training_steps": 1000,
"learning_rate": 1.0e-5
}
)
print(f"[Fine-tuning](https://hyperion-consulting.io/services/production-ai-systems) taak aangemaakt: {job.id}")
Gebruik uw fine-tuned model
response = client.chat(
model="ft:mistral-small:uw-taak-id", # Vervang door uw taak-ID
messages=[ChatMessage(role="user", content="Wat is jullie retourbeleid?")]
)
print(response.choices[0].message.content)
6. Agents API voor meerstaps workflows
De Agents API van Mistral (geïntroduceerd eind 2025) maakt persistente, meerstaps workflows met geheugen mogelijk Bron: API-referentie.
Maak een agent
from mistralai.agents import MistralAgentClient
agent_client = MistralAgentClient()
agent = agent_client.create_agent(
name="Klantenservice-agent",
model="mistral-large-2",
instructions="U bent een behulpzame klantenservice-agent voor een webwinkel. Gebruik tools om vragen over bestellingen, retouren en producten te beantwoorden.",
tools=tools # Hergebruik tools uit Sectie 4
)
print(f"Agent aangemaakt: {agent.id}")
Voer de agent uit
response = agent_client.run(
agent_id=agent.id,
messages=[{"role": "user", "content": "Ik heb een blauw overhemd besteld maar een rood ontvangen. Wat moet ik doen?"}]
)
print(response.messages[-1]["content"])
Belangrijke kenmerken:
- Persistent geheugen over gesprekken heen
- Meerstaps toolgebruik
- Aanpasbare instructies Bron: API-referentie
7. Strategieën voor kostenoptimalisatie
-
Modelselectie:
- Gebruik
mistral-smallvoor eenvoudige taken (bijv. classificatie, samenvattingen) - Reserveer
mistral-large-2voor complex redeneervermogen of toolgebruik Bron: Modelkaarten
- Gebruik
-
Caching:
- Cache veelvoorkomende vragen met Redis of een vergelijkbare opslag:
import redis r = redis.Redis() def cached_chat(model, messages): cache_key = f"mistral:{model}:{hash(str(messages))}" if r.exists(cache_key): return r.get(cache_key) response = client.chat(model=model, messages=messages) r.setex(cache_key, 3600, response.choices[0].message.content) # Cache voor 1 uur return response.choices[0].message.content -
Batchverwerking:
- Voor embeddings, bundel verzoeken om API-aanroepen te verminderen:
embeddings = client.embeddings( model="mistral-embed", input=["tekst1", "tekst2", "tekst3"] # Bundel tot 100 teksten ) -
Monitor gebruik:
- Houd de uitgaven bij via de prijzenpagina van Mistral
- Stel waarschuwingen in voor ongebruikelijke activiteit Bron: Prijzenpagina
8. Vergelijking met alternatieven
| Feature | Mistral AI | OpenAI (GPT-4o) | Anthropic (Claude 3.5) |
|---|---|---|---|
| Kosten (Invoer) | $8,00/1M tokens Bron: Prijzenpagina | $10,00/1M tokens Bron: OpenAI Prijzen | $15,00/1M tokens |
| EU-hosting | ✅ (Frankrijk) Bron: Gegevensbescherming | ❌ | ❌ |
| Function Calling | ✅ Bron: Functieoverzicht | ✅ | ✅ |
| Fine-Tuning | ✅ Bron: Functieoverzicht | ✅ | ❌ |
| On-Premises | ✅ (Enterprise) Bron: Mistral vs. Alternatieven | ❌ | ❌ |
| Sterke punten | Kosteneffectief, EU GDPR Bron: Mistral vs. Alternatieven | Breed ecosysteem | Veiligheidsgericht |
Wanneer Mistral kiezen:
- U heeft kosteneffectieve modellen nodig met sterke prestaties Bron: Prijzenpagina
- U vereist EU-dataresidentie voor compliance Bron: Gegevensbescherming
- U wilt modellen fine-tunen voor domeinspecifieke taken Bron: Functieoverzicht
9. Veelvoorkomende fouten en oplossingen
| Fout | Oorzaak | Oplossing |
|---|---|---|
AuthenticationError | Ongeldige API-sleutel | Genereer uw API-sleutel opnieuw in het dashboard |
RateLimitError | Te veel verzoeken | Upgrade uw abonnement of implementeer exponentiële backoff Bron: Snelheidslimieten |
InvalidRequestError | Onjuiste invoer (bijv. ongeldige JSON) | Valideer uw invoer voordat u deze verzendt |
ModelOverloadedError | Hoge vraag | Probeer het later opnieuw of schakel over naar een minder druk model |
ContextWindowExceededError | Invoer overschrijdt contextvenster van het model | Verkort of vat uw invoer samen Bron: Modelkaarten |
10. Volgende stappen voor enterprise teams
- Bouw een RAG-pijplijn:
- Combineer de embeddings van Mistral (
mistral-embed) met een vectordatabase zoals Weaviate of Pinecone voor
- Combineer de embeddings van Mistral (
