Zusammenfassung
- API-Schlüssel in 2 Minuten über die Mistral-Konsole erhalten
- Nutzen Sie das
mistralaiPython-SDK (pip install mistralai) oder@mistralai/sdkfür Node.js - Beginnen Sie mit Mistral Small für Aufgaben mit geringer Latenz, Mistral Large 2 für komplexe Schlussfolgerungen
- Aktivieren Sie Websuche und Tool-Nutzung über die Agents API (neu in 2026)
- Feinabstimmung von Mistral Medium 2/Large 2 mit Ihrem Datensatz (nur Pro/Enterprise)
- Optimieren Sie Kosten durch Batch-Verarbeitung und Modellauswahl
1. API-Schlüssel erhalten
- Registrieren Sie sich unter console.mistral.ai
- Navigieren Sie zu API Keys → Create Key
- Kopieren Sie den Schlüssel (beginnt mit
mistral-) und speichern Sie ihn sicher
# Testen Sie Ihren Schlüssel (ersetzen Sie YOUR_API_KEY)
curl --location "https://api.mistral.ai/v1/models" \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json"
Erwartete Ausgabe:
{
"object": "list",
"data": [
{
"id": "mistral-small-latest",
"object": "model",
"created": 1693499933,
"owned_by": "mistralai"
},
...
]
}
Achtung: Kostenlose Testschlüssel laufen nach 30 Tagen ab. Rotieren Sie Schlüssel in der Produktion mithilfe von Umgebungsvariablen:
export MISTRAL_API_KEY="your_key_here"
2. Nutzung der Python- und JS-SDKs
Python-SDK
pip install mistralai --upgrade # v0.3.0
Grundlegende Chat-Vervollständigung:
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
client = MistralClient(api_key=os.environ["MISTRAL_API_KEY"])
response = client.chat(
model="mistral-small-latest",
messages=[ChatMessage(role="user", content="Erklären Sie LLMs in einem Satz")],
)
print(response.choices[0].message.content)
Ausgabe:
Large Language Models sind neuronale Netze, die auf großen Textmengen trainiert werden, um menschenähnlichen Text vorherzusagen und zu generieren.
Streaming-Antwort:
for chunk in client.chat_stream(
model="mistral-medium-latest",
messages=[ChatMessage(role="user", content="Schreiben Sie Python-Code, um eine Liste zu sortieren")],
):
print(chunk.choices[0].delta.content, end="", flush=True)
Node.js-SDK
npm install @mistralai/sdk
Grundlegende Nutzung:
import { Mistral } from "@mistralai/sdk";
const client = new Mistral({ apiKey: process.env.MISTRAL_API_KEY });
const response = await client.chat({
model: "mistral-small-latest",
messages: [{ role: "user", content: "Was ist die Hauptstadt von Frankreich?" }],
});
console.log(response.choices[0].message.content);
Ausgabe:
Die Hauptstadt von Frankreich ist Paris.
3. Modellauswahl
| Modell | Anwendungsfall | Kontextfenster | Latenz | Kosten (Input/Output pro 1K Tokens) |
|---|---|---|---|---|
| Mistral Small | Aufgaben mit geringer Latenz (Chatbots, Q&A) | 8K Tokens | <500ms | $0.0005 / $0.0015 |
| Mistral Medium 2 | Ausgewogenes Kosten-Nutzen-Verhältnis | 16K Tokens | ~800ms | $0.001 / $0.003 |
| Mistral Large 2 | Komplexe Schlussfolgerungen (Agents, RAG) | 32K Tokens | ~1.2s | $0.003 / $0.006 |
Beispiel: Modellvergleich für Code-Generierung
models = ["mistral-small-latest", "mistral-medium-latest", "mistral-large-latest"]
for model in models:
response = client.chat(
model=model,
messages=[ChatMessage(role="user", content="Schreiben Sie eine Python-Funktion, um einen String umzukehren")],
)
print(f"\n{model}:\n{response.choices[0].message.content}")
Profi-Tipp: Nutzen Sie Mistral Small für Prototypen und wechseln Sie dann zu Medium/Large für die Produktion.
4. Websuche und Tool-Nutzung
Websuche (2026-Feature)
Aktivieren Sie die Websuche im API-Aufruf:
response = client.chat(
model="mistral-large-latest",
messages=[ChatMessage(role="user", content="Was gibt es Neues über Mistral AI?")],
tools=[{"type": "web_search", "query": "Mistral AI latest news"}],
)
Funktionsaufrufe
Definieren Sie Tools und lassen Sie das Modell entscheiden, wann es sie nutzen soll:
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Aktuelles Wetter an einem Standort abrufen",
"parameters": {
"type": "object",
"properties": {
"location": {"type": "string", "description": "Stadtname"},
"unit": {"type": "string", "enum": ["celsius", "fahrenheit"]},
},
"required": ["location"],
},
},
}
]
response = client.chat(
model="mistral-large-latest",
messages=[ChatMessage(role="user", content="Wie ist das Wetter in Paris?")],
tools=tools,
)
Erwartete Ausgabe:
{
"tool_calls": [
{
"function": {
"name": "get_weather",
"arguments": "{\"location\": \"Paris\", \"unit\": \"celsius\"}"
}
}
]
}
5. Grundlagen der Feinabstimmung
Schritt 1: Datensatz vorbereiten
Formatieren Sie Ihre Daten als JSONL:
{"prompt": "Was ist Mistral AI?", "completion": "Mistral AI ist ein hochmodernes KI-Labor mit Sitz in Frankreich..."}
{"prompt": "Wer hat Mistral AI gegründet?", "completion": "Mistral AI wurde 2023 von Arthur Mensch, Guillaume Lample und Timothée Lacroix gegründet."}
Schritt 2: Hochladen zu Mistral
curl -X POST "https://api.mistral.ai/v1/fine_tuning/jobs" \
-H "Authorization: Bearer $MISTRAL_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "mistral-medium-2",
"training_file": "file-123abc", # Zuerst über die Konsole hochladen
"hyperparameters": {
"n_epochs": 3,
"batch_size": 8
}
}'
Schritt 3: Ihr feinabgestimmtes Modell einsetzen
response = client.chat(
model="ft:mistral-medium-2:your-org:custom-model-id",
messages=[ChatMessage(role="user", content="Was ist Mistral AI?")],
)
Kosten: $0,01 pro 1K Trainingstokens (nur Pro/Enterprise) Feinabstimmungs-Preise
6. Agents API einrichten
Schritt 1: Ihren Agenten definieren
agent = client.agents.create(
name="Reiseplaner",
model="mistral-large-latest",
instructions="Sie sind ein Reiseplanungsassistent. Nutzen Sie Tools, um Flüge und Hotels zu buchen.",
tools=[
{
"type": "function",
"function": {
"name": "book_flight",
"description": "Flug zwischen zwei Städten buchen",
"parameters": {
"type": "object",
"properties": {
"origin": {"type": "string"},
"destination": {"type": "string"},
"date": {"type": "string", "format": "date"},
},
},
},
}
],
)
Schritt 2: Den Agenten ausführen
response = client.agents.run(
agent_id=agent.id,
messages=[{"role": "user", "content": "Planen Sie eine Reise von Paris nach Tokio für nächsten Monat"}],
)
Erwarteter Ablauf:
- Agent fragt nach Reisedaten
- Ruft das
book_flight-Tool mit Parametern auf - Gibt eine Bestätigung zurück
7. Strategien zur Kostenoptimierung
1. Modellauswahl
- Nutzen Sie Mistral Small für einfache Aufgaben (z. B. Klassifizierung, Chatbots)
- Wechseln Sie zu Mistral Medium 2 für moderate Schlussfolgerungen (z. B. Zusammenfassungen)
- Reservieren Sie Mistral Large 2 für komplexe Aufgaben (z. B. Agents, RAG)
2. Batch-Verarbeitung
jobs = client.batch.create(
model="mistral-small-latest",
input_file_ids=["file-123abc"], # JSONL-Datei mit Prompts
endpoint="/v1/chat/completions",
)
Kosteneinsparungen: Bis zu 50 % im Vergleich zur Echtzeit-API Batch-API-Dokumentation
3. Caching
Cache-Antworten für wiederholte Abfragen:
from functools import lru_cache
@lru_cache(maxsize=100)
def get_cached_response(prompt):
return client.chat(
model="mistral-small-latest",
messages=[ChatMessage(role="user", content=prompt)],
)
4. Token-Optimierung
- Nutzen Sie
max_tokens=100für kurze Antworten - Kürzen Sie den Eingabekontext auf die letzten 2K Tokens für Mistral Small
- Aktivieren Sie
safe_prompt=True, um schädliche Ausgaben zu reduzieren (erhöht die Kosten leicht)
Vergleich mit Alternativen
| Feature | Mistral AI | OpenAI (GPT-4o) | Anthropic (Claude 3.5) |
|---|---|---|---|
| Beste Wahl für | Kostengünstige EU-Implementierungen | Multimodal (Audio/Video) | Langer Kontext (200K Tokens) |
| Latenz | <500ms (Small) | ~1s | ~1,5s |
| Feinabstimmung | Ja (API/Selbsthosting) | Ja (API) | Begrenzt |
| Enterprise-Support | SOC 2, GDPR, VPC | SOC 2, HIPAA | SOC 2, HIPAA |
| Preise (1K Tokens) | $0,003 (Input) | $0,015 (Input) | $0,008 (Input) |
Wann Sie Mistral wählen sollten:
- Sie benötigen EU-Datenresidenz oder Kosteneffizienz
- Ihr Anwendungsfall umfasst Agents oder Tool-Nutzung
- Sie möchten Modelle selbst hosten oder feinabstimmen
Nächste Schritte
- Prototyp erstellen: Nutzen Sie Mistral Small, um einen Chatbot für Ihre Dokumentation zu entwickeln (Beispiel)
- Mit Agents experimentieren: Testen Sie die Agents API für Anwendungsfälle wie Reiseplanung oder Kundensupport
- Kosten optimieren: Überprüfen Sie Ihre API-Nutzung mit
mistralai.usage.get()und wechseln Sie bei Bedarf die Modelle
Für Teams, die KI-Anwendungen skalieren, bietet Hyperion Consulting spezialisierte Tools und Beratung, um Ihre Mistral AI-Implementierung zu beschleunigen. Besuchen Sie hyperion-consulting.io, um mehr zu erfahren.
