En bref
- Obtenez une clé API en 2 minutes depuis la console Mistral
- Utilisez le SDK Python
mistralai(pip install mistralai) ou@mistralai/sdkpour Node.js - Commencez avec Mistral Small pour les tâches à faible latence, Mistral Large 2 pour le raisonnement
- Activez la recherche web et l'utilisation d'outils via l'API Agents (nouveauté 2026)
- Fine-tunez Mistral Medium 2/Large 2 avec votre jeu de données (Pro/Enterprise uniquement)
- Optimisez les coûts avec le traitement par lots et la sélection de modèles
1. Obtenir une Clé API
- Inscrivez-vous sur console.mistral.ai
- Accédez à API Keys → Create Key
- Copiez la clé (commence par
mistral-) et stockez-la en toute sécurité
# Testez votre clé (remplacez YOUR_API_KEY)
curl --location "https://api.mistral.ai/v1/models" \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json"
Résultat attendu :
{
"object": "list",
"data": [
{
"id": "mistral-small-latest",
"object": "model",
"created": 1693499933,
"owned_by": "mistralai"
},
...
]
}
Attention : Les clés du niveau gratuit expirent après 30 jours. Faites tourner les clés en production en utilisant des variables d'environnement :
export MISTRAL_API_KEY="your_key_here"
2. Utilisation des SDK Python et JS
SDK Python
pip install mistralai --upgrade # v0.3.0
Complétion de chat basique :
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
client = MistralClient(api_key=os.environ["MISTRAL_API_KEY"])
response = client.chat(
model="mistral-small-latest",
messages=[ChatMessage(role="user", content="Expliquez les LLM en une phrase")],
)
print(response.choices[0].message.content)
Résultat :
Les grands modèles de langage sont des réseaux de neurones entraînés sur de vastes quantités de données textuelles pour prédire et générer du texte de manière similaire à l'humain.
Réponse en streaming :
for chunk in client.chat_stream(
model="mistral-medium-latest",
messages=[ChatMessage(role="user", content="Écrivez un code Python pour trier une liste")],
):
print(chunk.choices[0].delta.content, end="", flush=True)
SDK Node.js
npm install @mistralai/sdk
Utilisation basique :
import { Mistral } from "@mistralai/sdk";
const client = new Mistral({ apiKey: process.env.MISTRAL_API_KEY });
const response = await client.chat({
model: "mistral-small-latest",
messages: [{ role: "user", content: "Quelle est la capitale de la France ?" }],
});
console.log(response.choices[0].message.content);
Résultat :
La capitale de la France est Paris.
3. Sélection du Modèle
| Modèle | Cas d'usage | Fenêtre de contexte | Latence | Coût (entrée/sortie pour 1K tokens) |
|---|---|---|---|---|
| Mistral Small | Tâches à faible latence (chatbots, Q&A) | 8K tokens | <500ms | 0,0005 $ / 0,0015 $ |
| Mistral Medium 2 | Équilibre coût/performance | 16K tokens | ~800ms | 0,001 $ / 0,003 $ |
| Mistral Large 2 | Raisonnement complexe (agents, RAG) | 32K tokens | ~1,2s | 0,003 $ / 0,006 $ |
Exemple : Comparaison des modèles pour la génération de code
models = ["mistral-small-latest", "mistral-medium-latest", "mistral-large-latest"]
for model in models:
response = client.chat(
model=model,
messages=[ChatMessage(role="user", content="Écrivez une fonction Python pour inverser une chaîne de caractères")],
)
print(f"\n{model}:\n{response.choices[0].message.content}")
Conseil pro : Utilisez Mistral Small pour le prototypage, puis passez à Medium/Large pour la production.
4. Recherche Web et Utilisation d'Outils
Recherche Web (Fonctionnalité 2026)
Activez la recherche web dans l'appel API :
response = client.chat(
model="mistral-large-latest",
messages=[ChatMessage(role="user", content="Quelles sont les dernières actualités sur Mistral AI ?")],
tools=[{"type": "web_search", "query": "Mistral AI dernières actualités"}],
)
Appel de Fonctions
Définissez des outils et laissez le modèle décider quand les utiliser :
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Obtenir la météo actuelle dans une localisation",
"parameters": {
"type": "object",
"properties": {
"location": {"type": "string", "description": "Nom de la ville"},
"unit": {"type": "string", "enum": ["celsius", "fahrenheit"]},
},
"required": ["location"],
},
},
}
]
response = client.chat(
model="mistral-large-latest",
messages=[ChatMessage(role="user", content="Quel temps fait-il à Paris ?")],
tools=tools,
)
Résultat attendu :
{
"tool_calls": [
{
"function": {
"name": "get_weather",
"arguments": "{\"location\": \"Paris\", \"unit\": \"celsius\"}"
}
}
]
}
5. Bases du Fine-Tuning
Étape 1 : Préparez Votre Jeu de Données
Formatez vos données en JSONL :
{"prompt": "Qu'est-ce que Mistral AI ?", "completion": "Mistral AI est un laboratoire d'IA de pointe basé en France..."}
{"prompt": "Qui a fondé Mistral AI ?", "completion": "Mistral AI a été fondé par Arthur Mensch, Guillaume Lample et Timothée Lacroix en 2023."}
Étape 2 : Téléchargez sur Mistral
curl -X POST "https://api.mistral.ai/v1/fine_tuning/jobs" \
-H "Authorization: Bearer $MISTRAL_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "mistral-medium-2",
"training_file": "file-123abc", # Téléchargez d'abord via la console
"hyperparameters": {
"n_epochs": 3,
"batch_size": 8
}
}'
Étape 3 : Déployez Votre Modèle Fine-Tuné
response = client.chat(
model="ft:mistral-medium-2:your-org:custom-model-id",
messages=[ChatMessage(role="user", content="Qu'est-ce que Mistral AI ?")],
)
Coût : 0,01 $ par 1K tokens d'entraînement (Pro/Enterprise uniquement) Tarification Fine-Tuning
6. Configuration de l'API Agents
Étape 1 : Définissez Votre Agent
agent = client.agents.create(
name="TravelPlanner",
model="mistral-large-latest",
instructions="Vous êtes un assistant de planification de voyages. Utilisez les outils pour réserver des vols et des hôtels.",
tools=[
{
"type": "function",
"function": {
"name": "book_flight",
"description": "Réserver un vol entre deux villes",
"parameters": {
"type": "object",
"properties": {
"origin": {"type": "string"},
"destination": {"type": "string"},
"date": {"type": "string", "format": "date"},
},
},
},
}
],
)
Étape 2 : Exécutez l'Agent
response = client.agents.run(
agent_id=agent.id,
messages=[{"role": "user", "content": "Planifiez un voyage à Tokyo depuis Paris pour le mois prochain"}],
)
Déroulement attendu :
- L'agent demande les dates de voyage
- Appelle l'outil
book_flightavec les paramètres - Retourne une confirmation
7. Stratégies d'Optimisation des Coûts
1. Sélection du Modèle
- Utilisez Mistral Small pour les tâches simples (ex. : classification, chatbots)
- Passez à Mistral Medium 2 pour un raisonnement modéré (ex. : résumé)
- Réservez Mistral Large 2 pour les tâches complexes (ex. : agents, RAG)
2. Traitement par Lots
jobs = client.batch.create(
model="mistral-small-latest",
input_file_ids=["file-123abc"], # Fichier JSONL avec les prompts
endpoint="/v1/chat/completions",
)
Économies de coûts : Jusqu'à 50 % par rapport à l'API en temps réel Documentation API Batch
3. Mise en Cache
Cachez les réponses pour les requêtes répétées :
from functools import lru_cache
@lru_cache(maxsize=100)
def get_cached_response(prompt):
return client.chat(
model="mistral-small-latest",
messages=[ChatMessage(role="user", content=prompt)],
)
4. Optimisation des Tokens
- Utilisez
max_tokens=100pour les réponses courtes - Réduisez le contexte d'entrée aux 2K derniers tokens pour Mistral Small
- Activez
safe_prompt=Truepour réduire les sorties nuisibles (augmente légèrement le coût)
Comparaison avec les Alternatives
| Fonctionnalité | Mistral AI | OpenAI (GPT-4o) | Anthropic (Claude 3.5) |
|---|---|---|---|
| Meilleur pour | Déploiements EU économiques | Multimodal (audio/vidéo) | Contexte long (200K tokens) |
| Latence | <500ms (Small) | ~1s | ~1,5s |
| Fine-Tuning | Oui (API/auto-hébergé) | Oui (API) | Limité |
| Support Enterprise | SOC 2, RGPD, VPC | SOC 2, HIPAA | SOC 2, HIPAA |
| Tarification (1K tokens) | 0,003 $ (entrée) | 0,015 $ (entrée) | 0,008 $ (entrée) |
Quand choisir Mistral :
- Vous avez besoin de résidence des données dans l'UE ou d'efficacité des coûts
- Votre cas d'usage implique des agents ou l'utilisation d'outils
- Vous souhaitez auto-héberger ou fine-tuner des modèles
Prochaines Étapes
- Construisez un prototype : Utilisez Mistral Small pour créer un chatbot pour votre documentation (exemple)
- Expérimentez avec les agents : Essayez l'API Agents pour un cas d'usage de planification de voyage ou de support client
- Optimisez les coûts : Auditez votre utilisation de l'API avec
mistralai.usage.get()et changez de modèles si possible
Pour les équipes qui déploient des applications d'IA à grande échelle, Hyperion Consulting propose des outils spécialisés et du conseil pour accélérer votre déploiement de Mistral AI. Visitez hyperion-consulting.io pour en savoir plus.
