En bref
- Installation via
pip install llmoubrew install simonw/llm/llm(macOS) - Configuration des clés API avec
llm keys set <fournisseur> <clé> - Exécution de prompts :
llm "Expliquez l'informatique quantique"ou envoi de données via un pipe :cat notes.txt | llm -s "Résumez" - Les plugins étendent la prise en charge à Ollama, Claude, Gemini et les modèles locaux
- Les conversations sont stockées dans SQLite (
~/.llm/log.db)
1. Installation
Python (pip/pipx)
# Recommandé : pipx (environnement isolé)
pipx install llm
# Alternative : pip (global)
pip install --user llm
Sortie attendue :
✔ Successfully installed llm-0.15.0
Points d'attention :
- Si la commande
llmn'est pas trouvée aprèspip install, ajoutez~/.local/binà votrePATH:echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.bashrc source ~/.bashrc - Python 3.8+ requis. Vérifiez avec
python --version.
macOS (Homebrew)
brew install simonw/llm/llm
Windows (PowerShell)
pip install llm
- Assurez-vous que les Microsoft Visual C++ Build Tools sont installés en cas d'erreurs de compilation.
Docker
docker run -it --rm -v ~/.llm:/root/.llm simonw/llm:latest
- Les données sont persistées dans
~/.llmsur l'hôte.
2. Configuration des Clés API
LLM prend en charge plusieurs fournisseurs. Configurez les clés via l'interface en ligne de commande :
# OpenAI
llm keys set openai
# Collez votre clé lorsque vous y êtes invité
# Anthropic (Claude)
llm keys set anthropic
# Google Gemini
llm keys set gemini
Vérification des clés :
llm keys list
Sortie attendue :
Keys:
openai: sk-...abc123
anthropic: sk-ant-...xyz456
Points d'attention :
- Les clés sont stockées dans
~/.llm/keys.json. Sécurisez ce fichier avecchmod 600 ~/.llm/keys.json. - Des limites de taux s'appliquent. Consultez le tableau de bord de votre fournisseur pour le suivi de l'utilisation.
3. Exécution de Prompts
Prompt de Base
llm "Expliquez l'informatique quantique en 3 points"
Sortie attendue :
- Les bits quantiques (qubits) peuvent exister dans plusieurs états simultanément (superposition).
- Les qubits peuvent être intriqués, ce qui signifie que l'état de l'un influence instantanément un autre.
- Les ordinateurs quantiques résolvent certains problèmes de manière exponentiellement plus rapide que les ordinateurs classiques.
Spécification d'un Modèle
llm -m gpt-4o "Écrivez un script Python pour récupérer des cours boursiers"
Modèles pris en charge :
gpt-4o,gpt-4-turbo(OpenAI)claude-3-opus(Anthropic)gemini-1.5-pro(Google)llama3(via le plugin Ollama)
Modèles Locaux (GGUF)
# Installation du plugin Ollama
llm install llm-ollama
# Téléchargement d'un modèle (ex. Llama 3)
ollama pull llama3
# Exécution en local
llm -m ollama/llama3 "Expliquez le Physical AI Stack"
Points d'attention :
- Les modèles locaux nécessitent une RAM importante (ex. les modèles 7B+ nécessitent 8 Go ou plus).
- Les modèles quantifiés (ex.
llama3:8b-instruct-q4_K_M) réduisent l'utilisation mémoire mais peuvent impacter la qualité.
4. Écosystème de Plugins
Installation de Plugins
# Ollama (modèles locaux)
llm install llm-ollama
# Mistral
llm install llm-mistral
# Hugging Face
llm install llm-huggingface
Liste des Modèles Disponibles
llm models list
Sortie attendue :
OpenAI:
gpt-4o
gpt-4-turbo
Anthropic:
claude-3-opus
Ollama:
ollama/llama3
ollama/mistral
Utilisation d'un Modèle via Plugin
llm -m ollama/llama3 "Générez un Dockerfile pour une application FastAPI"
Points d'attention :
- Les plugins peuvent nécessiter des dépendances supplémentaires (ex.
llm-ollamanécessiteollamainstallé). - Consultez la documentation des plugins pour la configuration :
llm plugins info <nom-du-plugin>.
5. Historique des Conversations et Modèles
Consultation des Conversations
llm logs
Sortie attendue :
ID Model Prompt Timestamp
1 gpt-4o Expliquez l'informatique quantique... 2026-05-12 10:00:00
2 claude-3 Écrivez un script Python... 2026-05-12 10:05:00
Reprise d'une Conversation
llm logs --id 1 --continue
Prompt :
Suite : Comment la superposition permet-elle le parallélisme quantique ?
Enregistrement d'un Modèle
Créez ~/.llm/templates/summarize.yaml :
system: Vous êtes un résumeur concis. Extrayez les points clés sous forme de liste à puces.
prompt: "Résumez le texte suivant :\n\n{{ text }}"
Utilisation du modèle :
cat notes.txt | llm -t summarize
Points d'attention :
- Les modèles utilisent la syntaxe Jinja2. Échappez
{{et}}avec{% raw %}si nécessaire. - Les conversations sont stockées dans
~/.llm/log.db(SQLite). Sauvegardez ce fichier pour un stockage à long terme.
6. Intégration avec des Pipes et le Shell
Envoi de Texte à LLM via un Pipe
cat README.md | llm -s "Résumez ce projet en un paragraphe"
Envoi de la Sortie d'une Commande
git diff | llm -s "Expliquez ces modifications en termes simples"
Sauvegarde de la Sortie dans un Fichier
llm "Générez un fichier YAML de déploiement Kubernetes pour une application FastAPI" > deployment.yaml
Utilisation avec jq (Traitement JSON)
curl https://api.github.com/repos/simonw/llm | jq '.description' | llm -s "Expliquez ce projet"
Points d'attention :
- Les données envoyées via un pipe sont traitées comme un seul prompt. Pour des conversations multi-tours, utilisez
llm logs --continue. - Les entrées volumineuses peuvent atteindre les limites de tokens. Tronquez avec
head -n 100ou similaire.
7. Création de Workflows Personnalisés
API Python
import llm
model = llm.get_model("gpt-4o")
response = model.prompt("Expliquez le Hyperion Lifecycle en 3 étapes")
print(response.text())
Embeddings
# Génération d'embeddings (nécessite le plugin llm-embeddings)
llm embed -m text-embedding-3-small "The Physical AI Stack" > embedding.json
# Comparaison d'embeddings
llm embed --compare "SENSE layer" "CONNECT layer"
Alias de Modèles Personnalisés
Ajoutez dans ~/.llm/config :
aliases:
fast: gpt-4o-mini
local: ollama/llama3
Utilisation :
llm -m fast "Écrivez une ligne de code Python pour analyser un CSV"
Prompts Planifiés (Cron)
# Éditez la crontab
crontab -e
Ajoutez :
0 9 * * * /usr/local/bin/llm "Résumez les principaux articles de Hacker News" >> ~/hn-summary.txt
Points d'attention :
- Pour l'API Python, assurez-vous que
llmest installé dans votre environnement virtuel. - Les embeddings nécessitent le plugin
llm-embeddingset peuvent nécessiter des dépendances supplémentaires (ex.sentence-transformers).
Alternatives en Un Coup d'Œil
| Outil | Meilleur Pour | Limitations |
|---|---|---|
| LLM | Interface CLI légère, modèles locaux/API | Pas d'interface graphique, analytique limitée |
| LangChain | Workflows d'entreprise, RAG | Courbe d'apprentissage plus raide |
| Ollama | Modèles locaux (GGUF) | Moins d'intégrations API |
Prochaines Étapes
- Explorez les plugins : Installez
llm install llm-gpt4allpour les modèles hors ligne oullm install llm-mistralpour la prise en charge de Mistral. - Automatisez vos workflows : Envoyez la sortie d'une commande à LLM (ex.
git log | llm -s "Résumez les modifications récentes"). - Créez un modèle personnalisé : Développez un modèle YAML pour les tâches répétitives (ex. revues de code ou comptes-rendus de réunion).
Pour des outils et workflows avancés en IA, Hyperion Consulting propose des solutions de niveau entreprise pour accélérer votre adoption de l'IA.
