TL;DR
- Installation via
pipx install llm(recommandé) oupip install llm - Configuration des clés API dans
~/.llm/configou viallm keys set - Exécution de prompts avec
llm "Expliquez l'informatique quantique" - Extension avec des plugins comme
llm-ollamaoullm-claude - Stockage des conversations dans SQLite pour les pistes d'audit (Posture de Sécurité IA Framework™ phase COMPLY)
- Transmission de données depuis des fichiers ou des commandes pour l'automatisation des workflows
1. Installation
LLM fonctionne sur macOS, Linux et Windows (via WSL). Utilisez pipx pour éviter les conflits de dépendances :
# Installer pipx si vous ne l'avez pas
python3 -m pip install --user pipx
python3 -m pipx ensurepath
# Installer LLM
pipx install llm
# Vérification
llm --version
# Sortie : llm, version 0.15.0
Attention : Si vous obtenez command not found, assurez-vous que ~/.local/bin est dans votre PATH.
2. Configurer les Clés API
LLM prend en charge plus de 50 modèles via des plugins. Commencez par configurer les clés API pour vos fournisseurs préférés :
# OpenAI (GPT-4, etc.)
llm keys set openai
# Collez votre clé lorsque vous y êtes invité
# Anthropic (Claude)
llm keys set anthropic
Emplacement du fichier de configuration : ~/.llm/config
Exemple de configuration pour plusieurs fournisseurs :
# ~/.llm/config
models:
- name: gpt4
model_id: gpt-4-turbo
api_key: ${OPENAI_API_KEY}
- name: claude3
model_id: claude-3-opus-20240229
api_key: ${ANTHROPIC_API_KEY}
Conseil professionnel : Utilisez des variables d'environnement pour les clés (AI Security Posture Framework™ phase PROTECT) :
export OPENAI_API_KEY="sk-..."
llm "Résumez ce document" --key env
3. Exécuter Votre Premier Prompt
Utilisation de base :
llm "Expliquez Kubernetes en 3 points"
Sortie attendue :
- Plateforme d'orchestration de conteneurs pour automatiser le déploiement, la mise à l'échelle et la gestion
- Utilise une configuration déclarative (YAML) pour définir l'état souhaité
- Composants incluant le plan de contrôle (serveur API, planificateur) et les nœuds de travail (kubelet, kube-proxy)
Sélection du modèle :
# Lister les modèles disponibles
llm models
# Utiliser un modèle spécifique
llm "Écrivez une fonction Python pour analyser du JSON" -m claude3
4. Écosystème de Plugins
Installez des plugins pour ajouter la prise en charge de modèles :
# Ollama (modèles locaux)
llm install llm-ollama
llm ollama pull llama3
llm -m ollama-llama3 "Expliquez les LLM à un enfant de 5 ans"
# Google Gemini
llm install llm-gemini
llm keys set gemini
llm -m gemini-1.5-pro "Analysez cet ensemble de données" < data.csv
Plugins populaires :
| Plugin | Commande | Cas d'utilisation |
|---|---|---|
llm-ollama | llm ollama | Modèles locaux (Llama, Mistral) |
llm-claude | llm -m claude3 | Modèles Anthropic |
llm-embed | llm embed | Génération d'embeddings |
llm-dump | llm dump | Exportation des conversations |
5. Historique des Conversations et Modèles
LLM stocke toutes les interactions dans SQLite (AI Security Posture Framework™ phase COMPLY) :
# Lister les conversations
llm logs
# Reprendre une conversation
llm continue 123
# Enregistrer un modèle de prompt
llm templates add explain "Expliquez {topic} en termes simples"
llm explain --topic "blockchain"
Emplacement de la base de données : ~/.llm/logs.db
Interrogez-la directement :
sqlite3 ~/.llm/logs.db "SELECT prompt, response FROM logs LIMIT 5"
6. Transmission de Données et Intégration Shell
Transmettez des données depuis des fichiers ou des commandes :
# Analyser un fichier
llm "Résumez ce code" < app.py
# Chaîner avec d'autres outils
curl -s https://api.github.com/repos/simonw/llm | llm "Extrayez les 3 principales fonctionnalités"
# Générer des messages de commit
git diff | llm "Rédigez un message de commit concis"
Attention : Pour les entrées volumineuses, utilisez --no-stream pour éviter les limites de débit :
llm --no-stream "Analysez ce fichier journal de 10 Mo" < server.log
7. Créer des Workflows Personnalisés
Combinez LLM avec d'autres outils pour automatiser les processus :
Exemple 1 : Bot de Revue de Code
#!/bin/bash
git diff | llm -m claude3 "Passez en revue ce diff pour détecter des problèmes de sécurité. Sortie en markdown."
Exemple 2 : Documentation Automatisée
# Générer de la documentation à partir des docstrings
llm "Rédigez une documentation Sphinx pour ce fichier Python" < module.py > docs.rst
Exemple 3 : Phase DETECT du AI Security Posture Framework™
# Surveiller les journaux pour détecter des anomalies
tail -f /var/log/nginx/access.log | \
llm "Signalez les requêtes HTTP suspectes. Sortie en CSV avec les colonnes : timestamp, ip, raison" \
> security_alerts.csv
Prochaines Étapes
- Explorez les plugins : Installez
llm-embedpour générer des embeddings pour vos documents. - Automatisez les workflows : Créez un script pour analyser les journaux quotidiens avec
llm+cron. - Auditez votre utilisation : Interrogez
~/.llm/logs.dbpour examiner les interactions passées à des fins de conformité (AI Security Posture Framework™ phase COMPLY).
Pour les équipes souhaitant opérationnaliser LLM avec une sécurité et une évolutivité de niveau entreprise, Hyperion Consulting propose des services de conseil spécialisés en outils d'IA pour implémenter des solutions comme celle-ci au sein de votre organisation.
