TL;DR
- Installation via
pipx install llm(empfohlen) oderpip install llm - API-Schlüssel in
~/.llm/configkonfigurieren oder viallm keys set - Prompts mit
llm "Erklären Sie Quantencomputing"ausführen - Mit Plugins wie
llm-ollamaoderllm-claudeerweitern - Gespräche in SQLite für Audit-Trails speichern (AI Security Posture Framework™ COMPLY-Phase)
- Daten aus Dateien oder Befehlen für Workflow-Automatisierung weiterleiten
1. Installation
LLM funktioniert auf macOS, Linux und Windows (via WSL). Verwenden Sie pipx, um Abhängigkeitskonflikte zu vermeiden:
# pipx installieren, falls nicht vorhanden
python3 -m pip install --user pipx
python3 -m pipx ensurepath
# LLM installieren
pipx install llm
# Überprüfen
llm --version
# Ausgabe: llm, Version 0.15.0
Achtung: Falls Sie die Meldung command not found erhalten, stellen Sie sicher, dass ~/.local/bin in Ihrem PATH enthalten ist.
2. API-Schlüssel konfigurieren
LLM unterstützt über 50 Modelle via Plugins. Richten Sie zunächst API-Schlüssel für Ihre bevorzugten Anbieter ein:
# OpenAI (GPT-4, etc.)
llm keys set openai
# Fügen Sie Ihren Schlüssel ein, wenn Sie dazu aufgefordert werden
# Anthropic (Claude)
llm keys set anthropic
Speicherort der Konfigurationsdatei: ~/.llm/config
Beispielkonfiguration für mehrere Anbieter:
# ~/.llm/config
models:
- name: gpt4
model_id: gpt-4-turbo
api_key: ${OPENAI_API_KEY}
- name: claude3
model_id: claude-3-opus-20240229
api_key: ${ANTHROPIC_API_KEY}
Professioneller Tipp: Verwenden Sie Umgebungsvariablen für Schlüssel (AI Security Posture Framework™ PROTECT-Phase):
export OPENAI_API_KEY="sk-..."
llm "Fassen Sie dieses Dokument zusammen" --key env
3. Ihren ersten Prompt ausführen
Grundlegende Nutzung:
llm "Erklären Sie Kubernetes in 3 Stichpunkten"
Erwartete Ausgabe:
- Plattform zur Container-Orchestrierung für automatisierte Bereitstellung, Skalierung und Verwaltung
- Nutzt deklarative Konfiguration (YAML) zur Definition des gewünschten Zustands
- Komponenten umfassen Control Plane (API-Server, Scheduler) und Worker-Knoten (kubelet, kube-proxy)
Modellauswahl:
# Verfügbare Modelle auflisten
llm models
# Ein bestimmtes Modell verwenden
llm "Schreiben Sie eine Python-Funktion zum Parsen von JSON" -m claude3
4. Plugin-Ökosystem
Installieren Sie Plugins, um die Modellunterstützung zu erweitern:
# Ollama (lokale Modelle)
llm install llm-ollama
llm ollama pull llama3
llm -m ollama-llama3 "Erklären Sie LLMs einem 5-jährigen Kind"
# Google Gemini
llm install llm-gemini
llm keys set gemini
llm -m gemini-1.5-pro "Analysieren Sie diesen Datensatz" < data.csv
Beliebte Plugins:
| Plugin | Befehl | Anwendungsfall |
|---|---|---|
llm-ollama | llm ollama | Lokale Modelle (Llama, Mistral) |
llm-claude | llm -m claude3 | Anthropic-Modelle |
llm-embed | llm embed | Embeddings generieren |
llm-dump | llm dump | Gespräche exportieren |
5. Gesprächsverlauf & Vorlagen
LLM speichert alle Interaktionen in SQLite (AI Security Posture Framework™ COMPLY-Phase):
# Gespräche auflisten
llm logs
# Ein Gespräch fortsetzen
llm continue 123
# Eine Prompt-Vorlage speichern
llm templates add explain "Erklären Sie {topic} in einfachen Worten"
llm explain --topic "Blockchain"
Datenbankstandort: ~/.llm/logs.db
Direkte Abfrage:
sqlite3 ~/.llm/logs.db "SELECT prompt, response FROM logs LIMIT 5"
6. Datenweiterleitung & Shell-Integration
Daten aus Dateien oder Befehlen weiterleiten:
# Eine Datei analysieren
llm "Fassen Sie diesen Code zusammen" < app.py
# Mit anderen Tools verketten
curl -s https://api.github.com/repos/simonw/llm | llm "Extrahieren Sie die Top 3 Features"
# Commit-Nachrichten generieren
git diff | llm "Schreiben Sie eine prägnante Commit-Nachricht"
Achtung: Verwenden Sie bei großen Eingaben --no-stream, um Ratenlimits zu vermeiden:
llm --no-stream "Analysieren Sie diese 10-MB-Logdatei" < server.log
7. Benutzerdefinierte Workflows erstellen
Kombinieren Sie LLM mit anderen Tools zur Automatisierung:
Beispiel 1: Code-Review-Bot
#!/bin/bash
git diff | llm -m claude3 "Überprüfen Sie diesen Diff auf Sicherheitsprobleme. Ausgabe als Markdown."
Beispiel 2: Automatisierte Dokumentation
# Dokumentation aus Docstrings generieren
llm "Schreiben Sie Sphinx-Dokumentation für diese Python-Datei" < module.py > docs.rst
Beispiel 3: AI Security Posture Framework™ DETECT-Phase
# Protokolle auf Anomalien überwachen
tail -f /var/log/nginx/access.log | \
llm "Markieren Sie verdächtige HTTP-Anfragen. Ausgabe als CSV mit den Spalten: timestamp, ip, reason" \
> security_alerts.csv
Was kommt als Nächstes?
- Plugins erkunden: Installieren Sie
llm-embed, um Embeddings für Ihre Dokumente zu generieren. - Workflows automatisieren: Erstellen Sie ein Skript zur täglichen Protokollanalyse mit
llm+cron. - Nutzung prüfen: Fragen Sie
~/.llm/logs.dbab, um vergangene Interaktionen für Compliance-Zwecke zu überprüfen (AI Security Posture Framework™ COMPLY-Phase).
Für Teams, die LLM mit unternehmensweiter Sicherheit und Skalierbarkeit operationalisieren möchten, bietet Hyperion Consulting spezialisierte Beratung zu KI-Tools an, um Lösungen wie diese in Ihrer Organisation umzusetzen.
