TL;DR
- Installeer via
pipx install llm(aanbevolen) ofpip install llm - Configureer API-sleutels in
~/.llm/configof viallm keys set - Voer prompts uit met
llm "Leg quantumcomputing uit" - Breid uit met plugins zoals
llm-ollamaofllm-claude - Sla gesprekken op in SQLite voor audit trails (AI-beveiligingshouding Framework™ COMPLY-fase)
- Koppel gegevens uit bestanden of commando's voor workflowautomatisering
1. Installatie
LLM werkt op macOS, Linux en Windows (via WSL). Gebruik pipx om afhankelijkheidsconflicten te voorkomen:
# Installeer pipx als u het nog niet heeft
python3 -m pip install --user pipx
python3 -m pipx ensurepath
# Installeer LLM
pipx install llm
# Verifieer
llm --version
# Output: llm, version 0.15.0
Let op: Als u command not found krijgt, zorg er dan voor dat ~/.local/bin in uw PATH staat.
2. API-sleutels configureren
LLM ondersteunt 50+ modellen via plugins. Stel eerst API-sleutels in voor uw voorkeursproviders:
# OpenAI (GPT-4, etc.)
llm keys set openai
# Plak uw sleutel wanneer daarom wordt gevraagd
# Anthropic (Claude)
llm keys set anthropic
Locatie configuratiebestand: ~/.llm/config
Voorbeeldconfiguratie voor meerdere providers:
# ~/.llm/config
models:
- name: gpt4
model_id: gpt-4-turbo
api_key: ${OPENAI_API_KEY}
- name: claude3
model_id: claude-3-opus-20240229
api_key: ${ANTHROPIC_API_KEY}
Professionele tip: Gebruik omgevingsvariabelen voor sleutels (AI Security Posture Framework™ PROTECT-fase):
export OPENAI_API_KEY="sk-..."
llm "Vat dit document samen" --key env
3. Voer uw eerste prompt uit
Basisgebruik:
llm "Leg Kubernetes uit in 3 punten"
Verwachte output:
- Platform voor containerorkestratie voor het automatiseren van implementatie, schaling en beheer
- Maakt gebruik van declaratieve configuratie (YAML) om de gewenste staat te definiëren
- Componenten omvatten control plane (API-server, scheduler) en worker nodes (kubelet, kube-proxy)
Modelselectie:
# Lijst beschikbare modellen
llm models
# Gebruik een specifiek model
llm "Schrijf een Python-functie om JSON te parseren" -m claude3
4. Plugin-ecosysteem
Installeer plugins om modelondersteuning toe te voegen:
# Ollama (lokale modellen)
llm install llm-ollama
llm ollama pull llama3
llm -m ollama-llama3 "Leg LLM's uit aan een 5-jarige"
# Google Gemini
llm install llm-gemini
llm keys set gemini
llm -m gemini-1.5-pro "Analyseer deze dataset" < data.csv
Populaire plugins:
| Plugin | Commando | Gebruiksscenario |
|---|---|---|
llm-ollama | llm ollama | Lokale modellen (Llama, Mistral) |
llm-claude | llm -m claude3 | Anthropic-modellen |
llm-embed | llm embed | Embeddings genereren |
llm-dump | llm dump | Gesprekken exporteren |
5. Gespreksgeschiedenis & Sjablonen
LLM slaat alle interacties op in SQLite (AI Security Posture Framework™ COMPLY-fase):
# Lijst gesprekken
llm logs
# Hervat een gesprek
llm continue 123
# Sla een promptsjabloon op
llm templates add explain "Leg {onderwerp} uit in eenvoudige bewoordingen"
llm explain --topic "blockchain"
Database locatie: ~/.llm/logs.db
Query deze direct:
sqlite3 ~/.llm/logs.db "SELECT prompt, response FROM logs LIMIT 5"
6. Gegevens koppelen & Shell-integratie
Koppel gegevens uit bestanden of commando's:
# Analyseer een bestand
llm "Vat deze code samen" < app.py
# Koppel met andere tools
curl -s https://api.github.com/repos/simonw/llm | llm "Extraheer de top 3 functies"
# Genereer commitberichten
git diff | llm "Schrijf een beknopt commitbericht"
Let op: Gebruik --no-stream voor grote invoeren om rate limits te vermijden:
llm --no-stream "Analyseer dit logbestand van 10 MB" < server.log
7. Bouw aangepaste workflows
Combineer LLM met andere tools voor automatisering:
Voorbeeld 1: Code Review Bot
#!/bin/bash
git diff | llm -m claude3 "Beoordeel deze diff op beveiligingsproblemen. Output in markdown."
Voorbeeld 2: Geautomatiseerde documentatie
# Genereer documentatie uit docstrings
llm "Schrijf Sphinx-documentatie voor dit Python-bestand" < module.py > docs.rst
Voorbeeld 3: AI Security Posture Framework™ DETECT-fase
# Monitor logs op afwijkingen
tail -f /var/log/nginx/access.log | \
llm "Markeer verdachte HTTP-verzoeken. Output als CSV met kolommen: tijdstempel, ip, reden" \
> security_alerts.csv
Wat nu?
- Verken plugins: Installeer
llm-embedom embeddings voor uw documenten te genereren. - Automatiseer workflows: Maak een script om dagelijkse logs te analyseren met
llm+cron. - Controleer uw gebruik: Query
~/.llm/logs.dbom eerdere interacties te beoordelen voor compliance (AI Security Posture Framework™ COMPLY-fase).
Voor teams die LLM willen operationaliseren met enterprise-grade beveiliging en schaalbaarheid, biedt Hyperion Consulting gespecialiseerd advies op het gebied van AI-tools om oplossingen zoals deze binnen uw organisatie te implementeren.
