TL;DR
- Εγκατάσταση μέσω
pipx install llm(συνιστάται) ήpip install llm - Ρύθμιση κλειδιών API στο
~/.llm/configή μέσωllm keys set - Εκτέλεση προτροπών με
llm "Εξηγήστε τον κβαντικό υπολογισμό" - Επέκταση με πρόσθετα όπως
llm-ollamaήllm-claude - Αποθήκευση συνομιλιών σε SQLite για έλεγχο ιστορικού (AI Security Posture Framework™ φάση COMPLY)
- Μεταφορά δεδομένων από αρχεία ή εντολές για αυτοματοποίηση ροών εργασίας
1. Εγκατάσταση
Το LLM λειτουργεί σε macOS, Linux και Windows (μέσω WSL). Χρησιμοποιήστε pipx για να αποφύγετε συγκρούσεις εξαρτήσεων:
# Εγκατάσταση pipx αν δεν το έχετε
python3 -m pip install --user pipx
python3 -m pipx ensurepath
# Εγκατάσταση LLM
pipx install llm
# Επαλήθευση
llm --version
# Έξοδος: llm, version 0.15.0
Προσοχή: Αν λάβετε command not found, βεβαιωθείτε ότι το ~/.local/bin είναι στο PATH σας.
2. Ρύθμιση Κλειδιών API
Το LLM υποστηρίζει 50+ μοντέλα μέσω προσθέτων. Αρχικά, ρυθμίστε τα κλειδιά API για τους προτιμώμενους παρόχους:
# OpenAI (GPT-4, κλπ.)
llm keys set openai
# Επικολλήστε το κλειδί σας όταν ζητηθεί
# Anthropic (Claude)
llm keys set anthropic
Τοποθεσία αρχείου ρύθμισης: ~/.llm/config
Παράδειγμα ρύθμισης για πολλούς παρόχους:
# ~/.llm/config
models:
- name: gpt4
model_id: gpt-4-turbo
api_key: ${OPENAI_API_KEY}
- name: claude3
model_id: claude-3-opus-20240229
api_key: ${ANTHROPIC_API_KEY}
Συμβουλή Ειδικού: Χρησιμοποιήστε μεταβλητές περιβάλλοντος για τα κλειδιά (AI Security Posture Framework™ φάση PROTECT):
export OPENAI_API_KEY="sk-..."
llm "Συνοψίστε αυτό το έγγραφο" --key env
3. Εκτέλεση της Πρώτης Προτροπής
Βασική χρήση:
llm "Εξηγήστε το Kubernetes σε 3 σημεία"
Αναμενόμενη έξοδος:
- Πλατφόρμα οργάνωσης containers για αυτοματοποίηση ανάπτυξης, κλιμάκωσης και διαχείρισης
- Χρησιμοποιεί δηλωτική διαμόρφωση (YAML) για τον ορισμό της επιθυμητής κατάστασης
- Συστατικά περιλαμβάνουν το control plane (API server, scheduler) και τους worker nodes (kubelet, kube-proxy)
Επιλογή μοντέλου:
# Εμφάνιση διαθέσιμων μοντέλων
llm models
# Χρήση συγκεκριμένου μοντέλου
llm "Γράψτε μια συνάρτηση Python για ανάλυση JSON" -m claude3
4. Οικοσύστημα Προσθέτων
Εγκαταστήστε πρόσθετα για υποστήριξη μοντέλων:
# Ollama (τοπικά μοντέλα)
llm install llm-ollama
llm ollama pull llama3
llm -m ollama-llama3 "Εξηγήστε τα LLM σε ένα 5χρονο παιδί"
# Google Gemini
llm install llm-gemini
llm keys set gemini
llm -m gemini-1.5-pro "Αναλύστε αυτό το σύνολο δεδομένων" < data.csv
Δημοφιλή πρόσθετα:
| Πρόσθετο | Εντολή | Χρήση |
|---|---|---|
llm-ollama | llm ollama | Τοπικά μοντέλα (Llama, Mistral) |
llm-claude | llm -m claude3 | Μοντέλα Anthropic |
llm-embed | llm embed | Δημιουργία embeddings |
llm-dump | llm dump | Εξαγωγή συνομιλιών |
5. Ιστορικό Συνομιλιών & Πρότυπα
Το LLM αποθηκεύει όλες τις αλληλεπιδράσεις σε SQLite (AI Security Posture Framework™ φάση COMPLY):
# Εμφάνιση συνομιλιών
llm logs
# Συνέχεια συνομιλίας
llm continue 123
# Αποθήκευση προτύπου προτροπής
llm templates add explain "Εξηγήστε το {topic} με απλά λόγια"
llm explain --topic "blockchain"
Τοποθεσία βάσης δεδομένων: ~/.llm/logs.db
Ερώτημα απευθείας στη βάση:
sqlite3 ~/.llm/logs.db "SELECT prompt, response FROM logs LIMIT 5"
6. Μεταφορά Δεδομένων & Ενσωμάτωση με το Shell
Μεταφορά δεδομένων από αρχεία ή εντολές:
# Ανάλυση αρχείου
llm "Συνοψίστε αυτόν τον κώδικα" < app.py
# Συνδυασμός με άλλα εργαλεία
curl -s https://api.github.com/repos/simonw/llm | llm "Εξαγάγετε τις 3 κορυφαίες λειτουργίες"
# Δημιουργία μηνυμάτων commit
git diff | llm "Γράψτε ένα συνοπτικό μήνυμα commit"
Προσοχή: Για μεγάλες εισόδους, χρησιμοποιήστε --no-stream για να αποφύγετε όρια ρυθμού:
llm --no-stream "Αναλύστε αυτό το αρχείο καταγραφής 10MB" < server.log
7. Δημιουργία Προσαρμοσμένων Ροών Εργασίας
Συνδυάστε το LLM με άλλα εργαλεία για αυτοματοποίηση:
Παράδειγμα 1: Bot Αναθεώρησης Κώδικα
#!/bin/bash
git diff | llm -m claude3 "Αναθεωρήστε αυτό το diff για ζητήματα ασφαλείας. Έξοδος σε μορφή markdown."
Παράδειγμα 2: Αυτόματη Τεκμηρίωση
# Δημιουργία τεκμηρίωσης από docstrings
llm "Γράψτε τεκμηρίωση Sphinx για αυτό το αρχείο Python" < module.py > docs.rst
Παράδειγμα 3: AI Security Posture Framework™ Φάση DETECT
# Παρακολούθηση καταγραφών για ανωμαλίες
tail -f /var/log/nginx/access.log | \
llm "Εντοπίστε ύποπτες αιτήσεις HTTP. Έξοδος σε CSV με στήλες: timestamp, ip, reason" \
> security_alerts.csv
Τι Ακολουθεί;
- Εξερεύνηση προσθέτων: Εγκαταστήστε το
llm-embedγια να δημιουργήσετε embeddings για τα έγγραφά σας. - Αυτοματοποίηση ροών εργασίας: Δημιουργήστε ένα script για ανάλυση ημερήσιων καταγραφών με
llm+cron. - Έλεγχος χρήσης: Ερωτήματα στη βάση
~/.llm/logs.dbγια ανασκόπηση προηγούμενων αλληλεπιδράσεων για συμμόρφωση (AI Security Posture Framework™ φάση COMPLY).
Για ομάδες που επιθυμούν να λειτουργικοποιήσουν το LLM με ασφάλεια και επεκτασιμότητα επιχειρηματικού επιπέδου, η Hyperion Consulting προσφέρει εξειδικευμένες συμβουλευτικές υπηρεσίες AI για την υλοποίηση λύσεων όπως αυτή σε όλο τον οργανισμό σας.
