ملخص سريع
- التثبيت عبر
pipx install llm(موصى به) أوpip install llm - تكوين مفاتيح API في
~/.llm/configأو عبرllm keys set - تشغيل الأوامر باستخدام
llm "اشرح الحوسبة الكمومية" - التوسيع باستخدام الإضافات مثل
llm-ollamaأوllm-claude - تخزين المحادثات في SQLite لتتبع التدقيق (مرحلة COMPLY في إطار AI Security Posture Framework™)
- تمرير البيانات من الملفات أو الأوامر لأتمتة سير العمل
1. التثبيت
يعمل LLM على أنظمة macOS وLinux وWindows (عبر WSL). استخدم pipx لتجنب تعارضات التبعيات:
# تثبيت pipx إذا لم يكن لديك
python3 -m pip install --user pipx
python3 -m pipx ensurepath
# تثبيت LLM
pipx install llm
# التحقق
llm --version
# الناتج: llm, version 0.15.0
ملاحظة مهمة: إذا ظهرت رسالة command not found، تأكد من أن ~/.local/bin موجود في متغير PATH.
2. تكوين مفاتيح API
يدعم LLM أكثر من 50 نموذجًا عبر الإضافات. أولاً، قم بإعداد مفاتيح API لمزودي الخدمة المفضلين لديك:
# OpenAI (GPT-4، إلخ)
llm keys set openai
# ألصق مفتاحك عند الطلب
# Anthropic (Claude)
llm keys set anthropic
موقع ملف التكوين: ~/.llm/config
مثال على التكوين لعدة مزودين:
# ~/.llm/config
models:
- name: gpt4
model_id: gpt-4-turbo
api_key: ${OPENAI_API_KEY}
- name: claude3
model_id: claude-3-opus-20240229
api_key: ${ANTHROPIC_API_KEY}
نصيحة احترافية: استخدم متغيرات البيئة للمفاتيح (مرحلة PROTECT في إطار AI Security Posture Framework™):
export OPENAI_API_KEY="sk-..."
llm "لخص هذا المستند" --key env
3. تشغيل أول أمر
الاستخدام الأساسي:
llm "اشرح Kubernetes في 3 نقاط"
الناتج المتوقع:
- منصة تنسيق الحاويات لأتمتة النشر والتوسيع والإدارة
- تستخدم التكوين التصريحي (YAML) لتحديد الحالة المطلوبة
- تتضمن مكونات مستوى التحكم (خادم API، المجدول) والعقد العاملة (kubelet، kube-proxy)
اختيار النموذج:
# قائمة النماذج المتاحة
llm models
# استخدام نموذج محدد
llm "اكتب دالة Python لتحليل JSON" -m claude3
4. نظام الإضافات
قم بتثبيت الإضافات لإضافة دعم النماذج:
# Ollama (النماذج المحلية)
llm install llm-ollama
llm ollama pull llama3
llm -m ollama-llama3 "اشرح LLMs لطفل عمره 5 سنوات"
# Google Gemini
llm install llm-gemini
llm keys set gemini
llm -m gemini-1.5-pro "حلل هذه البيانات" < data.csv
الإضافات الشائعة:
| الإضافة | الأمر | حالة الاستخدام |
|---|---|---|
llm-ollama | llm ollama | النماذج المحلية (Llama، Mistral) |
llm-claude | llm -m claude3 | نماذج Anthropic |
llm-embed | llm embed | توليد التضمينات |
llm-dump | llm dump | تصدير المحادثات |
5. سجل المحادثات والقوالب
يقوم LLM بتخزين جميع التفاعلات في SQLite (مرحلة COMPLY في إطار AI Security Posture Framework™):
# قائمة المحادثات
llm logs
# متابعة محادثة
llm continue 123
# حفظ قالب للأوامر
llm templates add explain "اشرح {topic} بطريقة بسيطة"
llm explain --topic "blockchain"
موقع قاعدة البيانات: ~/.llm/logs.db
الاستعلام عنها مباشرة:
sqlite3 ~/.llm/logs.db "SELECT prompt, response FROM logs LIMIT 5"
6. تمرير البيانات وتكامل الشل
مرر البيانات من الملفات أو الأوامر:
# تحليل ملف
llm "لخص هذا الكود" < app.py
# الدمج مع أدوات أخرى
curl -s https://api.github.com/repos/simonw/llm | llm "استخرج أهم 3 ميزات"
# توليد رسائل الالتزام
git diff | llm "اكتب رسالة التزام موجزة"
ملاحظة مهمة: بالنسبة للمدخلات الكبيرة، استخدم --no-stream لتجنب حدود المعدل:
llm --no-stream "حلل هذا الملف اللوغاريتمي بحجم 10 ميجابايت" < server.log
7. بناء سير العمل المخصصة
ادمج LLM مع أدوات أخرى لأتمتة المهام:
مثال 1: بوت مراجعة الكود
#!/bin/bash
git diff | llm -m claude3 "راجع هذا الفرق بحثًا عن مشكلات الأمان. أخرج النتيجة بتنسيق markdown."
مثال 2: التوثيق الآلي
# توليد الوثائق من سلاسل التوثيق
docstrings
llm "اكتب وثائق Sphinx لهذا الملف Python" < module.py > docs.rst
مثال 3: مرحلة DETECT في إطار AI Security Posture Framework™
# مراقبة السجلات بحثًا عن الشذوذ
tail -f /var/log/nginx/access.log | \
llm "حدد الطلبات HTTP المشبوهة. أخرج النتيجة بتنسيق CSV مع الأعمدة: timestamp, ip, reason" \
> security_alerts.csv
ما الخطوة التالية؟
- استكشف الإضافات: قم بتثبيت
llm-embedلتوليد التضمينات لوثائقك. - أتمتة سير العمل: أنشئ نصًا برمجيًا لتحليل السجلات اليومية باستخدام
llm+cron. - تدقيق استخدامك: استعلم عن
~/.llm/logs.dbلمراجعة التفاعلات السابقة للامتثال (مرحلة COMPLY في إطار AI Security Posture Framework™).
بالنسبة للفرق التي تتطلع إلى تشغيل LLM بأمان وقابلية للتوسع على مستوى المؤسسة، تقدم Hyperion Consulting استشارات متخصصة في أدوات الذكاء الاصطناعي لتنفيذ حلول مثل هذه عبر مؤسستك.
