要点
- インストール:
pip install llmまたはbrew install simonw/llm/llm(macOS) - APIキーの設定:
llm keys set <プロバイダー> <キー> - プロンプトの実行:
llm "量子コンピューティングを説明して"またはデータのパイプ:cat notes.txt | llm -s "要約" - プラグインによりOllama、Claude、Gemini、ローカルモデルに対応
- 会話履歴はSQLiteに保存(
~/.llm/log.db)
1. インストール
Python(pip/pipx)
# 推奨:pipx(独立環境)
pipx install llm
# 代替:pip(グローバル)
pip install --user llm
期待される出力:
✔ Successfully installed llm-0.15.0
注意点:
pip install後にllmコマンドが見つからない場合は、~/.local/binをPATHに追加してください。echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.bashrc source ~/.bashrc- Python 3.8以上が必要です。
python --versionで確認してください。
macOS(Homebrew)
brew install simonw/llm/llm
Windows(PowerShell)
pip install llm
- コンパイルエラーが発生した場合は、Microsoft Visual C++ Build Toolsがインストールされていることを確認してください。
Docker
docker run -it --rm -v ~/.llm:/root/.llm simonw/llm:latest
- ホスト上の
~/.llmにデータを永続化します。
2. APIキーの設定
LLMは複数のプロバイダーに対応しています。CLIでキーを設定します。
# OpenAI
llm keys set openai
# プロンプトが表示されたらキーを貼り付けてください
# Anthropic(Claude)
llm keys set anthropic
# Google Gemini
llm keys set gemini
キーの確認:
llm keys list
期待される出力:
Keys:
openai: sk-...abc123
anthropic: sk-ant-...xyz456
注意点:
- キーは
~/.llm/keys.jsonに保存されます。このファイルはchmod 600 ~/.llm/keys.jsonでセキュリティを確保してください。 - レート制限が適用されます。使用状況はプロバイダーのダッシュボードで確認してください。
3. プロンプトの実行
基本的なプロンプト
llm "量子コンピューティングを3つのポイントで説明して"
期待される出力:
- 量子ビット(qubit)は同時に複数の状態を持つことができます(重ね合わせ)。
- 量子ビットはエンタングルメント(量子もつれ)により、一方の状態が瞬時に他方に影響を与えます。
- 量子コンピュータは特定の問題を古典コンピュータよりも指数関数的に高速に解決できます。
モデルの指定
llm -m gpt-4o "株価を取得するPythonスクリプトを作成して"
対応モデル:
gpt-4o、gpt-4-turbo(OpenAI)claude-3-opus(Anthropic)gemini-1.5-pro(Google)llama3(Ollamaプラグイン経由)
ローカルモデル(GGUF)
# Ollamaプラグインのインストール
llm install llm-ollama
# モデルのプル(例:Llama 3)
ollama pull llama3
# ローカルで実行
llm -m ollama/llama3 "Physical AIスタックを説明して"
注意点:
- ローカルモデルは大量のRAMを必要とします(例:7B以上のモデルには8GB以上)。
- 量子化モデル(例:
llama3:8b-instruct-q4_K_M)はメモリ使用量を削減できますが、品質に影響を与える可能性があります。
4. プラグインエコシステム
プラグインのインストール
# Ollama(ローカルモデル)
llm install llm-ollama
# Mistral
llm install llm-mistral
# Hugging Face
llm install llm-huggingface
利用可能なモデルの一覧
llm models list
期待される出力:
OpenAI:
gpt-4o
gpt-4-turbo
Anthropic:
claude-3-opus
Ollama:
ollama/llama3
ollama/mistral
プラグインモデルの使用
llm -m ollama/llama3 "FastAPIアプリ用のDockerfileを生成して"
注意点:
- プラグインによっては追加の依存関係が必要です(例:
llm-ollamaにはollamaのインストールが必要)。 - セットアップ方法はプラグインのドキュメントを参照してください:
llm plugins info <プラグイン名>。
5. 会話履歴とテンプレート
会話履歴の表示
llm logs
期待される出力:
ID Model Prompt Timestamp
1 gpt-4o 量子コンピューティングを説明... 2026-05-12 10:00:00
2 claude-3 Pythonスクリプトを作成... 2026-05-12 10:05:00
会話の再開
llm logs --id 1 --continue
プロンプト:
フォローアップ:重ね合わせはどのように量子並列性を可能にしますか?
テンプレートの保存
~/.llm/templates/summarize.yamlを作成します。
system: 簡潔な要約者です。キーポイントを箇条書きで抽出してください。
prompt: "次のテキストを要約してください:\n\n{{ text }}"
テンプレートの使用:
cat notes.txt | llm -t summarize
注意点:
- テンプレートはJinja2構文を使用します。必要に応じて
{{と}}を{% raw %}でエスケープしてください。 - 会話履歴は
~/.llm/log.db(SQLite)に保存されます。長期保存のためにこのファイルをバックアップしてください。
6. データのパイプとシェル統合
テキストのパイプ
cat README.md | llm -s "このプロジェクトを1段落で要約して"
コマンド出力のパイプ
git diff | llm -s "これらの変更を簡単に説明して"
出力をファイルに保存
llm "FastAPIアプリ用のKubernetesデプロイメントYAMLを生成して" > deployment.yaml
jqとの連携(JSON処理)
curl https://api.github.com/repos/simonw/llm | jq '.description' | llm -s "このプロジェクトを説明して"
注意点:
- パイプされた入力は単一のプロンプトとして扱われます。マルチターンの会話には
llm logs --continueを使用してください。 - 大量の入力はトークン制限に達する可能性があります。
head -n 100などで切り捨ててください。
7. カスタムワークフローの構築
Python API
import llm
model = llm.get_model("gpt-4o")
response = model.prompt("Hyperion Lifecycleを3ステップで説明して")
print(response.text())
エンベディング
# エンベディングの生成(llm-embeddingsプラグインが必要)
llm embed -m text-embedding-3-small "The Physical AI Stack" > embedding.json
# エンベディングの比較
llm embed --compare "SENSEレイヤー" "CONNECTレイヤー"
カスタムモデルエイリアス
~/.llm/configに追加します。
aliases:
fast: gpt-4o-mini
local: ollama/llama3
使用方法:
llm -m fast "CSVを解析するPythonワンライナーを作成して"
スケジュールされたプロンプト(Cron)
# crontabの編集
crontab -e
以下を追加:
0 9 * * * /usr/local/bin/llm "Hacker Newsのトップ記事を要約" >> ~/hn-summary.txt
注意点:
- Python APIの場合、
llmが仮想環境にインストールされていることを確認してください。 - エンベディングには
llm-embeddingsプラグインが必要で、追加の依存関係(例:sentence-transformers)が必要になる場合があります。
比較一覧
| ツール | 最適な用途 | 制限事項 |
|---|---|---|
| LLM | 軽量なCLI、ローカル/APIモデル | GUIなし、分析機能が限定的 |
| LangChain | エンタープライズワークフロー、RAG | 学習曲線が急 |
| Ollama | ローカルモデル(GGUF) | API統合が少ない |
次のステップ
- プラグインの探索:オフラインモデル用に
llm install llm-gpt4allをインストールするか、Mistral対応のためにllm install llm-mistralをインストールしてください。 - ワークフローの自動化:コマンド出力をLLMにパイプしてください(例:
git log | llm -s "最近の変更を要約")。 - カスタムテンプレートの作成:繰り返し作業(例:コードレビューや会議メモ)用のYAMLテンプレートを作成してください。
高度なAIツールとワークフローについては、Hyperion Consultingがエンタープライズ向けソリューションを提供し、AI導入を加速します。
