要点
- VS Code または JetBrains でContinueをマーケットプレイス経由で2分でインストール
config.jsonで OpenAI、Anthropic、またはOllama(ローカル)に接続- タブ補完 と チャット を使用してコード生成/編集を実施
- スラッシュコマンド(例:
/explain、/test)や コンテキストプロバイダー(@file、@docs)でカスタマイズ - エンタープライズ向けには SSO、監査ログ、セルフホスティング を有効化してコンプライアンスを確保
1. インストール
VS Code
- VS Codeを開きます。
Ctrl+Shift+X(Windows/Linux)またはCmd+Shift+X(Mac)を押して拡張機能を開きます。Continueを検索し、インストール をクリックします。- 期待される結果:サイドバーにアイコン(ロケットの絵文字)が表示されます。
- 確認方法:
code --list-extensions | grep continue # 出力: continue.continue
JetBrains(IntelliJ、PyCharmなど)
- 設定 を開きます(
Ctrl+Alt+S/Cmd+,)。 - プラグイン > マーケットプレイス に移動します。
Continueを検索し、インストール をクリックします。- IDEを再起動します。
- 期待される結果:Continueパネルが右サイドバーに表示されます。
注意点:Windowsの場合、ローカルモデルを使用するにはWSL2がインストールされていることを確認してください。
wsl --install
2. モデルの設定
~/.continue/config.json を編集します(初回起動時に自動作成されます)。以下は 本番環境向けテンプレート です。
{
"models": [
{
"title": "OpenAI GPT-4 Turbo",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}"
},
{
"title": "Anthropic Claude 3 Opus",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "${ANTHROPIC_API_KEY}"
},
{
"title": "Local Ollama (Llama3)",
"provider": "ollama",
"model": "llama3"
}
],
"tabAutocompleteModel": {
"title": "Local Ollama (CodeLlama)",
"provider": "ollama",
"model": "codellama"
}
}
主要フィールド:
apiKey:セキュリティのため${ENV_VAR}を使用(.bashrc/~/.zshrcで設定)。tabAutocompleteModel:高速な補完用に別のモデルを指定。
モデルの確認方法:
- Continueのサイドバーを開きます。
- モデルのドロップダウン(右上)をクリックします。
- 期待される結果:設定したすべてのモデルが表示されます。
よくあるエラー:
- 401 Unauthorized:APIキーを確認してください(
echo $OPENAI_API_KEY)。 - Ollamaが見つからない:まずOllamaをインストールします。
curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3
3. タブ補完の設定
config.json で有効化します。
{
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama CodeLlama",
"provider": "ollama",
"model": "codellama"
}
}
テスト方法:
- Pythonファイルを開きます。
def hello_world(と入力し、Tabを押します。- 期待される結果:Continueが関数本体を提案します。
プロのヒント:高速な補完には小規模なモデル(例:starcoder:1b)を使用してください。
4. チャットとインライン編集
チャットインターフェース
- Continueのサイドバーを開きます(
Ctrl+Shift+L/Cmd+Shift+L)。 - プロンプトを入力します(例:「このReactコンポーネントを説明してください」)。
- 期待される結果:コードスニペットを含むストリーミング応答が表示されます。
インライン編集:
- コードを選択します。
Cmd+I(Mac)またはCtrl+I(Windows/Linux)を押します。- 指示を入力します(例:「エラーハンドリングを追加してください」)。
- 期待される結果:コードがその場で更新されます。
AIセキュリティ ポスチャーフレームワーク™(DETECTフェーズ):
config.jsonで 監査ログ を有効化し、LLMのやり取りを追跡します。{ "auditLogEnabled": true, "auditLogPath": "/var/log/continue/audit.log" }- ログにはタイムスタンプ、ユーザーID、モデルの入出力が含まれます。
5. コンテキストプロバイダー
チャットで @ シンボルを使用してコンテキストを参照します。
| プロバイダー | 使用例 | 説明 |
|---|---|---|
@file | @file src/utils.js | ファイルの内容を含めます。 |
@docs | @docs https://react.dev | ドキュメントを取得します。 |
@codebase | @codebase | プロジェクト全体をインデックス化(Pro/Enterprise)。 |
@terminal | @terminal ls -la | シェルコマンドを実行します。 |
例:
@file src/api.ts
このコードをコールバックの代わりにasync/awaitを使用してリファクタリングしてください。
注意点:@codebase は大規模プロジェクトではPro/Enterpriseが必要です。
6. カスタムスラッシュコマンド
config.json で再利用可能なコマンドを定義します。
{
"customCommands": [
{
"name": "explain",
"prompt": "次のコードを簡単に説明してください:\n{{code}}",
"description": "選択したコードを説明"
},
{
"name": "test",
"prompt": "次のコードのユニットテストを作成してください:\n{{code}}\n\nJavaScriptにはJest、Pythonにはpytestを使用してください。",
"description": 「テストを生成"
}
]
}
使用方法:
- コードを選択します。
- チャットで
/explainと入力します。- 期待される結果:平易な言葉での説明が表示されます。
AIセキュリティポスチャーフレームワーク™(PROTECTフェーズ):
- ロールベースアクセス制御 でコマンドを制限します(Enterprise)。
{ "enterprise": { "allowedCommands": ["explain", "test"], "blockedCommands": ["delete", "exec"] } }
7. config.json の詳細
エンタープライズ向け完全例
{
"models": [
{
"title": "Azure OpenAI GPT-4",
"provider": "openai",
"model": "gpt-4",
"apiBase": "https://your-azure-endpoint.openai.azure.com",
"apiKey": "${AZURE_OPENAI_KEY}",
"apiVersion": "2024-02-15-preview"
}
],
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama DeepSeek Coder",
"provider": "ollama",
"model": "deepseek-coder:6.7b"
},
"customCommands": [
{
"name": "audit",
"prompt": "次のコードのセキュリティ脆弱性を監査してください:\n{{code}}\n\nOWASP Top 10ガイドラインに従ってください。",
"description": 「セキュリティ監査"
}
],
"enterprise": {
"ssoProvider": "okta",
"auditLogEnabled": true,
"allowedModels": ["gpt-4", "claude-3-opus"]
},
"contextProviders": [
{
"name": "docs",
"params": {
"maxTokens": 4096
}
}
]
}
主要なエンタープライズ機能:
- SSO統合:Okta/SAMLによる認証。
- モデルのホワイトリスト:承認済みモデルのみに制限。
- 監査ログ:コンプライアンス対応のログ記録(AIセキュリティポスチャーフレームワーク™ COMPLYフェーズ)。
代替ツールの比較
| ツール | 最適な用途 | 弱点 | コスト(2026年) |
|---|---|---|---|
| Continue | ローカルモデル、カスタマイズ | コミュニティが小規模 | 無料~$20/ユーザー/月 |
| GitHub Copilot | GitHubとの統合 | ローカルモデルなし、高価 | $10~$39/ユーザー/月 |
| Cursor | VS Codeパワーユーザー | セルフホスティングなし | 無料~$20/ユーザー/月 |
次のステップ
- モデルのベンチマーク:
gpt-4とclaude-3-opusを用途に応じて比較します。time continue --model gpt-4 --prompt "Python Flask APIを作成してください" time continue --model claude-3-opus --prompt "Python Flask APIを作成してください" - CI/CDの設定:
config.jsonをリポジトリに追加し、CIで検証します。npm install -g @continue/cli continue validate-config - セルフホスティングの検討:エアギャップ環境にContinueをオンプレミスでデプロイします。
docker run -p 3000:3000 -v ~/.continue:/root/.continue continuedev/continue
Continueをスケールでデプロイする際のサポートが必要ですか?Hyperion Consultingでは、セキュリティ、コスト、パフォーマンスを最適化するAIツールコンサルティングを提供しています。詳細は hyperion-consulting.io をご覧ください。
