Zusammenfassung
- Installieren Sie Continue in VS Code (
code --install-extension continue.continue) oder JetBrains (über den Marketplace) Quelle: VS Code Marketplace Quelle: JetBrains Marketplace - Konfigurieren Sie Modelle in
~/.continue/config.json(OpenAI, Anthropic, Ollama oder lokale LLMs) Quelle: Modell-Einrichtung - Nutzen Sie Tab-Autovervollständigung, Slash-Befehle (
/edit,/test) und Kontextanbieter (@file,@codebase) Quelle: Befehlsliste Quelle: Kontext-Dokumentation - Passen Sie Workflows mit Agents (ab v0.9.0+) und Enterprise-SSO (ab v0.9.5+) an Quelle: Agents-Dokumentation Quelle: Enterprise-Leitfaden
- Die kostenlose Version umfasst lokale LLMs; Pro ($20/Nutzer/Monat) schaltet unbegrenzten Cloud-Chat frei Quelle: Preisseite
1. Installation
VS Code / Cursor
# Installation über CLI
code --install-extension continue.continue
Erwartete Ausgabe: Ein neues Seitenleisten-Symbol (🔄) erscheint. Klicken Sie darauf, um das Continue-Panel zu öffnen.
Hinweis:
- Falls die Erweiterung nicht lädt, stellen Sie sicher, dass Sie VS Code ≥1.80 verwenden Quelle: Offizieller Leitfaden.
- Starten Sie VS Code nach der Installation neu.
JetBrains (IntelliJ, PyCharm, etc.)
- Öffnen Sie Settings > Plugins.
- Suchen Sie nach "Continue" und installieren Sie die Erweiterung Quelle: JetBrains Marketplace.
- Starten Sie die IDE neu.
Hinweis:
- Das JetBrains-Plugin kann bei großen Projekten einfrieren. Deaktivieren Sie den "Power Save Mode" unter
File > Power Save ModeQuelle: JetBrains-Einrichtung.
Neovim
Fügen Sie dies zu Ihrer lazy.nvim-Konfiguration hinzu:
{
"continuedev/continue.nvim",
config = function()
require("continue").setup({
-- Optional: Standardmodell hier konfigurieren
default_model = "ollama/codellama",
})
end,
}
Erwartete Ausgabe:
Führen Sie :Continue aus, um die Chat-Oberfläche zu öffnen Quelle: Neovim-Dokumentation.
2. Modellkonfiguration
Continue verwendet eine config.json-Datei (unter ~/.continue/config.json). So richten Sie gängige Modelle ein:
OpenAI (GPT-4)
{
"models": [
{
"title": "GPT-4",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "IHR_API_SCHLÜSSEL"
}
]
}
Wo Sie den API-Schlüssel erhalten:
Anthropic (Claude 3)
{
"models": [
{
"title": "Claude 3",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "IHR_API_SCHLÜSSEL"
}
]
}
Hinweis:
- Anthropics kostenlose Version hat strenge Ratenlimits (50 Nachrichten/Monat) Quelle: Continue-Dokumentation.
Ollama (Lokale LLMs)
- Installieren Sie Ollama:
curl -fsSL https://ollama.com/install.sh | sh ollama pull codellama - Konfigurieren Sie in
config.json:{ "models": [ { "title": "CodeLlama", "provider": "ollama", "model": "codellama" } ] }
Erwartete Ausgabe:
$ ollama run codellama
>>> Hello
Hello! Wie kann ich Ihnen heute helfen?
LM Studio (Lokale Modelle)
- Laden Sie LM Studio von lmstudio.ai herunter.
- Laden Sie ein Modell (z. B.
mistral-7b-instruct). - Konfigurieren Sie in
config.json:{ "models": [ { "title": "Mistral", "provider": "lmstudio", "model": "mistral-7b-instruct", "apiBase": "http://localhost:1234/v1" } ] }
3. Einrichtung der Tab-Autovervollständigung
Aktivieren Sie die Autovervollständigung in config.json:
{
"tabAutocompleteModel": {
"title": "Tab Autocomplete",
"provider": "ollama",
"model": "starcoder2:3b"
},
"tabAutocompleteOptions": {
"maxPromptTokens": 2048,
"debounceDelay": 500
}
}
Anwendung:
- Beginnen Sie, Code zu schreiben (z. B.
def hello_world():). - Drücken Sie
Tab, um Vorschläge zu übernehmen Quelle: Demo.
Hinweis:
- Die Autovervollständigung kann bei großen Dateien (>1K Zeilen) verzögert reagieren. Reduzieren Sie
maxPromptTokensauf 1024 Quelle: Leistungstipps.
4. Chat und Inline-Bearbeitung
Grundlegender Chat
- Öffnen Sie die Continue-Seitenleiste (🔄).
- Stellen Sie eine Frage:
Erklären Sie, wie diese React-Komponente funktioniert. - Markieren Sie Code und klicken Sie auf "Ask Continue" im Kontextmenü Quelle: Chat-Dokumentation.
Inline-Bearbeitung mit /edit
- Markieren Sie Code und geben Sie
/editin den Chat ein. - Beschreiben Sie die Änderung:
Refaktorieren Sie diese Funktion, um async/await zu verwenden. - Drücken Sie
Enter, um die Bearbeitung anzuwenden.
Beispiel:
// Vorher
function fetchData() {
return fetch("/api/data").then(res => res.json());
}
// Nachher (Inline-Bearbeitung)
async function fetchData() {
const res = await fetch("/api/data");
return res.json();
}
5. Kontextanbieter
Kontextanbieter ermöglichen es Ihnen, Dateien, Dokumentationen oder ganze Codebasen im Chat zu referenzieren.
@file
Referenzieren Sie eine bestimmte Datei:
@file src/utils/helpers.js Erklären Sie diese Datei.
@docs
Binden Sie Dokumentationen ein (z. B. internes Wiki):
{
"contextProviders": [
{
"name": "docs",
"params": {
"url": "https://your-company.github.io/docs"
}
}
]
}
Anwendung:
@docs Wie handhaben wir die Authentifizierung?
@codebase
Indizieren Sie die gesamte Codebasis (erfordert continue-index):
npm install -g @continuedev/continue-index
continue-index --path ./my-project
Anwendung:
@codebase Wo ist das User-Modell definiert?
Hinweis:
- Die Indizierung mit
@codebasekann bei großen Projekten (>50K Dateien) Minuten dauern. Nutzen Sie.continueignore, um Verzeichnisse auszuschließen Quelle: Kontext-Dokumentation.
6. Benutzerdefinierte Slash-Befehle
Definieren Sie benutzerdefinierte Befehle in config.json:
{
"customCommands": [
{
"name": "generate-docs",
"description": "Generieren Sie JSDoc für eine Funktion",
"prompt": "Schreiben Sie JSDoc für diese Funktion:\n\n{{selectedCode}}",
"slashCommand": "/docs"
}
]
}
Anwendung:
- Markieren Sie eine Funktion.
- Geben Sie
/docsin den Chat ein Quelle: Befehlsliste.
Beispielausgabe:
/**
* Ruft Daten von der API ab.
* @async
* @returns {Promise<Object>} Die JSON-Antwort von der API.
*/
async function fetchData() { ... }
7. config.json im Detail
Hier ist ein vollständiges Beispiel mit Enterprise-Funktionen (SSO, Agents):
{
"models": [
{
"title": "GPT-4 (Enterprise)",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}",
"apiBase": "https://api.openai.com/v1"
},
{
"title": "Ollama (Lokal)",
"provider": "ollama",
"model": "codellama"
}
],
"tabAutocompleteModel": {
"title": "Starcoder2",
"provider": "ollama",
"model": "starcoder2:3b"
},
"contextProviders": [
{
"name": "docs",
"params": {
"url": "https://your-company.github.io/docs"
}
}
],
"customCommands": [
{
"name": "generate-tests",
"description": "Schreiben Sie Unit-Tests für diese Funktion",
"prompt": "Schreiben Sie Jest-Tests für:\n\n{{selectedCode}}",
"slashCommand": "/test"
}
],
"enterprise": {
"ssoProvider": "okta",
"ssoDomain": "your-company.okta.com",
"auditLogs": true
},
"agents": [
{
"name": "refactor-agent",
"description": "Refaktorieren Sie Code und aktualisieren Sie alle Referenzen",
"steps": [
{
"name": "identify-changes",
"prompt": "Listen Sie alle Dateien auf, die für diese Refaktorierung aktualisiert werden müssen:\n\n{{selectedCode}}"
},
{
"name": "apply-changes",
"prompt": "Aktualisieren Sie die folgenden Dateien:\n\n{{step1Output}}"
}
]
}
]
}
Wichtige Felder:
| Feld | Zweck |
|---|---|
models | Liste der LLMs (lokal/Cloud) Quelle: Modell-Einrichtung. |
tabAutocomplete | Konfiguration der Tab-Vorschläge Quelle: Demo. |
contextProviders | Hinzufügen von @file, @docs, @codebase Quelle: Kontext-Dokumentation. |
customCommands | Definieren von /slash-Befehlen Quelle: Befehlsliste. |
enterprise | SSO, Audit-Logs (Pro/Enterprise) Quelle: Enterprise-Leitfaden. |
agents | Mehrstufige Workflows (ab v0.9.0+) Quelle: Agents-Dokumentation. |
Vergleich mit Alternativen
| Funktion | Continue | GitHub Copilot | Cursor |
|---|---|---|---|
| Open Source | ✅ Ja Quelle: GitHub Releases | ❌ Nein Quelle: CodeWhisperer-Dokumentation | ❌ Nein Quelle: Cursor-Vergleich |
| Lokale LLMs | ✅ (Ollama, LM Studio) Quelle: Modell-Einrichtung | ❌ (Nur Cloud) Quelle: Continue vs. Copilot | ✅ (über Continue) Quelle: Cursor-Vergleich |
| Agentic Workflows | ✅ (ab v0.9.0+) Quelle: Agents-Dokumentation | ❌ (Eingeschränkt) Quelle: Continue vs. Copilot | ❌ (Grundlegend) Quelle: Cursor-Vergleich |
| Enterprise-SSO | ✅ (ab v0.9.5+) Quelle: Enterprise-Leitfaden | ✅ Quelle: Continue vs. Copilot | ❌ Quelle: Cursor-Vergleich |
| Preisgestaltung | Kostenlos + $20/Nutzer/Monat Quelle: Preisseite | $10–$20/Nutzer/Monat Quelle: Continue vs. Copilot |
