Zusammenfassung
- Installieren Sie Continue in VS Code oder JetBrains in 2 Minuten über den Marketplace
- Verbinden Sie sich mit OpenAI, Anthropic oder Ollama (lokal) in der
config.json - Nutzen Sie Tab-Autovervollständigung und Chat für Code-Generierung/-Bearbeitung
- Passen Sie mit Slash-Befehlen (z. B.
/explain,/test) und Kontextanbietern (@file,@docs) an - Für Unternehmen: Aktivieren Sie SSO, Audit-Logs und Self-Hosting für Compliance
1. Installation
VS Code
- Öffnen Sie VS Code.
- Drücken Sie
Strg+Umschalt+X(Windows/Linux) oderCmd+Umschalt+X(Mac), um die Erweiterungen zu öffnen. - Suchen Sie nach
Continueund klicken Sie auf Installieren.- Erwartet: Symbol in der Seitenleiste erscheint (Raketen-Emoji).
- Überprüfung:
code --list-extensions | grep continue # Ausgabe: continue.continue
JetBrains (IntelliJ, PyCharm, etc.)
- Öffnen Sie Einstellungen (
Strg+Alt+S/Cmd+,). - Navigieren Sie zu Plugins > Marketplace.
- Suchen Sie nach
Continueund klicken Sie auf Installieren. - Starten Sie die IDE neu.
- Erwartet: Continue-Panel erscheint in der rechten Seitenleiste.
Achtung: Stellen Sie unter Windows sicher, dass WSL2 installiert ist, wenn Sie lokale Modelle verwenden:
wsl --install
2. Modelle konfigurieren
Bearbeiten Sie ~/.continue/config.json (wird beim ersten Start automatisch erstellt). Hier ist eine produktionsreife Vorlage:
{
"models": [
{
"title": "OpenAI GPT-4 Turbo",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}"
},
{
"title": "Anthropic Claude 3 Opus",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "${ANTHROPIC_API_KEY}"
},
{
"title": "Local Ollama (Llama3)",
"provider": "ollama",
"model": "llama3"
}
],
"tabAutocompleteModel": {
"title": "Local Ollama (CodeLlama)",
"provider": "ollama",
"model": "codellama"
}
}
Wichtige Felder:
apiKey: Verwenden Sie${ENV_VAR}aus Sicherheitsgründen (setzen Sie diese in.bashrc/~/.zshrc).tabAutocompleteModel: Separates Modell für schnellere Vervollständigungen.
Modelle überprüfen:
- Öffnen Sie die Continue-Seitenleiste.
- Klicken Sie auf das Modell-Dropdown-Menü (oben rechts).
- Erwartet: Alle konfigurierten Modelle werden angezeigt.
Häufige Fehler:
- 401 Unauthorized: Überprüfen Sie die API-Schlüssel (
echo $OPENAI_API_KEY). - Ollama nicht gefunden: Installieren Sie Ollama zuerst:
curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3
3. Tab-Autovervollständigung einrichten
Aktivieren Sie diese in der config.json:
{
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama CodeLlama",
"provider": "ollama",
"model": "codellama"
}
}
Testen Sie es:
- Öffnen Sie eine Python-Datei.
- Geben Sie
def hello_world(ein und drücken SieTab.- Erwartet: Continue schlägt einen Funktionskörper vor.
Professioneller Tipp: Verwenden Sie kleinere Modelle (z. B. starcoder:1b) für schnellere Vervollständigungen.
4. Chat und Inline-Bearbeitung
Chat-Schnittstelle
- Öffnen Sie die Continue-Seitenleiste (
Strg+Umschalt+L/Cmd+Umschalt+L). - Geben Sie eine Aufforderung ein (z. B. "Erklären Sie diese React-Komponente").
- Erwartet: Streaming-Antwort mit Code-Snippets.
Inline-Bearbeitung:
- Markieren Sie Code.
- Drücken Sie
Cmd+I(Mac) /Strg+I(Windows/Linux). - Geben Sie eine Anweisung ein (z. B. "Fehlerbehandlung hinzufügen").
- Erwartet: Code wird direkt aktualisiert.
AI-Sicherheitsrahmenwerk (DETECT-Phase):
- Aktivieren Sie Audit-Logs in der
config.json, um LLM-Interaktionen zu verfolgen:{ "auditLogEnabled": true, "auditLogPath": "/var/log/continue/audit.log" }- Protokolle enthalten: Zeitstempel, Benutzer-IDs und Modell-Eingaben/Ausgaben.
5. Kontextanbieter
Verwenden Sie @-Symbole, um im Chat auf Kontext zu verweisen:
| Anbieter | Beispielverwendung | Beschreibung |
|---|---|---|
@file | @file src/utils.js | Dateiinhalte einbeziehen. |
@docs | @docs https://react.dev | Dokumentation abrufen. |
@codebase | @codebase | Gesamtes Projekt indizieren (Pro/Enterprise). |
@terminal | @terminal ls -la | Shell-Befehle ausführen. |
Beispiel:
@file src/api.ts
Refaktorieren Sie dies, um async/await anstelle von Callbacks zu verwenden.
Achtung: @codebase erfordert Pro/Enterprise für große Projekte.
6. Benutzerdefinierte Slash-Befehle
Definieren Sie wiederverwendbare Befehle in der config.json:
{
"customCommands": [
{
"name": "explain",
"prompt": "Erklären Sie den folgenden Code in einfachen Worten:\n{{code}}",
"description": "Ausgewählten Code erklären"
},
{
"name": "test",
"prompt": "Schreiben Sie Unit-Tests für:\n{{code}}\n\nVerwenden Sie Jest für JavaScript oder pytest für Python.",
"description": "Tests generieren"
}
]
}
Verwendung:
- Markieren Sie Code.
- Geben Sie
/explainim Chat ein.- Erwartet: Erklärung in einfacher Sprache.
AI-Sicherheitsrahmenwerk (PROTECT-Phase):
- Beschränken Sie Befehle über rollenbasierte Zugriffskontrolle (Enterprise):
{ "enterprise": { "allowedCommands": ["explain", "test"], "blockedCommands": ["delete", "exec"] } }
7. config.json im Detail
Vollständiges Enterprise-Beispiel
{
"models": [
{
"title": "Azure OpenAI GPT-4",
"provider": "openai",
"model": "gpt-4",
"apiBase": "https://your-azure-endpoint.openai.azure.com",
"apiKey": "${AZURE_OPENAI_KEY}",
"apiVersion": "2024-02-15-preview"
}
],
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama DeepSeek Coder",
"provider": "ollama",
"model": "deepseek-coder:6.7b"
},
"customCommands": [
{
"name": "audit",
"prompt": "Prüfen Sie diesen Code auf Sicherheitslücken:\n{{code}}\n\nFolgen Sie den OWASP Top 10 Richtlinien.",
"description": "Sicherheitsaudit"
}
],
"enterprise": {
"ssoProvider": "okta",
"auditLogEnabled": true,
"allowedModels": ["gpt-4", "claude-3-opus"]
},
"contextProviders": [
{
"name": "docs",
"params": {
"maxTokens": 4096
}
}
]
}
Wichtige Enterprise-Funktionen:
- SSO-Integration: Okta/SAML für die Authentifizierung.
- Modell-Whitelisting: Beschränkung auf genehmigte Modelle.
- Audit-Logs: Compliance-fähige Protokollierung (AI-Sicherheitsrahmenwerk COMPLY-Phase).
Vergleich von Alternativen
| Tool | Am besten geeignet für | Schwächen | Kosten (2026) |
|---|---|---|---|
| Continue | Lokale Modelle, Anpassung | Kleinere Community | Kostenlos–20 $/Benutzer/Monat |
| GitHub Copilot | GitHub-Integration | Keine lokalen Modelle, teuer | 10–39 $/Benutzer/Monat |
| Cursor | VS Code-Power-User | Kein Self-Hosting | Kostenlos–20 $/Benutzer/Monat |
Nächste Schritte
- Modelle benchmarken: Vergleichen Sie
gpt-4mitclaude-3-opusfür Ihren Anwendungsfall.time continue --model gpt-4 --prompt "Schreiben Sie eine Python Flask-API" time continue --model claude-3-opus --prompt "Schreiben Sie eine Python Flask-API" - CI/CD einrichten: Fügen Sie
config.jsonzu Ihrem Repository hinzu und validieren Sie sie in CI:npm install -g @continue/cli continue validate-config - Self-Hosting erkunden: Stellen Sie Continue On-Premise für Air-Gapped-Umgebungen bereit:
docker run -p 3000:3000 -v ~/.continue:/root/.continue continuedev/continue
Benötigen Sie Unterstützung bei der Skalierung von Continue? Hyperion Consulting bietet Beratung zu KI-Tools an, um Ihre Einrichtung für Sicherheit, Kosten und Leistung zu optimieren. Besuchen Sie hyperion-consulting.io, um mehr zu erfahren.
