TL;DR
- Installeer Continue in VS Code of JetBrains in 2 minuten via de marketplace
- Verbind met OpenAI, Anthropic of Ollama (lokaal) in
config.json - Gebruik tab-autocomplete en chat voor codegeneratie/bewerking
- Pas aan met slash-commando's (bijv.
/explain,/test) en contextproviders (@file,@docs) - Voor ondernemingen: activeer SSO, auditlogs en zelfhosting voor compliance
1. Installatie
VS Code
- Open VS Code.
- Druk op
Ctrl+Shift+X(Windows/Linux) ofCmd+Shift+X(Mac) om Extensies te openen. - Zoek naar
Continueen klik op Installeren.- Verwacht: Zijbalkpictogram verschijnt (raket-emoji).
- Verifiëren:
code --list-extensions | grep continue # Output: continue.continue
JetBrains (IntelliJ, PyCharm, etc.)
- Open Instellingen (
Ctrl+Alt+S/Cmd+,). - Navigeer naar Plugins > Marketplace.
- Zoek naar
Continueen klik op Installeren. - Herstart de IDE.
- Verwacht: Continue-paneel verschijnt in de rechterzijbalk.
Let op: Op Windows, zorg ervoor dat WSL2 is geïnstalleerd als u lokale modellen gebruikt:
wsl --install
2. Modellen configureren
Bewerk ~/.continue/config.json (automatisch aangemaakt bij eerste gebruik). Hier is een productieklaar sjabloon:
{
"models": [
{
"title": "OpenAI GPT-4 Turbo",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}"
},
{
"title": "Anthropic Claude 3 Opus",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "${ANTHROPIC_API_KEY}"
},
{
"title": "Local Ollama (Llama3)",
"provider": "ollama",
"model": "llama3"
}
],
"tabAutocompleteModel": {
"title": "Local Ollama (CodeLlama)",
"provider": "ollama",
"model": "codellama"
}
}
Belangrijke velden:
apiKey: Gebruik${OMGEVINGSVARIABELE}voor beveiliging (stel in in.bashrc/~/.zshrc).tabAutocompleteModel: Apart model voor snellere aanvullingen.
Modellen verifiëren:
- Open de Continue-zijbalk.
- Klik op het modeldropdownmenu (rechtsboven).
- Verwacht: Alle geconfigureerde modellen verschijnen.
Veelvoorkomende fouten:
- 401 Unauthorized: Controleer API-sleutels (
echo $OPENAI_API_KEY). - Ollama niet gevonden: Installeer Ollama eerst:
curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3
3. Tab-autocomplete instellen
Activeer in config.json:
{
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama CodeLlama",
"provider": "ollama",
"model": "codellama"
}
}
Testen:
- Open een Python-bestand.
- Typ
def hello_world(en druk opTab.- Verwacht: Continue suggereert een functiebody.
Professionele tip: Gebruik kleinere modellen (bijv. starcoder:1b) voor snellere aanvullingen.
4. Chat en inline bewerken
Chatinterface
- Open de Continue-zijbalk (
Ctrl+Shift+L/Cmd+Shift+L). - Typ een prompt (bijv. "Leg deze React-component uit").
- Verwacht: Streamend antwoord met codefragmenten.
Inline bewerken:
- Markeer code.
- Druk op
Cmd+I(Mac) /Ctrl+I(Windows/Linux). - Typ een instructie (bijv. "Voeg foutafhandeling toe").
- Verwacht: Code wordt ter plaatse bijgewerkt.
AI-beveiligingshouding Framework™ (DETECT-fase):
- Activeer auditlogs in
config.jsonom LLM-interacties bij te houden:{ "auditLogEnabled": true, "auditLogPath": "/var/log/continue/audit.log" }- Logs bevatten: tijdstempels, gebruikers-ID's en modelinvoer/uitvoer.
5. Contextproviders
Gebruik @-symbolen om context in de chat te verwijzen:
| Provider | Voorbeeldgebruik | Beschrijving |
|---|---|---|
@file | @file src/utils.js | Inhoud van bestand opnemen. |
@docs | @docs https://react.dev | Documentatie ophalen. |
@codebase | @codebase | Volledig project indexeren (Pro/Enterprise). |
@terminal | @terminal ls -la | Shell-opdrachten uitvoeren. |
Voorbeeld:
@file src/api.ts
Refactor dit om async/await te gebruiken in plaats van callbacks.
Let op: @codebase vereist Pro/Enterprise voor grote projecten.
6. Aangepaste slash-commando's
Definieer herbruikbare commando's in config.json:
{
"customCommands": [
{
"name": "explain",
"prompt": "Leg de volgende code in eenvoudige termen uit:\n{{code}}",
"description": "Leg geselecteerde code uit"
},
{
"name": "test",
"prompt": "Schrijf unit tests voor:\n{{code}}\n\nGebruik Jest voor JavaScript of pytest voor Python.",
"description": "Genereer tests"
}
]
}
Gebruik:
- Markeer code.
- Typ
/explainin de chat.- Verwacht: Uitleg in duidelijke taal.
AI-beveiligingshouding Framework™ (PROTECT-fase):
- Beperk commando's via op rollen gebaseerde toegangscontrole (Enterprise):
{ "enterprise": { "allowedCommands": ["explain", "test"], "blockedCommands": ["delete", "exec"] } }
7. config.json in detail
Volledig Enterprise-voorbeeld
{
"models": [
{
"title": "Azure OpenAI GPT-4",
"provider": "openai",
"model": "gpt-4",
"apiBase": "https://your-azure-endpoint.openai.azure.com",
"apiKey": "${AZURE_OPENAI_KEY}",
"apiVersion": "2024-02-15-preview"
}
],
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama DeepSeek Coder",
"provider": "ollama",
"model": "deepseek-coder:6.7b"
},
"customCommands": [
{
"name": "audit",
"prompt": "Controleer deze code op beveiligingskwetsbaarheden:\n{{code}}\n\nVolg OWASP Top 10-richtlijnen.",
"description": "Beveiligingsaudit"
}
],
"enterprise": {
"ssoProvider": "okta",
"auditLogEnabled": true,
"allowedModels": ["gpt-4", "claude-3-opus"]
},
"contextProviders": [
{
"name": "docs",
"params": {
"maxTokens": 4096
}
}
]
}
Belangrijke Enterprise-functies:
- SSO-integratie: Okta/SAML voor authenticatie.
- Modelwhitelisting: Beperk tot goedgekeurde modellen.
- Auditlogs: Compliance-klare logging (AI-beveiligingshouding Framework™ COMPLY-fase).
Vergelijking alternatieven
| Tool | Beste voor | Zwakke punten | Kosten (2026) |
|---|---|---|---|
| Continue | Lokale modellen, aanpassing | Kleinere community | Gratis–$20/gebruiker/maand |
| GitHub Copilot | GitHub-integratie | Geen lokale modellen, duur | $10–$39/gebruiker/maand |
| Cursor | VS Code-powergebruikers | Geen zelfhosting | Gratis–$20/gebruiker/maand |
Wat nu?
- Benchmark modellen: Vergelijk
gpt-4metclaude-3-opusvoor uw gebruiksscenario.time continue --model gpt-4 --prompt "Schrijf een Python Flask API" time continue --model claude-3-opus --prompt "Schrijf een Python Flask API" - CI/CD instellen: Voeg
config.jsontoe aan uw repository en valideer het in CI:npm install -g @continue/cli continue validate-config - Zelfhosting verkennen: Implementeer Continue on-premise voor omgevingen zonder internetverbinding:
docker run -p 3000:3000 -v ~/.continue:/root/.continue continuedev/continue
Hulp nodig bij het grootschalig implementeren van Continue? Hyperion Consulting biedt adviesdiensten voor AI-tools om uw setup te optimaliseren voor beveiliging, kosten en prestaties. Bezoek hyperion-consulting.io voor meer informatie.
