En bref
- Installez Continue dans VS Code (
code --install-extension continue.continue) ou JetBrains (via la marketplace) Source : VS Code Marketplace Source : JetBrains Marketplace - Configurez les modèles dans
~/.continue/config.json(OpenAI, Anthropic, Ollama ou LLMs locaux) Source : Configuration des Modèles - Utilisez l'autocomplétion par tabulation, les commandes slash (
/edit,/test) et les fournisseurs de contexte (@file,@codebase) Source : Liste des Commandes Source : Documentation du Contexte - Personnalisez les workflows avec les agents (v0.9.0+) et le SSO d'entreprise (v0.9.5+) Source : Documentation des Agents Source : Guide Entreprise
- Le niveau gratuit inclut les LLMs locaux ; le niveau Pro (20 $/utilisateur/mois) débloque le chat cloud illimité Source : Page Tarifs
1. Installation
VS Code / Cursor
# Installation via CLI
code --install-extension continue.continue
Résultat attendu : Une nouvelle icône de barre latérale (🔄) apparaît. Cliquez dessus pour ouvrir le panneau Continue.
Point d'attention :
- Si l'extension ne se charge pas, assurez-vous d'utiliser VS Code ≥1.80 Source : Guide Officiel.
- Redémarrez VS Code après l'installation.
JetBrains (IntelliJ, PyCharm, etc.)
- Ouvrez Settings > Plugins.
- Recherchez "Continue" et installez Source : JetBrains Marketplace.
- Redémarrez l'IDE.
Point d'attention :
- Le plugin JetBrains peut se figer sur les grands projets. Désactivez le "Power Save Mode" dans
File > Power Save ModeSource : Configuration JetBrains.
Neovim
Ajoutez à votre configuration lazy.nvim :
{
"continuedev/continue.nvim",
config = function()
require("continue").setup({
-- Optionnel : Configurer le modèle par défaut ici
default_model = "ollama/codellama",
})
end,
}
Résultat attendu :
Exécutez :Continue pour ouvrir l'interface de chat Source : Documentation Neovim.
2. Configuration des Modèles
Continue utilise un fichier config.json (situé à ~/.continue/config.json). Voici comment configurer les modèles courants :
OpenAI (GPT-4)
{
"models": [
{
"title": "GPT-4",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "VOTRE_CLÉ_API"
}
]
}
Où obtenir la clé API :
Anthropic (Claude 3)
{
"models": [
{
"title": "Claude 3",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "VOTRE_CLÉ_API"
}
]
}
Point d'attention :
- Le niveau gratuit d'Anthropic a des limites strictes de débit (50 messages/mois) Source : Documentation Continue.
Ollama (LLMs locaux)
- Installez Ollama :
curl -fsSL https://ollama.com/install.sh | sh ollama pull codellama - Configurez dans
config.json:{ "models": [ { "title": "CodeLlama", "provider": "ollama", "model": "codellama" } ] }
Résultat attendu :
$ ollama run codellama
>>> Bonjour
Bonjour ! Comment puis-je vous aider aujourd'hui ?
LM Studio (Modèles locaux)
- Téléchargez LM Studio depuis lmstudio.ai.
- Chargez un modèle (par exemple,
mistral-7b-instruct). - Configurez dans
config.json:{ "models": [ { "title": "Mistral", "provider": "lmstudio", "model": "mistral-7b-instruct", "apiBase": "http://localhost:1234/v1" } ] }
3. Configuration de l'Autocomplétion par Tabulation
Activez l'autocomplétion dans config.json :
{
"tabAutocompleteModel": {
"title": "Tab Autocomplete",
"provider": "ollama",
"model": "starcoder2:3b"
},
"tabAutocompleteOptions": {
"maxPromptTokens": 2048,
"debounceDelay": 500
}
}
Comment l'utiliser :
- Commencez à taper du code (par exemple,
def hello_world():). - Appuyez sur
Tabpour accepter les suggestions Source : Démonstration.
Point d'attention :
- L'autocomplétion peut ralentir sur les grands fichiers (>1K lignes). Réduisez
maxPromptTokensà 1024 Source : Conseils de Performance.
4. Chat et Édition Inline
Chat de Base
- Ouvrez la barre latérale Continue (🔄).
- Posez une question :
Expliquez comment fonctionne ce composant React. - Sélectionnez du code et cliquez sur "Ask Continue" dans le menu contextuel Source : Documentation du Chat.
Édition Inline avec /edit
- Sélectionnez du code et tapez
/editdans le chat. - Décrivez la modification :
Refactorisez cette fonction pour utiliser async/await. - Appuyez sur
Entréepour appliquer l'édition.
Exemple :
// Avant
function fetchData() {
return fetch("/api/data").then(res => res.json());
}
// Après (édition inline)
async function fetchData() {
const res = await fetch("/api/data");
return res.json();
}
5. Fournisseurs de Contexte
Les fournisseurs de contexte vous permettent de référencer des fichiers, de la documentation ou des bases de code entières dans le chat.
@file
Référencez un fichier spécifique :
@file src/utils/helpers.js Expliquez ce fichier.
@docs
Intégrez de la documentation (par exemple, un wiki interne) :
{
"contextProviders": [
{
"name": "docs",
"params": {
"url": "https://your-company.github.io/docs"
}
}
]
}
Utilisation :
@docs Comment gérons-nous l'authentification ?
@codebase
Indexez l'ensemble de la base de code (nécessite continue-index) :
npm install -g @continuedev/continue-index
continue-index --path ./my-project
Utilisation :
@codebase Où est défini le modèle utilisateur ?
Point d'attention :
- L'indexation
@codebasepeut prendre plusieurs minutes pour les grands projets (>50K fichiers). Utilisez.continueignorepour exclure des répertoires Source : Documentation du Contexte.
6. Commandes Slash Personnalisées
Définissez des commandes personnalisées dans config.json :
{
"customCommands": [
{
"name": "generate-docs",
"description": "Générer la JSDoc pour une fonction",
"prompt": "Écrivez la JSDoc pour cette fonction :\n\n{{selectedCode}}",
"slashCommand": "/docs"
}
]
}
Utilisation :
- Sélectionnez une fonction.
- Tapez
/docsdans le chat Source : Liste des Commandes.
Exemple de Sortie :
/**
* Récupère des données depuis l'API.
* @async
* @returns {Promise<Object>} La réponse JSON de l'API.
*/
async function fetchData() { ... }
7. Approfondissement de config.json
Voici un exemple complet avec des fonctionnalités d'entreprise (SSO, agents) :
{
"models": [
{
"title": "GPT-4 (Enterprise)",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}",
"apiBase": "https://api.openai.com/v1"
},
{
"title": "Ollama (Local)",
"provider": "ollama",
"model": "codellama"
}
],
"tabAutocompleteModel": {
"title": "Starcoder2",
"provider": "ollama",
"model": "starcoder2:3b"
},
"contextProviders": [
{
"name": "docs",
"params": {
"url": "https://your-company.github.io/docs"
}
}
],
"customCommands": [
{
"name": "generate-tests",
"description": "Écrire des tests unitaires pour cette fonction",
"prompt": "Écrivez des tests Jest pour :\n\n{{selectedCode}}",
"slashCommand": "/test"
}
],
"enterprise": {
"ssoProvider": "okta",
"ssoDomain": "your-company.okta.com",
"auditLogs": true
},
"agents": [
{
"name": "refactor-agent",
"description": "Refactoriser le code et mettre à jour toutes les références",
"steps": [
{
"name": "identify-changes",
"prompt": "Listez tous les fichiers qui nécessitent des mises à jour pour cette refactorisation :\n\n{{selectedCode}}"
},
{
"name": "apply-changes",
"prompt": "Mettez à jour les fichiers suivants :\n\n{{step1Output}}"
}
]
}
]
}
Champs Clés :
| Champ | Objectif |
|---|---|
models | Liste des LLMs (locaux/cloud) Source : Configuration des Modèles. |
tabAutocomplete | Configurer les suggestions par tabulation Source : Démonstration. |
contextProviders | Ajouter @file, @docs, @codebase Source : Documentation du Contexte. |
customCommands | Définir des commandes /slash Source : Liste des Commandes. |
enterprise | SSO, journaux d'audit (Pro/Entreprise) Source : Guide Entreprise. |
agents | Workflows multi-étapes (v0.9.0+) Source : Documentation des Agents. |
Comparaison avec les Alternatives
| Fonctionnalité | Continue | GitHub Copilot | Cursor |
|---|---|---|---|
| Open Source | ✅ Oui Source : GitHub Releases | ❌ Non Source : Documentation CodeWhisperer | ❌ Non Source : Comparaison Cursor |
| LLMs Locaux | ✅ (Ollama, LM Studio) Source : Configuration des Modèles | ❌ (Cloud uniquement) Source : Continue vs. Copilot | ✅ (via Continue) Source : Comparaison Cursor |
| Workflows Agentic | ✅ (v0.9.0+) Source : Documentation des Agents | ❌ (Limité) Source : Continue vs. Copilot | ❌ (Basique) Source : Comparaison Cursor |
| SSO Entreprise | ✅ (v0.9.5+) Source : Guide Entreprise | ✅ Source : Continue vs. Copilot | ❌ Source : Comparaison Cursor |
| Tarification | Gratuit + 20 $/utilisateur/mois Source : Page Tarifs | 10–20 $/utilisateur/mois [Source : Comparaison Continue] |
