TL;DR
- Installez Continue dans VS Code ou JetBrains en 2 minutes via la marketplace
- Connectez-vous à OpenAI, Anthropic ou Ollama (local) dans
config.json - Utilisez l'autocomplétion par tabulation et le chat pour la génération/modification de code
- Personnalisez avec les commandes slash (ex.
/explain,/test) et les fournisseurs de contexte (@file,@docs) - Pour les entreprises ? Activez SSO, les journaux d'audit et l'auto-hébergement pour la conformité
1. Installation
VS Code
- Ouvrez VS Code.
- Appuyez sur
Ctrl+Maj+X(Windows/Linux) ouCmd+Maj+X(Mac) pour ouvrir Extensions. - Recherchez
Continueet cliquez sur Installer.- Résultat attendu : une icône apparaît dans la barre latérale (émoji fusée).
- Vérification :
code --list-extensions | grep continue # Sortie : continue.continue
JetBrains (IntelliJ, PyCharm, etc.)
- Ouvrez Paramètres (
Ctrl+Alt+S/Cmd+,). - Accédez à Plugins > Marketplace.
- Recherchez
Continueet cliquez sur Installer. - Redémarrez l'IDE.
- Résultat attendu : le panneau Continue apparaît dans la barre latérale droite.
Attention : Sous Windows, assurez-vous que WSL2 est installé si vous utilisez des modèles locaux :
wsl --install
2. Configuration des Modèles
Modifiez ~/.continue/config.json (créé automatiquement au premier lancement). Voici un modèle prêt pour la production :
{
"models": [
{
"title": "OpenAI GPT-4 Turbo",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}"
},
{
"title": "Anthropic Claude 3 Opus",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "${ANTHROPIC_API_KEY}"
},
{
"title": "Local Ollama (Llama3)",
"provider": "ollama",
"model": "llama3"
}
],
"tabAutocompleteModel": {
"title": "Local Ollama (CodeLlama)",
"provider": "ollama",
"model": "codellama"
}
}
Champs clés :
apiKey: Utilisez${VAR_ENV}pour la sécurité (définissez dans.bashrc/~/.zshrc).tabAutocompleteModel: Modèle séparé pour des complétions plus rapides.
Vérification des modèles :
- Ouvrez la barre latérale Continue.
- Cliquez sur le menu déroulant des modèles (en haut à droite).
- Résultat attendu : tous les modèles configurés apparaissent.
Erreurs courantes :
- 401 Unauthorized : Vérifiez les clés API (
echo $OPENAI_API_KEY). - Ollama introuvable : Installez Ollama d'abord :
curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3
3. Configuration de l'Autocomplétion par Tabulation
Activez dans config.json :
{
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama CodeLlama",
"provider": "ollama",
"model": "codellama"
}
}
Testez :
- Ouvrez un fichier Python.
- Tapez
def hello_world(et appuyez surTab.- Résultat attendu : Continue suggère un corps de fonction.
Conseil pro : Pour des complétions plus rapides, utilisez des modèles plus petits (ex. starcoder:1b).
4. Chat et Modification en Ligne
Interface de Chat
- Ouvrez la barre latérale Continue (
Ctrl+Maj+L/Cmd+Maj+L). - Saisissez une invite (ex. "Expliquez ce composant React").
- Résultat attendu : une réponse en streaming avec des extraits de code.
Modification en ligne :
- Sélectionnez du code.
- Appuyez sur
Cmd+I(Mac) /Ctrl+I(Windows/Linux). - Saisissez une instruction (ex. "Ajoutez la gestion des erreurs").
- Résultat attendu : le code est mis à jour directement.
Cadre de Posture de Sécurité IA (Phase DÉTECTER) :
- Activez les journaux d'audit dans
config.jsonpour suivre les interactions avec les LLM :{ "auditLogEnabled": true, "auditLogPath": "/var/log/continue/audit.log" }- Les journaux incluent : horodatages, identifiants utilisateurs et entrées/sorties des modèles.
5. Fournisseurs de Contexte
Utilisez les symboles @ pour référencer du contexte dans le chat :
| Fournisseur | Exemple d'utilisation | Description |
|---|---|---|
@file | @file src/utils.js | Inclut le contenu du fichier. |
@docs | @docs https://react.dev | Récupère la documentation. |
@codebase | @codebase | Indexe l'ensemble du projet (Pro/Entreprise). |
@terminal | @terminal ls -la | Exécute des commandes shell. |
Exemple :
@file src/api.ts
Refactorisez ceci pour utiliser async/await au lieu de callbacks.
Attention : @codebase nécessite une licence Pro/Entreprise pour les grands projets.
6. Commandes Slash Personnalisées
Définissez des commandes réutilisables dans config.json :
{
"customCommands": [
{
"name": "explain",
"prompt": "Expliquez le code suivant en termes simples :\n{{code}}",
"description": "Expliquer le code sélectionné"
},
{
"name": "test",
"prompt": "Écrivez des tests unitaires pour :\n{{code}}\n\nUtilisez Jest pour JavaScript ou pytest pour Python.",
"description": "Générer des tests"
}
]
}
Utilisation :
- Sélectionnez du code.
- Tapez
/explaindans le chat.- Résultat attendu : une explication en langage clair.
Cadre de Posture de Sécurité IA™ (Phase PROTÉGER) :
- Restreignez les commandes via le contrôle d'accès basé sur les rôles (Entreprise) :
{ "enterprise": { "allowedCommands": ["explain", "test"], "blockedCommands": ["delete", "exec"] } }
7. Approfondissement de config.json
Exemple Complet pour Entreprise
{
"models": [
{
"title": "Azure OpenAI GPT-4",
"provider": "openai",
"model": "gpt-4",
"apiBase": "https://your-azure-endpoint.openai.azure.com",
"apiKey": "${AZURE_OPENAI_KEY}",
"apiVersion": "2024-02-15-preview"
}
],
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama DeepSeek Coder",
"provider": "ollama",
"model": "deepseek-coder:6.7b"
},
"customCommands": [
{
"name": "audit",
"prompt": "Audit ce code pour détecter les vulnérabilités de sécurité :\n{{code}}\n\nSuivez les directives OWASP Top 10.",
"description": "Audit de sécurité"
}
],
"enterprise": {
"ssoProvider": "okta",
"auditLogEnabled": true,
"allowedModels": ["gpt-4", "claude-3-opus"]
},
"contextProviders": [
{
"name": "docs",
"params": {
"maxTokens": 4096
}
}
]
}
Fonctionnalités clés pour les entreprises :
- Intégration SSO : Okta/SAML pour l'authentification.
- Liste blanche des modèles : Restreindre aux modèles approuvés.
- Journaux d'audit : Journalisation prête pour la conformité (Cadre de Posture de Sécurité IA™ Phase SE CONFORMER).
Comparaison des Alternatives
| Outil | Meilleur pour | Faiblesses | Coût (2026) |
|---|---|---|---|
| Continue | Modèles locaux, personnalisation | Communauté plus petite | Gratuit–20 $/utilisateur/mois |
| GitHub Copilot | Intégration GitHub | Pas de modèles locaux, coûteux | 10–39 $/utilisateur/mois |
| Cursor | Utilisateurs avancés de VS Code | Pas d'auto-hébergement | Gratuit–20 $/utilisateur/mois |
Prochaines Étapes
- Benchmark des modèles : Comparez
gpt-4etclaude-3-opuspour votre cas d'usage.time continue --model gpt-4 --prompt "Écrivez une API Python Flask" time continue --model claude-3-opus --prompt "Écrivez une API Python Flask" - Configurer CI/CD : Ajoutez
config.jsonà votre dépôt et validez-le dans CI :npm install -g @continue/cli continue validate-config - Explorer l'auto-hébergement : Déployez Continue en local pour les environnements isolés :
docker run -p 3000:3000 -v ~/.continue:/root/.continue continuedev/continue
Besoin d'aide pour déployer Continue à grande échelle ? Hyperion Consulting propose des services de conseil en outils d'IA pour optimiser votre configuration en termes de sécurité, de coûts et de performance. Visitez hyperion-consulting.io pour en savoir plus.
