ملخص سريع
- قم بتثبيت Continue في VS Code أو JetBrains خلال دقيقتين عبر المتجر
- اتصل بـ OpenAI أو Anthropic أو Ollama (محلي) في ملف
config.json - استخدم الإكمال التلقائي بالتبويب والدردشة لتوليد وتعديل الأكواد
- قم بالتخصيص باستخدام أوامر مائلة (مثل
/explain،/test) وموفري السياق (@file،@docs) - للمؤسسات؟ فعّل SSO، وسجلات التدقيق، والاستضافة الذاتية للامتثال
1. التثبيت
VS Code
- افتح VS Code.
- اضغط
Ctrl+Shift+X(ويندوز/لينكس) أوCmd+Shift+X(ماك) لفتح الإضافات. - ابحث عن
Continueوانقر على تثبيت.- المتوقع: ظهور أيقونة الشريط الجانبي (رمز صاروخ).
- التحقق:
code --list-extensions | grep continue # الناتج: continue.continue
JetBrains (IntelliJ، PyCharm، إلخ)
- افتح الإعدادات (
Ctrl+Alt+S/Cmd+,). - انتقل إلى الإضافات > المتجر.
- ابحث عن
Continueوانقر على تثبيت. - أعد تشغيل بيئة التطوير المتكاملة.
- المتوقع: ظهور لوحة Continue في الشريط الجانبي الأيمن.
ملاحظة هامة: على ويندوز، تأكد من تثبيت WSL2 إذا كنت تستخدم النماذج المحلية:
wsl --install
2. تكوين النماذج
حرر ملف ~/.continue/config.json (يتم إنشاؤه تلقائياً عند أول تشغيل). إليك قالب جاهز للإنتاج:
{
"models": [
{
"title": "OpenAI GPT-4 Turbo",
"provider": "openai",
"model": "gpt-4-turbo",
"apiKey": "${OPENAI_API_KEY}"
},
{
"title": "Anthropic Claude 3 Opus",
"provider": "anthropic",
"model": "claude-3-opus-20240229",
"apiKey": "${ANTHROPIC_API_KEY}"
},
{
"title": "Local Ollama (Llama3)",
"provider": "ollama",
"model": "llama3"
}
],
"tabAutocompleteModel": {
"title": "Local Ollama (CodeLlama)",
"provider": "ollama",
"model": "codellama"
}
}
الحقول الرئيسية:
apiKey: استخدم${ENV_VAR}لأسباب أمنية (قم بتعيينها في.bashrc/~/.zshrc).tabAutocompleteModel: نموذج منفصل لإكمالات أسرع.
التحقق من النماذج:
- افتح الشريط الجانبي لـ Continue.
- انقر على قائمة النماذج المنسدلة (أعلى اليمين).
- المتوقع: ظهور جميع النماذج المُكوّنة.
الأخطاء الشائعة:
- 401 Unauthorized: تحقق من مفاتيح API (
echo $OPENAI_API_KEY). - Ollama غير موجود: قم بتثبيت Ollama أولاً:
curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3
3. إعداد الإكمال التلقائي بالتبويب
فعّله في config.json:
{
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama CodeLlama",
"provider": "ollama",
"model": "codellama"
}
}
اختبره:
- افتح ملف بايثون.
- اكتب
def hello_world(واضغطTab.- المتوقع: يقترح Continue جسم الدالة.
نصيحة احترافية: استخدم نماذج أصغر (مثل starcoder:1b) للحصول على إكمالات أسرع.
4. الدردشة والتعديل المضمن
واجهة الدردشة
- افتح الشريط الجانبي لـ Continue (
Ctrl+Shift+L/Cmd+Shift+L). - اكتب طلباً (مثل "اشرح هذا المكون في React").
- المتوقع: استجابة متدفقة مع مقتطفات الأكواد.
التعديل المضمن:
- قم بتمييز الكود.
- اضغط
Cmd+I(ماك) /Ctrl+I(ويندوز/لينكس). - اكتب تعليمات (مثل "أضف معالجة الأخطاء").
- المتوقع: تحديث الكود في مكانه.
إطار وضع أمن الذكاء الاصطناعي (مرحلة الكشف):
- فعّل سجلات التدقيق في
config.jsonلتتبع تفاعلات LLM:{ "auditLogEnabled": true, "auditLogPath": "/var/log/continue/audit.log" }- تشمل السجلات: الطوابع الزمنية، معرفات المستخدمين، ومدخلات/مخرجات النماذج.
5. موفرو السياق
استخدم رموز @ للإشارة إلى السياق في الدردشة:
| المزود | مثال الاستخدام | الوصف |
|---|---|---|
@file | @file src/utils.js | تضمين محتويات الملف. |
@docs | @docs https://react.dev | جلب الوثائق. |
@codebase | @codebase | فهرسة المشروع بالكامل (Pro/Enterprise). |
@terminal | @terminal ls -la | تشغيل أوامر الشل. |
مثال:
@file src/api.ts
أعد هيكلة هذا لاستخدام async/await بدلاً منCallbacks.
ملاحظة هامة: يتطلب @codebase الإصدار Pro/Enterprise للمشاريع الكبيرة.
6. الأوامر المائلة المخصصة
حدد الأوامر القابلة لإعادة الاستخدام في config.json:
{
"customCommands": [
{
"name": "explain",
"prompt": "اشرح الكود التالي ببساطة:\n{{code}}",
"description": "شرح الكود المحدد"
},
{
"name": "test",
"prompt": "اكتب اختبارات وحدة للكود:\n{{code}}\n\nاستخدم Jest لجافاسكريبت أو pytest لبايثون.",
"description": "إنشاء اختبارات"
}
]
}
الاستخدام:
- قم بتمييز الكود.
- اكتب
/explainفي الدردشة.- المتوقع: شرح بلغة بسيطة.
إطار وضع أمن الذكاء الاصطناعي (مرحلة الحماية):
- قم بتقييد الأوامر عبر التحكم في الوصول بناءً على الأدوار (Enterprise):
{ "enterprise": { "allowedCommands": ["explain", "test"], "blockedCommands": ["delete", "exec"] } }
7. استكشاف متعمق لـ config.json
مثال كامل للمؤسسات
{
"models": [
{
"title": "Azure OpenAI GPT-4",
"provider": "openai",
"model": "gpt-4",
"apiBase": "https://your-azure-endpoint.openai.azure.com",
"apiKey": "${AZURE_OPENAI_KEY}",
"apiVersion": "2024-02-15-preview"
}
],
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"title": "Ollama DeepSeek Coder",
"provider": "ollama",
"model": "deepseek-coder:6.7b"
},
"customCommands": [
{
"name": "audit",
"prompt": "افحص هذا الكود بحثاً عن الثغرات الأمنية:\n{{code}}\n\nاتبع إرشادات OWASP Top 10.",
"description": "تدقيق أمني"
}
],
"enterprise": {
"ssoProvider": "okta",
"auditLogEnabled": true,
"allowedModels": ["gpt-4", "claude-3-opus"]
},
"contextProviders": [
{
"name": "docs",
"params": {
"maxTokens": 4096
}
}
]
}
الميزات الرئيسية للمؤسسات:
- تكامل SSO: Okta/SAML للمصادقة.
- القائمة البيضاء للنماذج: تقييد النماذج المعتمدة.
- سجلات التدقيق: تسجيل جاهز للامتثال (إطار وضع أمن الذكاء الاصطناعي مرحلة الامتثال).
مقارنة البدائل
| الأداة | الأفضل لـ | نقاط الضعف | التكلفة (2026) |
|---|---|---|---|
| Continue | النماذج المحلية، التخصيص | مجتمع أصغر | مجاني–20 دولار/مستخدم/شهر |
| GitHub Copilot | تكامل GitHub | لا نماذج محلية، مكلف | 10–39 دولار/مستخدم/شهر |
| Cursor | مستخدمو VS Code المحترفون | لا استضافة ذاتية | مجاني–20 دولار/مستخدم/شهر |
ما الخطوة التالية؟
- مقارنة النماذج: قارن بين
gpt-4وclaude-3-opusلحالة الاستخدام الخاصة بك.time continue --model gpt-4 --prompt "اكتب واجهة برمجة تطبيقات Python Flask" time continue --model claude-3-opus --prompt "اكتب واجهة برمجة تطبيقات Python Flask" - إعداد CI/CD: أضف
config.jsonإلى مستودعك وقم بالتحقق منه في CI:npm install -g @continue/cli continue validate-config - استكشف الاستضافة الذاتية: انشر Continue داخلياً للبيئات المعزولة:
docker run -p 3000:3000 -v ~/.continue:/root/.continue continuedev/continue
هل تحتاج إلى مساعدة في نشر Continue على نطاق واسع؟ تقدم Hyperion Consulting استشارات أدوات الذكاء الاصطناعي لتحسين إعدادك من حيث الأمان والتكلفة والأداء. قم بزيارة hyperion-consulting.io لمعرفة المزيد.
