Ollama مراجعة
أداة بسيطة لتشغيل وإدارة النماذج المحلية تجعل تنزيل نماذج اللغة الكبيرة المحلية وتشغيلها أسهل بكثير مما لو قمت بكل شيء يدوياً.
89
RB
Runar BrøsteFounder & Editor
AI tools researcher and reviewerمُحدَث مارس ٢٠٢٦
مُحدَث هذا الأسبوعاختيار المحررخطة مجانية
الأفضل لـ
- المطورون الذين يريدون إعداداً سريعاً للنماذج المحلية
- الفرق التي تبني نماذج أولية لسير عمل الذكاء الاصطناعي الخاصة أو المحلية
- المستخدمون الذين يقدرون وجود واجهة برمجية محلية بسيطة
تجاوز هذا إذا…
- الأشخاص الذين يتوقعون أفضل ضوابط ضبط الأداء
- الشركات التي تحتاج إلى حوكمة مركزية كاملة من اليوم الأول
- المستخدمون الذين لا يريدون تشغيل أي شيء محلياً
ما هو Ollama؟
Ollama هي أداة تجعل تشغيل نماذج اللغة الكبيرة محلياً بسيطاً مثل تشغيل أمر واحد. تتولى تنزيل النماذج والتكوين والخدمة من خلال واجهة CLI وAPI نظيفة، مما يزيل معظم الاحتكاك الذي جعل إعداد الذكاء الاصطناعي المحلي تاريخياً أمراً مملاً.
نما المشروع بسرعة منذ إطلاقه، ليصبح أحد أكثر الطرق شيوعاً لتشغيل النماذج مفتوحة المصدر على الأجهزة الشخصية. يعمل Ollama على macOS وWindows وLinux، مع دعم قوي بشكل خاص لأجهزة Mac مع Apple Silicon حيث يستفيد من إطار Metal لوحدة معالجة الرسومات.
تحت الغطاء، يعتمد Ollama على llama.cpp للاستدلال. مساهمته هي الطبقة العليا: سجل نماذج وتحويل تلقائي للتنسيق وخادم API بسيط وواجهة CLI تبدو طبيعية لأي شخص استخدم Docker أو Homebrew.
الميزات الرئيسية: تثبيت بخطوة واحدة ومكتبة نماذج وواجهة برمجية
التثبيت يتم بخطوة واحدة حقاً. على macOS، تنزّل التطبيق. على Linux، أمر curl واحد يتولى كل شيء. بمجرد التثبيت، تشغيل نموذج بسيط مثل كتابة 'ollama run llama3' في الطرفية. يقوم Ollama بتنزيل النموذج وتكوينه وبدء جلسة دردشة تفاعلية.
تتضمن مكتبة النماذج نماذج مفتوحة المصدر الشائعة مثل Llama 3 وMistral وGemma وPhi وغيرها الكثير. النماذج متاحة بمستويات متعددة من الكم، ويختار Ollama قيمة افتراضية معقولة بناءً على جهازك. يمكنك أيضاً استيراد نماذج GGUF مخصصة أو إنشاء متغيرات نماذج بمطالبات نظام مخصصة باستخدام Modelfiles.
تبدأ REST API تلقائياً وتوفر نقاط نهاية متوافقة مع OpenAI. هذا يعني أن التطبيقات المحلية وامتدادات VS Code وأدوات التطوير التي تدعم OpenAI API يمكن توجيهها إلى Ollama بأدنى قدر من التكوين.
سير عمل الذكاء الاصطناعي المحلي مع Ollama
يبدأ سير العمل النموذجي بتصفح مكتبة النماذج وسحب نموذج مناسب لمهمتك. للمحادثة العامة والاستدلال، تعد Llama 3 8B أو 70B خيارات شائعة. لمهام الترميز، يشيع استخدام CodeLlama أو DeepSeek Coder. للأجهزة الأصغر، تقدم نماذج Phi أو Gemma جودة جيدة بمتطلبات موارد أقل.
بمجرد تشغيل نموذج ما، يمكنك التفاعل عبر CLI للاختبار السريع أو عبر API لتكامل التطبيقات. يستخدم كثير من المطورين Ollama كخلفية تطوير محلية، واختبار المطالبات وسير العمل مقابل نموذج محلي قبل التحول إلى API سحابي للإنتاج.
يدعم Ollama أيضاً تشغيل نماذج متعددة في وقت واحد (إذا سمح الجهاز بذلك) والتبديل بينها عبر API. هذا مفيد لسير العمل التي تحتاج إلى نماذج مختلفة لمهام مختلفة.
من يجب أن يستخدم Ollama؟
المطورون الذين يريدون ذكاءً اصطناعياً محلياً بدون عمل في البنية التحتية هم الجمهور الرئيسي. إذا أردت تجربة النماذج مفتوحة المصدر أو بناء تطبيقات باستدلال محلي أو التطوير على نقطة نهاية API محلية، يزيل Ollama الاحتكاك في الإعداد الذي كان سيستغرق ساعات بخلاف ذلك.
يستفيد المستخدمون المهتمون بالخصوصية من إبقاء جميع البيانات محلية. يعالج Ollama كل شيء على جهازك، دون إرسال أي بيانات إلى خوادم خارجية. هذا مهم عند العمل مع الكود الخاص أو المستندات الحساسة أو البيانات المنظمة.
يجد الطلاب والمتعلمون الذين يستكشفون نماذج الذكاء الاصطناعي في Ollama وصولاً سهلاً. يمكنك تجربة نماذج مختلفة ومقارنة مخرجاتها وفهم كيف يؤثر حجم النموذج والكم على الجودة دون إنفاق أي شيء على رصيد API.
الأسعار: مجاني ومفتوح المصدر
Ollama مجاني تماماً. البرنامج ومكتبة النماذج وجميع الميزات متاحة بدون تكلفة. لا توجد مستويات مميزة أو حدود استخدام أو متطلبات حساب.
التكلفة الحقيقية هي الأجهزة. يعتمد أداء Ollama مباشرة على مواصفات جهازك. يمكن لجهاز كمبيوتر محمول حديث بذاكرة وصول عشوائي 16 GB تشغيل نماذج المعاملات 7-8B بشكل مريح. لنماذج 13B، تعمل 16 GB ولكن بهامش أقل. تشغيل نماذج 70B يتطلب أكثر من 48 GB من الذاكرة العشوائية أو ذاكرة VRAM كبيرة لوحدة معالجة الرسومات.
أجهزة Mac بمعالج Apple Silicon مناسبة بشكل خاص لأن بنية الذاكرة الموحدة تسمح لـ Ollama باستخدام ذاكرة الوصول العشوائي الكاملة للنظام لتحميل النماذج مع الاستفادة من تسريع GPU عبر Metal.
مقارنة Ollama بـ llama.cpp وLM Studio
يعتمد Ollama على llama.cpp لكنه يضيف ملاءمة. بينما يمنحك llama.cpp تحكماً مباشراً في معاملات الكم وأحجام السياق وتخصيص طبقات GPU، يقوم Ollama بإعداد قيم افتراضية معقولة والتعامل مع التكوين تلقائياً. قد يفضل المستخدمون المتقدمون الذين يحتاجون إلى تحكم دقيق llama.cpp مباشرة؛ بينما سيقدر الجميع الآخرون بساطة Ollama.
يقدم LM Studio تطبيق سطح مكتب رسومياً للذكاء الاصطناعي المحلي مع واجهة دردشة ومتصفح نماذج وإعدادات مرئية. يستهدف المستخدمين الذين يفضلون واجهة مستخدم رسومية على سطر الأوامر. Ollama أفضل للمطورين الذين يريدون الوصول إلى API وتكامل CLI. LM Studio أفضل للمستخدمين الذين يريدون تجربة سطح مكتب مثل ChatGPT.
لبيئات الخادم وبيئات الرأس المقطوع، يتمتع Ollama بميزة واضحة. بنيته القائمة على الخادم الخفي وREST API تجعل النشر على الأجهزة البعيدة أو الحاويات أو كخدمة أمراً مباشراً.
الحكم النهائي
اكتسب Ollama شعبيته من خلال حل المشكلة الصحيحة بشكل نظيف. يجب أن يكون تشغيل نماذج الذكاء الاصطناعي المحلية سهلاً، ويجعل Ollama ذلك سهلاً دون التضحية بالقدرات.
لا تحاول الأداة منافسة خدمات الذكاء الاصطناعي السحابية في جودة النماذج أو منافسة llama.cpp في ضبط الأداء الخام. تشغل الأرضية الوسطى حيث تتقاطع الملاءمة والقدرات، وتقوم بهذه المهمة بشكل جيد.
بالنسبة لمعظم المطورين الذين يريدون الذكاء الاصطناعي المحلي كجزء من سير عملهم، Ollama هو نقطة البداية الصحيحة. يمكنك دائماً التعمق أكثر في llama.cpp للحصول على مزيد من التحكم لاحقاً، لكن Ollama سيتعامل مع غالبية حالات استخدام الذكاء الاصطناعي المحلي دون احتكاك.
المجتمع والدروس
ما يقوله المطورون وصناع المحتوى عن Ollama.
How to Install Ollama and Run Models Locally (2026)
Local AI Guide · tutorial
Ollama Masterclass 2026: Run Powerful Local LLMs (3-Hour Full Course)
CampusX · tutorial
Best AI Models You Can Run Locally with Ollama (2026 Guide)
Model Guide · review
الأسعار
مشروع مفتوح المصدر؛ مجاني للاستخدام محلياً مع جهازك الخاص.
Freeخطة مجانية متاحة
المزايا
- سهل الوصول بشكل استثنائي للذكاء الاصطناعي المحلي
- تجربة مطور ممتازة
- واجهة برمجية محلية مفيدة للتجارب والتطبيقات
- شهرة واسعة جداً للبدء مع النماذج المستضافة ذاتياً
العيوب
- أقل قابلية للتخصيص من البنى التحتية العميقة
- لا يزال مقيداً بالأجهزة المحلية
- ضوابط الحوكمة ومتعدد المستخدمين أساسية مقارنة بالمنصات المؤسسية
المنصات
macwindowslinuxapi
آخر تحقق: ٢٩ مارس ٢٠٢٦