حول المحتوى:
تعرف على أشهر نماذج الذكاء الاصطناعي التي تعمل على منصة Ollama، مع تفاصيل شاملة عن حجم كل نموذج، متطلبات التشغيل، سعة النافذة السياقية، وأفضل حالات الاستخدام. دليلك لاختيار النموذج المناسب لمشروعك.
في السنوات الأخيرة، شهد العالم ثورة حقيقية في مجال الذكاء الاصطناعي، وخصوصًا مع تصاعد استخدام نماذج اللغة الضخمة (LLMs) التي باتت جزءًا أساسيًا في تطبيقات عديدة مثل المحادثات الذكية، تحليل البيانات، كتابة الأكواد، والتلخيص التلقائي. وبينما يعتمد تشغيل معظم هذه النماذج على خدمات سحابية مكلفة أو معقدة، ظهرت منصات جديدة تسهّل تشغيلها محليًا على الأجهزة الشخصية والخوادم الخاصة، ومن أبرز هذه المنصات Ollama.
Ollama هي أداة مفتوحة المصدر تمكِّن المطورين والباحثين من تحميل وتشغيل أشهر نماذج الذكاء الاصطناعي محليًا بسهولة ومرونة، مع توفير واجهات تشغيل مبسطة عبر سطر الأوامر (CLI) أو مكتبات برمجية. المميز في Ollama أنها تدعم مجموعة واسعة من النماذج مفتوحة المصدر والحديثة في مختلف المجالات: المحادثة، تحليل النصوص، البرمجة، وحتى معالجة الصور.
في هذا المقال، نستعرض معًا أشهر وأهم نماذج الذكاء الاصطناعي التي يمكن تشغيلها عبر منصة Ollama، مع توضيح أبرز ميزات كل نموذج، استخداماته العملية، وأوامر تشغيله المباشرة.
المطوّر: Meta
عدد المعاملات (Parameters): 70 مليار
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح فهمًا أعمق للسياق في النصوص الطويلة .
دعم اللغات: يدعم أكثر من 10 لغات، بما في ذلك الإنجليزية، الإسبانية، الألمانية، الفرنسية، الإيطالية، البرتغالية، الهندية، التايلاندية، وغيرها .
حجم النموذج: حوالي 43 جيجابايت .
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة .
الذاكرة العشوائية (RAM): يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة .
المعالج (CPU): معالج متعدد النوى عالي الأداء.
نظام التشغيل: متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث.
تختلف متطلبات GPU بناءً على دقة النموذج المستخدمة:
دقة FP16 (عالية الدقة): تتطلب حوالي 161 جيجابايت من VRAM، مما يستلزم استخدام وحدتين من NVIDIA A100 80GB مع NVLink .
دقة INT4 (دقة منخفضة): يمكن تشغيلها على وحدات مثل NVIDIA RTX 3090 أو 4090، حيث تتطلب حوالي 26 جيجابايت من VRAM .
لتشغيل النموذج عبر منصة Ollama:
ollama run llama3.3
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.
الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.
المطوّر: Google
عدد المعاملات (Parameters): متوفّر بأربعة أحجام: 1B، 4B، 12B، و27B
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح فهمًا أعمق للسياق في النصوص الطويلة .
دعم اللغات: يدعم أكثر من 140 لغة، مما يجعله مناسبًا لتطبيقات متعددة اللغات .
حجم النموذج | حجم التخزين (تقريبي) |
---|---|
1B | 0.5 جيجابايت (INT4) |
4B | 2.6 جيجابايت (INT4) |
12B | 6.6 جيجابايت (INT4) |
27B | 14.1 جيجابايت (INT4) |
ملاحظة: الأحجام المذكورة تعتمد على نماذج مُكمَّمة بدقة INT4، والتي توفر توازنًا بين الأداء وكفاءة الاستخدام .
الذاكرة العشوائية (RAM):
يُوصى بوجود 16 جيجابايت على الأقل لتشغيل النماذج الصغيرة (1B و4B).
للنماذج الأكبر (12B و27B)، يُفضّل وجود 32 جيجابايت أو أكثر لضمان أداء سلس.
وحدة معالجة الرسومات (GPU):
حجم النموذج | الحد الأدنى للـ VRAM (INT4) | بطاقة GPU الموصى بها |
---|---|---|
1B | 0.5 جيجابايت | GTX 1650 أو ما يعادلها |
4B | 2.6 جيجابايت | RTX 3060 أو ما يعادلها |
12B | 6.6 جيجابايت | RTX 5090 أو ما يعادلها |
27B | 14.1 جيجابايت | RTX 4090 أو ما يعادلها |
ملاحظة: يمكن تشغيل النماذج الصغيرة على الأجهزة بدون GPU باستخدام المعالج المركزي (CPU)، ولكن مع أداء أقل .
لتشغيل نموذج Gemma 3 عبر منصة Ollama:
ollama run gemma3
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث .
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.
الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.
المطوّر: Mistral AI (شركة فرنسية مدعومة من Nvidia)
عدد المعاملات (Parameters): 123 مليار
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح معالجة نصوص طويلة ومعقدة بكفاءة عالية.
الترخيص: رخصة Mistral Research License للاستخدامات البحثية وغير التجارية. للاستخدامات التجارية، يجب الحصول على ترخيص منفصل.
دعم اللغات: يدعم عشرات اللغات، بما في ذلك الإنجليزية، الفرنسية، الإسبانية، الألمانية، الإيطالية، ولغات برمجة متعددة.
حجم النموذج: حوالي 73 جيجابايت (نسخة 123B) .
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة.
الذاكرة العشوائية (RAM):
يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة.
وحدة معالجة الرسومات (GPU):
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA A100 أو RTX 4090) لتشغيل النموذج بكفاءة. يُوصى بأن تتجاوز VRAM 85% من حجم النموذج لضمان أداء سريع .
نظام التشغيل:
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث.
لتشغيل نموذج Mistral Large 2 عبر منصة Ollama:
ollama run mistral-large
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث.
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.
الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.
توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية.
بالطبع، إليك وصفًا مفصلًا لنموذج Phi-4 من Microsoft، يتضمن معلومات شاملة حول الحجم، المتطلبات التقنية، وأبرز الاستخدامات:
المطوّر: Microsoft
عدد المعاملات (Parameters): 14 مليار
سعة النافذة السياقية (Context Window): حتى 16,000 توكن
الترخيص: مفتوح المصدر للاستخدامات البحثية وغير التجارية
دعم اللغات: يركز بشكل أساسي على اللغة الإنجليزية
حجم النموذج: حوالي 9.1 جيجابايت
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 40 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة
الذاكرة العشوائية (RAM):
يُوصى بوجود 48 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة
وحدة معالجة الرسومات (GPU):
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA RTX A6000 أو ما يعادلها) لتشغيل النموذج بكفاءة
نظام التشغيل:
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث
لتشغيل نموذج Phi-4 عبر منصة Ollama:
ollama run phi4
ملاحظة: تأكد من استخدام إصدار Ollama 0.5.13 أو أحدث
الاستدلال المنطقي: حل المشكلات الرياضية والمنطقية المعقدة
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية
المطوّر: DeepSeek (شركة صينية ناشئة)
عدد المعاملات (Parameters): 671 مليار (باستخدام تقنية "Mixture of Experts"، حيث يتم تفعيل جزء فقط من المعاملات في كل عملية)
سعة النافذة السياقية (Context Window): حتى 128,000 توكن
الترخيص: مفتوح المصدر (MIT License)
دعم اللغات: يدعم عدة لغات، مع تركيز على اللغة الإنجليزية
حجم النموذج: حوالي 73 جيجابايت (نسخة 123B)
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة
الذاكرة العشوائية (RAM):
يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة
وحدة معالجة الرسومات (GPU):
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA A100 أو RTX 4090) لتشغيل النموذج بكفاءة
نظام التشغيل:
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث
لتشغيل نموذج DeepSeek-R1 عبر منصة Ollama:
ollama run deepseek-r1
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث
الاستدلال المنطقي: حل المشكلات الرياضية والمنطقية المعقدة
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية
توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية
المطوّر: Alibaba Group
عدد المعاملات (Parameters): تتراوح من 0.5 مليار إلى 72 مليار، مع توفر نماذج متخصصة مثل Qwen2.5-Coder وQwen2.5-VL
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مع توفر إصدارات تدعم حتى 1 مليون توكن مثل Qwen2.5-1M
الترخيص: مفتوح المصدر (Apache 2.0)
دعم اللغات: يدعم أكثر من 29 لغة، مع تركيز على اللغة الإنجليزية
حجم النموذج: يختلف حسب الإصدار؛ على سبيل المثال، إصدار 14B يتطلب حوالي 29.6 جيجابايت من VRAM
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 40 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة
الذاكرة العشوائية (RAM):
يُوصى بوجود 32 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة
وحدة معالجة الرسومات (GPU):
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA RTX A6000 أو ما يعادلها) لتشغيل النموذج بكفاءة
نظام التشغيل:
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث
لتشغيل نموذج Qwen2.5 عبر منصة Ollama:
ollama run qwen2.5
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص
توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية
معالجة البيانات المهيكلة: فهم وتحليل الجداول والبيانات المنظمة
في السنوات الأخيرة، شهدنا تطورًا مذهلًا في نماذج الذكاء الاصطناعي مفتوحة المصدر، وأصبحت أدوات مثل Ollama تتيح للمطورين والهواة تشغيل نماذج قوية محليًا بسهولة وكفاءة. من خلال استعراضنا للنماذج الأشهر مثل Llama 3.3، Gemma 2, Mistral Large, Phi-4, DeepSeek-R1 و Qwen2.5، يتضح لنا تنوع القدرات والمميزات التي يقدمها كل نموذج، ما يتيح للمستخدمين اختيار الأنسب لمشاريعهم سواء في توليد المحتوى، تحليل النصوص، تلخيص البيانات، أو تطوير تطبيقات حوارية ذكية.
نوصي دائمًا بمراعاة متطلبات كل نموذج من حيث المساحة التخزينية، ذاكرة الوصول العشوائي (RAM)، وقدرات وحدة معالجة الرسومات (GPU)، خاصة عند التعامل مع نماذج ضخمة أو نوافذ سياقية ممتدة.
لمعرفة المزيد عن باقي النماذج المتوفرة على منصة Ollama، يمكنك زيارة مكتبة النماذج الرسمية من خلال الرابط التالي: استعراض مكتبة نماذج Ollama
تعرف على أشهر نماذج الذكاء الاصطناعي التي تعمل على منصة Ollama، مع تفاصيل شاملة عن حجم كل نموذج، متطلبات التشغيل، سعة النافذة السياقية، وأفضل حالات الاستخدام. دليلك لاختيار النموذج المناسب لمشروعك.
مساحة اعلانية
numpy, requests, re
يفضل توفر: معالج حديث متعدد الأنوية ذاكرة RAM لا تقل عن 8 جيجابايت (الموصى به 16 جيجابايت أو أكثر) مساحة تخزين كافية لتحميل النماذج (من 3 إلى 30 جيجابايت حسب النموذج) يمكن تشغيل Ollama باستخدام CPU فقط أو مع دعم GPU إذا كان متوفرًا.
نعم، طالما أن النموذج المستخدم لديه القدرة على التعامل مع اللغة العربية. يمكن تخصيص رسائل النظام أو إعداد modelfile لضبط سلوك النموذج باللغة العربية.
نعم، يوفر Ollama واجهة API محلية يمكن تشغيلها باستخدام الأمر: ollama serve ومن ثم إرسال طلبات عبر بروتوكول HTTP إلى العنوان http://localhost:11434.
Ollama يتميز بواجهة CLI وأوامر مرنة، دعم modelfile، سهولة التكامل مع المشاريع البرمجية عبر API محلية، وتشغيل مستقل للنماذج محليًا. بينما تركز الأدوات الأخرى غالبًا على الواجهة الرسومية.
Ollama هو برنامج مجاني يتيح للمستخدمين تشغيل نماذج الذكاء الاصطناعي محليًا على أجهزتهم دون الحاجة لاتصال دائم بالإنترنت. يدعم تشغيل نماذج لغة مثل LLaMA و Mistral و Gemma بسهولة من خلال سطر الأوامر وواجهة API محلية.
نعم، يمكن تشغيل Ollama بشكل كامل بدون اتصال بالإنترنت بعد تحميل النماذج المطلوبة. الاتصال بالإنترنت يكون ضروريًا فقط لتحميل النماذج في المرة الأولى.
دعم Ollama أنظمة: macOS (بدءًا من Ventura 13.0) Linux (Ubuntu 22.04 وما بعدها، Arch، Fedora) Windows 11 (حاليًا في إصدار تجريبي)
نعم، Ollama مجاني بالكامل، والنماذج التي يوفرها متاحة للاستخدام الشخصي والتجريبي. مع ملاحظة أن بعض النماذج قد تتبع تراخيص محددة حسب جهة تطويرها.