أشهر نماذج الذكاء الاصطناعي المتوفرة على Ollama: المميزات ومتطلبات تشغيلها

أشهر نماذج الذكاء الاصطناعي المتوفرة على Ollama: المميزات ومتطلبات تشغيلها

في السنوات الأخيرة، شهد العالم ثورة حقيقية في مجال الذكاء الاصطناعي، وخصوصًا مع تصاعد استخدام نماذج اللغة الضخمة (LLMs) التي باتت جزءًا أساسيًا في تطبيقات عديدة مثل المحادثات الذكية، تحليل البيانات، كتابة الأكواد، والتلخيص التلقائي. وبينما يعتمد تشغيل معظم هذه النماذج على خدمات سحابية مكلفة أو معقدة، ظهرت منصات جديدة تسهّل تشغيلها محليًا على الأجهزة الشخصية والخوادم الخاصة، ومن أبرز هذه المنصات Ollama.

Ollama هي أداة مفتوحة المصدر تمكِّن المطورين والباحثين من تحميل وتشغيل أشهر نماذج الذكاء الاصطناعي محليًا بسهولة ومرونة، مع توفير واجهات تشغيل مبسطة عبر سطر الأوامر (CLI) أو مكتبات برمجية. المميز في Ollama أنها تدعم مجموعة واسعة من النماذج مفتوحة المصدر والحديثة في مختلف المجالات: المحادثة، تحليل النصوص، البرمجة، وحتى معالجة الصور.

في هذا المقال، نستعرض معًا أشهر وأهم نماذج الذكاء الاصطناعي التي يمكن تشغيلها عبر منصة Ollama، مع توضيح أبرز ميزات كل نموذج، استخداماته العملية، وأوامر تشغيله المباشرة.

Llama 3.3

  • المطوّر: Meta

  • عدد المعاملات (Parameters): 70 مليار

  • سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح فهمًا أعمق للسياق في النصوص الطويلة .

  • دعم اللغات: يدعم أكثر من 10 لغات، بما في ذلك الإنجليزية، الإسبانية، الألمانية، الفرنسية، الإيطالية، البرتغالية، الهندية، التايلاندية، وغيرها .

حجم النموذج ومساحة التخزين

  • حجم النموذج: حوالي 43 جيجابايت .

  • المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة .

متطلبات التشغيل

  • الذاكرة العشوائية (RAM): يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة .

  • المعالج (CPU): معالج متعدد النوى عالي الأداء.

  • نظام التشغيل: متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث.

متطلبات وحدة معالجة الرسومات (GPU)

تختلف متطلبات GPU بناءً على دقة النموذج المستخدمة:

  • دقة FP16 (عالية الدقة): تتطلب حوالي 161 جيجابايت من VRAM، مما يستلزم استخدام وحدتين من NVIDIA A100 80GB مع NVLink .

  • دقة INT4 (دقة منخفضة): يمكن تشغيلها على وحدات مثل NVIDIA RTX 3090 أو 4090، حيث تتطلب حوالي 26 جيجابايت من VRAM .

أوامر التشغيل في Ollama

لتشغيل النموذج عبر منصة Ollama:

ollama run llama3.3

حالات الاستخدام المقترحة

  • كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.

  • تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.

  • تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.

  • تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.

  • الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.

 

Gemma 3

  • المطوّر: Google

  • عدد المعاملات (Parameters): متوفّر بأربعة أحجام: 1B، 4B، 12B، و27B

  • سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح فهمًا أعمق للسياق في النصوص الطويلة .

  • دعم اللغات: يدعم أكثر من 140 لغة، مما يجعله مناسبًا لتطبيقات متعددة اللغات .

حجم النموذج ومتطلبات التخزين

حجم النموذج حجم التخزين (تقريبي)
1B 0.5 جيجابايت (INT4)
4B 2.6 جيجابايت (INT4)
12B 6.6 جيجابايت (INT4)
27B 14.1 جيجابايت (INT4)

ملاحظة: الأحجام المذكورة تعتمد على نماذج مُكمَّمة بدقة INT4، والتي توفر توازنًا بين الأداء وكفاءة الاستخدام .

متطلبات التشغيل

الذاكرة العشوائية (RAM):

  • يُوصى بوجود 16 جيجابايت على الأقل لتشغيل النماذج الصغيرة (1B و4B).

  • للنماذج الأكبر (12B و27B)، يُفضّل وجود 32 جيجابايت أو أكثر لضمان أداء سلس.

وحدة معالجة الرسومات (GPU):

حجم النموذج الحد الأدنى للـ VRAM (INT4) بطاقة GPU الموصى بها
1B 0.5 جيجابايت GTX 1650 أو ما يعادلها
4B 2.6 جيجابايت RTX 3060 أو ما يعادلها
12B 6.6 جيجابايت RTX 5090 أو ما يعادلها
27B 14.1 جيجابايت RTX 4090 أو ما يعادلها

ملاحظة: يمكن تشغيل النماذج الصغيرة على الأجهزة بدون GPU باستخدام المعالج المركزي (CPU)، ولكن مع أداء أقل .

أوامر التشغيل في Ollama

لتشغيل نموذج Gemma 3 عبر منصة Ollama:

ollama run gemma3

ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث .

حالات الاستخدام المقترحة

  • كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.

  • تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.

  • تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.

  • تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.

  • الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.

Mistral Large 2

  • المطوّر: Mistral AI (شركة فرنسية مدعومة من Nvidia)

  • عدد المعاملات (Parameters): 123 مليار

  • سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح معالجة نصوص طويلة ومعقدة بكفاءة عالية.

  • الترخيص: رخصة Mistral Research License للاستخدامات البحثية وغير التجارية. للاستخدامات التجارية، يجب الحصول على ترخيص منفصل.

  • دعم اللغات: يدعم عشرات اللغات، بما في ذلك الإنجليزية، الفرنسية، الإسبانية، الألمانية، الإيطالية، ولغات برمجة متعددة.

حجم النموذج ومتطلبات التخزين

  • حجم النموذج: حوالي 73 جيجابايت (نسخة 123B) .

  • المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة.

متطلبات التشغيل

الذاكرة العشوائية (RAM):

  • يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة.

وحدة معالجة الرسومات (GPU):

  • يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA A100 أو RTX 4090) لتشغيل النموذج بكفاءة. يُوصى بأن تتجاوز VRAM 85% من حجم النموذج لضمان أداء سريع .

نظام التشغيل:

  • متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث.

أوامر التشغيل في Ollama

لتشغيل نموذج Mistral Large 2 عبر منصة Ollama:

ollama run mistral-large

ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث.

حالات الاستخدام المقترحة

  • كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.

  • تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.

  • تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.

  • تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.

  • الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.

  • توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية.

بالطبع، إليك وصفًا مفصلًا لنموذج Phi-4 من Microsoft، يتضمن معلومات شاملة حول الحجم، المتطلبات التقنية، وأبرز الاستخدامات:

Phi-4

  • المطوّر: Microsoft

  • عدد المعاملات (Parameters): 14 مليار

  • سعة النافذة السياقية (Context Window): حتى 16,000 توكن

  • الترخيص: مفتوح المصدر للاستخدامات البحثية وغير التجارية

  • دعم اللغات: يركز بشكل أساسي على اللغة الإنجليزية

حجم النموذج ومتطلبات التخزين

  • حجم النموذج: حوالي 9.1 جيجابايت

  • المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 40 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة

متطلبات التشغيل

الذاكرة العشوائية (RAM):

  • يُوصى بوجود 48 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة

وحدة معالجة الرسومات (GPU):

  • يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA RTX A6000 أو ما يعادلها) لتشغيل النموذج بكفاءة

نظام التشغيل:

  • متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث

أوامر التشغيل في Ollama

لتشغيل نموذج Phi-4 عبر منصة Ollama:

ollama run phi4

ملاحظة: تأكد من استخدام إصدار Ollama 0.5.13 أو أحدث

حالات الاستخدام المقترحة

  • الاستدلال المنطقي: حل المشكلات الرياضية والمنطقية المعقدة

  • كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية

  • تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص

  • تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية

DeepSeek-R1

  • المطوّر: DeepSeek (شركة صينية ناشئة)

  • عدد المعاملات (Parameters): 671 مليار (باستخدام تقنية "Mixture of Experts"، حيث يتم تفعيل جزء فقط من المعاملات في كل عملية)

  • سعة النافذة السياقية (Context Window): حتى 128,000 توكن

  • الترخيص: مفتوح المصدر (MIT License)

  • دعم اللغات: يدعم عدة لغات، مع تركيز على اللغة الإنجليزية

حجم النموذج ومتطلبات التخزين

  • حجم النموذج: حوالي 73 جيجابايت (نسخة 123B)

  • المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة

متطلبات التشغيل

الذاكرة العشوائية (RAM):

  • يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة

وحدة معالجة الرسومات (GPU):

  • يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA A100 أو RTX 4090) لتشغيل النموذج بكفاءة

نظام التشغيل:

  • متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث

أوامر التشغيل في Ollama

لتشغيل نموذج DeepSeek-R1 عبر منصة Ollama:

ollama run deepseek-r1

ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث

حالات الاستخدام المقترحة

  • الاستدلال المنطقي: حل المشكلات الرياضية والمنطقية المعقدة

  • كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية

  • تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص

  • تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية

  • توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية

Qwen2.5

  • المطوّر: Alibaba Group

  • عدد المعاملات (Parameters): تتراوح من 0.5 مليار إلى 72 مليار، مع توفر نماذج متخصصة مثل Qwen2.5-Coder وQwen2.5-VL

  • سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مع توفر إصدارات تدعم حتى 1 مليون توكن مثل Qwen2.5-1M

  • الترخيص: مفتوح المصدر (Apache 2.0)

  • دعم اللغات: يدعم أكثر من 29 لغة، مع تركيز على اللغة الإنجليزية

حجم النموذج ومتطلبات التخزين

  • حجم النموذج: يختلف حسب الإصدار؛ على سبيل المثال، إصدار 14B يتطلب حوالي 29.6 جيجابايت من VRAM

  • المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 40 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة

متطلبات التشغيل

الذاكرة العشوائية (RAM):

  • يُوصى بوجود 32 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة

وحدة معالجة الرسومات (GPU):

  • يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA RTX A6000 أو ما يعادلها) لتشغيل النموذج بكفاءة

نظام التشغيل:

  • متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث

أوامر التشغيل في Ollama

لتشغيل نموذج Qwen2.5 عبر منصة Ollama:

ollama run qwen2.5

ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث

حالات الاستخدام المقترحة

  • كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية

  • تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة

  • تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية

  • تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص

  • توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية

  • معالجة البيانات المهيكلة: فهم وتحليل الجداول والبيانات المنظمة

في السنوات الأخيرة، شهدنا تطورًا مذهلًا في نماذج الذكاء الاصطناعي مفتوحة المصدر، وأصبحت أدوات مثل Ollama تتيح للمطورين والهواة تشغيل نماذج قوية محليًا بسهولة وكفاءة. من خلال استعراضنا للنماذج الأشهر مثل Llama 3.3، Gemma 2, Mistral Large, Phi-4, DeepSeek-R1 و Qwen2.5، يتضح لنا تنوع القدرات والمميزات التي يقدمها كل نموذج، ما يتيح للمستخدمين اختيار الأنسب لمشاريعهم سواء في توليد المحتوى، تحليل النصوص، تلخيص البيانات، أو تطوير تطبيقات حوارية ذكية.

نوصي دائمًا بمراعاة متطلبات كل نموذج من حيث المساحة التخزينية، ذاكرة الوصول العشوائي (RAM)، وقدرات وحدة معالجة الرسومات (GPU)، خاصة عند التعامل مع نماذج ضخمة أو نوافذ سياقية ممتدة.

لمعرفة المزيد عن باقي النماذج المتوفرة على منصة Ollama، يمكنك زيارة مكتبة النماذج الرسمية من خلال الرابط التالي: استعراض مكتبة نماذج Ollama

حول المحتوى:

تعرف على أشهر نماذج الذكاء الاصطناعي التي تعمل على منصة Ollama، مع تفاصيل شاملة عن حجم كل نموذج، متطلبات التشغيل، سعة النافذة السياقية، وأفضل حالات الاستخدام. دليلك لاختيار النموذج المناسب لمشروعك.

الأسئلة الشائعة:

ماهي أشهر المكاتب التي لا يمكن للمطور الاستغناء عنها؟

numpy, requests, re

ما هي متطلبات الجهاز لتشغيل Ollama؟

يفضل توفر: معالج حديث متعدد الأنوية ذاكرة RAM لا تقل عن 8 جيجابايت (الموصى به 16 جيجابايت أو أكثر) مساحة تخزين كافية لتحميل النماذج (من 3 إلى 30 جيجابايت حسب النموذج) يمكن تشغيل Ollama باستخدام CPU فقط أو مع دعم GPU إذا كان متوفرًا.

هل يدعم Ollama اللغة العربية؟

نعم، طالما أن النموذج المستخدم لديه القدرة على التعامل مع اللغة العربية. يمكن تخصيص رسائل النظام أو إعداد modelfile لضبط سلوك النموذج باللغة العربية.

هل يمكن تشغيل Ollama من خلال API؟

نعم، يوفر Ollama واجهة API محلية يمكن تشغيلها باستخدام الأمر: ollama serve ومن ثم إرسال طلبات عبر بروتوكول HTTP إلى العنوان http://localhost:11434.

ما الفرق بين Ollama وأدوات مثل LM Studio أو GPT4All؟

Ollama يتميز بواجهة CLI وأوامر مرنة، دعم modelfile، سهولة التكامل مع المشاريع البرمجية عبر API محلية، وتشغيل مستقل للنماذج محليًا. بينما تركز الأدوات الأخرى غالبًا على الواجهة الرسومية.

ما هو Ollama؟

Ollama هو برنامج مجاني يتيح للمستخدمين تشغيل نماذج الذكاء الاصطناعي محليًا على أجهزتهم دون الحاجة لاتصال دائم بالإنترنت. يدعم تشغيل نماذج لغة مثل LLaMA و Mistral و Gemma بسهولة من خلال سطر الأوامر وواجهة API محلية.

هل يمكن تشغيل Ollama بدون إنترنت؟

نعم، يمكن تشغيل Ollama بشكل كامل بدون اتصال بالإنترنت بعد تحميل النماذج المطلوبة. الاتصال بالإنترنت يكون ضروريًا فقط لتحميل النماذج في المرة الأولى.

ما هي أنظمة التشغيل التي يدعمها Ollama؟

دعم Ollama أنظمة: macOS (بدءًا من Ventura 13.0) Linux (Ubuntu 22.04 وما بعدها، Arch، Fedora) Windows 11 (حاليًا في إصدار تجريبي)

هل Ollama مجاني؟

نعم، Ollama مجاني بالكامل، والنماذج التي يوفرها متاحة للاستخدام الشخصي والتجريبي. مع ملاحظة أن بعض النماذج قد تتبع تراخيص محددة حسب جهة تطويرها.

هل كان هذا مفيدًا لك؟

أضف تعليقك

قد يعجبك: