أعلنت Google رسميًا عن Gemma 4 في 2 أبريل 2026، بوصفها واحدة من أقوى نماذج المصادر المفتوحة حتى الآن. حققت Gemma 4 اختراقات كبيرة في استدعاءات الدوال الأصلية، وسير عمل الوكلاء (الـAgents)، والإدراك متعدد الوسائط (multi-modal)، واعتمدت ترخيص Apache 2.0 الملائم للأعمال، لتمنح المطورين والشركات حول العالم درجة غير مسبوقة من الحرية والمرونة.
ما هي Gemma 4؟ أبرز المزايا الأساسية بنظرة واحدة
Gemma 4 هي سلسلة من نماذج اللغات الكبيرة مفتوحة المصدر التي قدمتها Google DeepMind، وتشارك التقنية مع سلسلة نماذج Gemini. وتشمل أبرز النقاط الأساسية:
قدرات استدلال متقدمة: تدعم التخطيط متعدد الخطوات والاستدلال المنطقي العميق، وتتجاوز بشكل كبير نماذج المصادر المفتوحة المتنافسة على اختبارات معايير الرياضيات واتباع التعليمات.
سير عمل وكلاء أصلي (Native Agent Workflow): مدمج فيه استدعاء الدوال، وإخراج JSON المُهيكل، ودعم تعليمات النظام، ويمكنه مباشرة تشغيل وكلاء ذكاء اصطناعي مستقلين وتنفيذ مهام متعددة الخطوات.
نشر على الجهاز محليًا: إصدارات E2B وE4B مُحسّنة خصيصًا للأجهزة المختلفة مثل الهواتف، ويمكن تشغيلها بالكامل دون اتصال بالإنترنت.
دعم شامل متعدد الوسائط: جميع الإصدارات تدعم إدخال الصور والفيديو بشكل أصلي؛ وتدعم E2B وE4B أيضًا إدخال الصوت بشكل أصلي إضافي.
نافذة سياق فائقة الطول: تدعم نماذج الحافة 128K token، بينما تصل النماذج الأكبر إلى 256K token كحد أقصى، ما يتيح تمرير مستودع كامل من الشيفرة أو مستند طويل كامل في موجه واحد.
توليد شيفرة عالي الجودة: يدعم كتابة الشيفرة دون اتصال بالإنترنت، ويمكن تحويل محطة عملك الشخصية إلى مساعد لتصميم برامج قائم على الذكاء الاصطناعي مع أولوية محلية.
تدريب أصلي لأكثر من 140 لغة: يدعم أكثر من 140 لغة حول العالم، مما يساعد المطورين على بناء تطبيقات متعددة اللغات لخدمة المستخدمين الدوليين.
أربع نماذج، وتعظيم دعم كل سيناريوهات التطبيقات
طرحت Gemma 4 أربع نسخ، مُحسّنة لمواءمة بيئات العتاد المختلفة وسيناريوهات الاستخدام المختلفة:
Effective 2B (E2B): مصمم خصيصًا للأجهزة المحمولة وإنترنت الأشياء (IoT)، ويدعم نافذة سياق 128K، وإدخال الصوت أصلي، ويمكن تشغيله بالكامل دون اتصال بالإنترنت على أجهزة الحافة مثل هواتف Android وRaspberry Pi.
Effective 4B (E4B): كذلك مُحسّن لجهة الحافة، ويتمتع بإمكانات متعددة الوسائط، محققًا توازنًا ممتازًا بين كفاءة الاستدلال واستهلاك الذاكرة.
26B مختص خبراء (MoE): عند الاستدلال، يتم تفعيل 3.8 مليار معلمة فقط، ما يتيح استدلالًا سريعًا بزمن استجابة منخفض جدًا، مناسبًا لعمليات النشر على محطات عمل محلية تركز على الإنتاجية (throughput).
31B Dense: النسخة الرائدة، تحتل المرتبة الثالثة على لوحة ترتيب Arena AI للنصوص، وتوفر أعلى جودة من المخرجات، ويمكن تشغيلها بالكامل على بطاقة NVIDIA H100 GPU واحدة بسعة 80GB.
تجعل النسخ المُكمّمة (quantized) من 26B MoE و31B Dense التنفيذ الأصلي أسهل أيضًا على بطاقات الرسوم الاستهلاكية، بما يجعل قدرات الاستدلال القوية للذكاء الاصطناعي تنتشر فعليًا لتصل إلى سطح مكتب المطورين الأفراد.
اختراق كبير في الاستدلال المحلي: وداعًا لاعتماد API
واحدة من أكثر سمات Gemma 4 لفتًا للانتباه هي تركيزها على قدرات “الاستدلال على الجهاز (On-device)”. تم تصميم نماذج E2B وE4B خصيصًا لتعظيم كفاءة الحوسبة وكفاءة الذاكرة، بحيث يمكن تشغيلها على أجهزة الحافة مثل الهواتف وRaspberry Pi وNVIDIA Jetson Orin Nano مع زمن استجابة شبه معدوم.
وهذا يؤثر بشكل كبير على المطورين. ففي السابق، كان استدعاء واجهات برمجة تطبيقات الذكاء الاصطناعي السحابية يتطلب تحمل تكلفة كل طلب، كما كانت هناك مخاطر مرتبطة بتأخر الشبكة وخصوصية البيانات. وبفضل قدرات الاستدلال المحلي في Gemma 4، يمكن للمطورين تشغيل النموذج على عتادهم الخاص، مما يقلل بشكل كبير تكلفة استدعاءات API، مع الاستفادة من سيادة كاملة على البيانات وإمكانية العمل دون اتصال.
كما تتعاون Google بشكل وثيق مع فريق Pixel وشركاء في العتاد المحمول مثل Qualcomm وMediaTek لضمان تحقيق E2B/E4B لأفضل أداء على أجهزة Android الشائعة، وإتاحة AICore Developer Preview لمطوري Android كي يتسنى لهم التطوير من أجل دمج Gemini Nano 4.
تعزيز سير عمل وكلاء الذكاء الاصطناعي، وتحسين كفاءة استدعاءات الدوال الأصلية
حققت Gemma 4 أيضًا دعمًا أصليًا في سير عمل الوكلاء (Agentic Workflows)، وهي واحدة من أبرز القفزات الوظيفية مقارنة بالجيل السابق. يدعم هذا النموذج:
استدعاء الدوال الأصلي (Function Calling): يمكن للنموذج استدعاء الأدوات وواجهات برمجة التطبيقات الخارجية مباشرةً لتنفيذ عمليات فعلية، مثل الاستعلام عن قاعدة بيانات أو استدعاء خدمات طرف ثالث.
مخرجات JSON المُهيكلة: تضمن أن تكون مخرجات النموذج بتنسيق محدد، مما يسهل التكامل السلس مع أنظمة الخلفية.
تعليمات النظام الأصلية (System Instructions): يمكن للمطورين إعداد سلوك النموذج على مستوى النظام، بحيث تكون أدوار وكيل الذكاء الاصطناعي أكثر ثباتًا واتساقًا.
تتيح هذه القدرات لـ Gemma 4 أن تصبح وكيل ذكاء اصطناعي مستقلًا متعدد الإمكانات: لا يجيب عن الأسئلة فحسب، بل يتفاعل بنشاط مع الأدوات وينفذ تلقائيًا سير عمل متعدد الخطوات.
ترقية شاملة متعددة الوسائط: رؤية وصوت ونصوص طويلة—كل شيء موجود
تتوفر في جميع إصدارات Gemma 4 إمكانات متعددة الوسائط أصلية، ما يوسع بشكل كبير أنواع المهام القابلة للتعامل معها.
الصور والفيديو
في جانب الفهم البصري، تدعم جميع النماذج معالجة الصور والفيديو بشكل أصلي، مع دعم دقة قابلة للتغير. وتبرز في مهام بصرية مثل OCR (التعرّف الضوئي على الحروف) وفهم المخططات.
إدخال الصوت
بالنسبة للصوت، تدعم نماذج E2B وE4B على جهة الحافة إدخال الصوت بشكل أصلي إضافي، ما يتيح إجراء التعرف على الكلام وفهمه مباشرة دون الحاجة إلى خطوة تحويل الصوت إلى نص.
سياق فائقة الطول
في جانب المستندات، تدعم نماذج الحافة نافذة سياق 128K token، بينما توفر النماذج الأكبر أيضًا حتى 256K token، ما يسمح للمطورين بإدخال مستودع كامل من الشيفرة أو مستند طويل كامل في موجه واحد.
توليد شيفرة دون اتصال
يدعم كتابة شيفرة دون اتصال بجودة عالية، ما يجعل محطة عملك الشخصية تتحول إلى مساعد لتصميم برامج يعمل بالذكاء الاصطناعي مع أولوية محلية.
دعم أكثر من 140 لغة
تم إجراء تدريب أصلي لأكثر من 140 لغة، لمساعدة المطورين على بناء تطبيقات تخدم المستخدمين حول العالم.
ترخيص Apache 2.0: علامة بارزة في منظومة المصادر المفتوحة
تم إصدار Gemma 4 تحت ترخيص Apache 2.0، وهو أحد أعلى التراخيص ملاءمةً للأعمال ضمن مجتمع المصادر المفتوحة. يمكن للمطورين والشركات استخدام النموذج وتعديله وتوزيعه بحرية؛ سواء كان النشر على بنية تحتية خاصة، أو في بيئات سحابية هجينة، أو تضمينه داخل منتجات تجارية، فلن تخضع لأية قيود إضافية.
دعم منظومة غنية
تحصل Gemma 4 أيضًا على دعم شامل من أبرز الأدوات في الصناعة، بما في ذلك Hugging Face (Transformers، TRL، Transformers.js)، وOllama، وvLLM، وllama.cpp، وMLX، وLM Studio، وNVIDIA NIM وNeMo، وKeras، وVertex AI وغيرها.
يمكن للمطورين تنزيل أوزان النماذج مباشرة عبر Hugging Face أو Kaggle أو Ollama، وتجربة إصدارات 31B و26B MoE عبر Google AI Studio عبر الإنترنت، أو تجربة إصدارات E2B وE4B عبر Google AI Edge Gallery.
بالنسبة للشركات التي تحتاج إلى نشر واسع النطاق، تقدم Google Cloud حلولًا سحابية كاملة تشمل Vertex AI وCloud Run وGKE وSovereign Cloud وخدمات تسريع الاستدلال عبر TPU، ما يلغي حدود الاعتماد على القدرة الحوسبية المحلية.
خفض التكاليف دون التضحية بالقدرات: Gemma 4 خيار جديد للمطورين بنسبة 50%
يمثل إصدار Gemma 4 علامة بارزة في نماذج الذكاء الاصطناعي مفتوحة المصدر. وباعتبارها أداة على مستوى المؤسسات تمتلك قدرات النشر الإنتاجي، فهي تمكن من تشغيلها دون اتصال على الهاتف، واستدعاء أدوات خارجية لإنجاز المهام بشكل مستقل، والتعامل مع مستندات طويلة ومدخلات متعددة الوسائط، مع السماح للجميع باستخدامها بحرية.
بالنسبة للمطورين والشركات الذين يرغبون في خفض تكلفة استدعاءات API مع الحفاظ على قدرات الذكاء الاصطناعي، توفر Gemma 4 مسارًا جذابًا للغاية.
ظهرت هذه المقالة التي أطلقتها Google حول نموذج Gemma 4 مفتوح المصدر: “تعزيز سير عمل وكلاء الذكاء الاصطناعي بكفاءة الاستدلال على الجهاز” لأول مرة في 鏈新聞 ABMedia.