غوغل تكشف عن نماذج الذكاء الاصطناعي «Gemma 2»

كشفت «غوغل» عن الإصدارات الجديدة من نماذج الذكاء الاصطناعي الخفيفة المفتوحة المصدر «Gemma 2»، مشيرة إلى أنها قامة بتحسينها اعتمادًا على هندسة جديدة لتحقيق أداء عالٍ وكفاءة غير مسبوقة.

وتأتي نماذج «Gemma 2» بحجمين قدرهما 9 مليارات و27 مليار معلمة.

وقالت الشركة إن هذا الجيل الجديد أكثر كفاءةً في الاستدلال، ويقدم أداءً أفضل من النموذج الأول لـ«Gemma».

وأضافت أن النموذج الكبير، الذي يضم 27 مليار معلمة، يقدم أداءً مماثلًا للنماذج التي يتجاوز حجمها أكثر من الضعف، في حين أن النموذج الصغير الذي يضم 9 مليارات مَعلمة يتفوق على نموذج «Llama 3 8B» والنماذج المفتوحة المصدر المماثلة.

وفي الأشهر المقبلة، تخطط «غوغل» لإطلاق نموذج «Gemma 2» بحجم قدره 2.6 مليار مَعلمة، وسيكون أكثر ملاءمة لمهام الذكاء الاصطناعي في الهواتف الذكية.

ومن الجدير بالذكر، أن المَعلمات (Parameters) هي المتغيرات في نماذج الذكاء الاصطناعي، وتستخدم لقياس حجم النماذج وقدراتها.

ويمكن استضافة النموذج الجديد «Gemma 2» على وحدة معالجة رسومات واحدة من نوع (NVIDIA A100 80GB Tensor Core) أو (NVIDIA H100 Tensor Core) أو رقاقة واحدة من رقاقات الذكاء الاصطناعي من (غوغل TPU)، مما يقلل تكاليف البنية التحتية للذكاء الاصطناعي.

ويمكن أيضًا تشغيل النماذج على وحدات معالجة الرسومات في الحواسيب المكتبية من نوع (NVIDIA RTX) أو (GeForce RTX) عبر مكتبة «Hugging Face Transformers».

وابتداءً من الشهر المقبل، يمكن لعملاء خدمات «غوغل» السحابية استخدام «Gemma 2» عبر منصة الذكاء الاصطناعي «Vertex AI»، كما يمكن للمطورين الآن تجربة النماذج الجديدة عبر «Google AI Studio».

وتتيح الشركة نماذج «Gemma 2» مجانًا، ويمكن للباحثين الأكاديميين التقدم لتجربتها من أجل البحوث الأكاديمية.

 

Exit mobile version