“الإجابات الغبية” سبب تراجع شات جي بي تي

بعد أن شهد إقبالاً كبيراً مع إطلاقه لأول مرة، بدأ استخدام شات جي بي تي بالتراجع، مع انخفاض عدد الزيارات بنسبة 10% مقارنة بالشهر الماضي، وانخفاض عدد تنزيلات التطبيق أيضاً.

ووفقاً لما أوردته صحيفة Insider، فإن المستخدمين الذين يدفعون مقابل نموذج GPT-4 الأكثر قوة (الذي تم تضمين الوصول إليه في شات جي بي تي بلاس) قد اشتكوا على وسائل التواصل الاجتماعي ومنتديات OpenAI الخاصة من انخفاض جودة الإخراج من chatbot.

وهناك إجماع عام على أن GPT-4 كان قادراً على توليد مخرجات أسرع، ولكن بمستوى جودة أقل. وانتقل بيتر يانغ، قائد المنتج لشركة Roblox، إلى تويتر لانتقاد عمل شات جي بي تي، مدعياً أن “الجودة تبدو أسوأ”. وقال أحد مستخدمي المنتدى إن تجربة GPT-4 الأخيرة تبدو “وكأنها قيادة سيارة فيراري لمدة شهر ثم تتحول فجأة إلى سيارة بيك أب قديمة”.

وكان بعض المستخدمين أكثر قسوة، حيث وصفوا شات جي بي تي بالغباء والكسل، مع سلسلة طويلة في منتديات OpenAI مليئة بجميع أنواع الشكاوى. ووفقاً للمستخدمين، كانت هناك نقطة قبل بضعة أسابيع أصبح فيها GPT-4 أسرع بشكل كبير ولكن على حساب الأداء. وتكهن مجتمع الذكاء الاصطناعي بأن هذا قد يكون بسبب تحول في روح تصميم OpenAI وتقسيمه إلى عدة نماذج أصغر مدربة في مجالات محددة، والتي يمكن أن تعمل جنباً إلى جنب لتقديم نفس النتيجة النهائية.

ولم تؤكد OpenAI رسمياً هذه الحالة بعد، حيث لم يرد ذكر لمثل هذا التغيير الكبير في طريقة عمل GPT-4. لكنه تفسير موثوق به وفقاً لخبراء الصناعة مثل شارون زو، الرئيس التنفيذي لشركة Lamini لبناء الذكاء الاصطناعي، الذي وصف فكرة النماذج المتعددة بأنها “الخطوة الطبيعية التالية” في تطوير GPT-4.

وهناك مشكلة ملحة أخرى في شات جي بي تي يشك بعض المستخدمين في أنها قد تكون سبب الانخفاض الأخير في الأداء، وهي مشكلة يبدو أن صناعة الذكاء الاصطناعي غير مستعدة لمعالجتها إلى حد كبير. وإذا لم تكن على دراية بمصطلح “الالتقاط باستخدام الذكاء الاصطناعي”، فهو باختصار: نماذج اللغات الكبيرة (LLMs) مثل شات جي بي تي وغوغل بارد تتخلص من البيانات العامة لاستخدامها عند إنشاء الردود. وفي الأشهر الأخيرة، حدث ازدهار حقيقي في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عبر الإنترنت – بما في ذلك سيل غير مرغوب فيه من الروايات التي ألفها الذكاء الاصطناعي على Kindle Unlimited – مما يعني أنه من المرجح بشكل متزايد أن تلتقط LLM المواد التي تم إنتاجها بالفعل بواسطة الذكاء الاصطناعي عند البحث عبر الويب عن معلومة.

وهذا ينطوي على مخاطر إنشاء حلقة تغذية مرتدة، حيث “تتعلم” نماذج الذكاء الاصطناعي من المحتوى الذي تم إنشاؤه في حد ذاته بواسطة الذكاء الاصطناعي، مما يؤدي إلى انخفاض تدريجي في تماسك المخرجات وجودتها. ومع توفر العديد من LLMs الآن لكل من المهنيين والجمهور الأوسع، أصبح خطر الالتقاط باستخدام الذكاء الاصطناعي سائداً بشكل متزايد – لا سيما أنه لا يوجد حتى الآن أي عرض مفيد لكيفية تفريق نماذج الذكاء الاصطناعي بدقة بين المعلومات “الحقيقية” والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، بحسب موقع تيك رادار.

Exit mobile version