تكنولوجيا

روبوت غوغل يرتكب خطأ في العرض التوضيحي الأول!

تسعى شركة غوغل الأمريكية لدخول المنافسة في مجال الذكاء الاصطناعي، حيث ارتكب روبوت الدردشة Bard من غوغل خطأ واقعيا في فيديو توضيحي تم إصداره قبل أيام من إطلاق حدث رفيع المستوى في باريس.

وبينما لا يزال روبوت الذكاء الاصطناعي قيد الاختبار، يتم وصفه بأنه منافس لـ ChatGPT المدعوم من مايكروسوفت، وهو نظام ذكاء اصطناعي شائع مع مجموعة مشاكله الخاصة.

وفي مقطع فيديو ترويجي أصدرته غوغل يوم الاثنين، يسأل أحد المستخدمين Bard “ما الاكتشافات الجديدة من تلسكوب جيمس ويب الفضائي (JWST) التي يمكنني إخبار طفلي البالغ من العمر 9 سنوات عنها؟”، يُرجع الذكاء الاصطناعي عددا من الإجابات، بما في ذلك إحداهما تفيد بأن التلسكوب “التقط الصور الأولى لكوكب خارج نظامنا الشمسي”.

وكما أشار عالم الفيزياء الفلكية غرانت تريمبلاي على “تويتر”، كانت هذه الإجابة خاطئة. أول صورة من هذا القبيل تم التقاطها بواسطة التلسكوب الكبير جدا (VLT) التابع للمرصد الأوروبي الجنوبي في عام 2004، كما كتب، مشيرا إلى أنه على الرغم من أنها “مثيرة للإعجاب بشكل مخيف”، إلا أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي “غالبا ما تكون مخطئة للغاية”.

ولوحظ الخطأ على الفور قبل أن تكشف غوغل عن Bard في حدث في باريس صباح الأربعاء، حيث انخفضت قيمة الشركة بنسبة 8٪ مع انتشار أنباء الخطأ.

ولا يقدم الذكاء الاصطناعي مثل Bard نتائج دقيقة لكل سؤال. ونظرا لأنها تتصفح تريليونات الصفحات من الكلمات والأشكال التي أنشأها البشر، فإنها تتوقع الإجابات الأكثر احتمالية لسؤال أو موجه. ولاحظت مايكروسوفت ذلك عندما أعلنت يوم الثلاثاء أن محرك بحث Bing الخاص بها سيأتي مع ChatGPT – تم تطويره على منصة OpenAI التي تمولها مايكروسوفت – المضمنة.

ويقرأ إخلاء المسؤولية من الشركة: “يتم تشغيل Bing بواسطة الذكاء الاصطناعي، لذا فإن المفاجآت والأخطاء ممكنة”.

وابتلي تطوير الذكاء الاصطناعي للمحادثة أيضا باتهامات التحيز السياسي بين المبرمجين. وأدرك عشاق التكنولوجيا مؤخرا أن ChatGPT سترفض قول أي شيء إيجابي عن الوقود الأحفوري، أو حتى الرئيس الأمريكي السابق دونالد ترامب، في حين أنها ستمتدح فضائل اتباع نظام غذائي خال من اللحوم ويكتب قصائد تكريما لخليفة ترامب، جو بايدن.

وعندما قُدمت مع سيناريو افتراضي طُلب فيه نطق افتراء عنصري من أجل نزع سلاح قنبلة نووية، أعلن الذكاء الاصطناعي أنه سيحكم على ملايين الأشخاص بالإبادة النووية قبل استخدام “لغة عنصرية”.

ومن المحتمل أن تتم إعاقة Bard بقيود مسيسة مماثلة، كما صرح الرئيس التنفيذي لشركة غوغل، سوندار بيتشاي، يوم الاثنين حين قال أنها ستتبع مبادئ الذكاء الاصطناعي “المسؤولة” الخاصة بالشركة. وتنص هذه القواعد على أن منتجات الذكاء الاصطناعي من غوغل “ستتجنب التأثيرات غير العادلة على الأشخاص، لا سيما تلك المتعلقة بالعرق والجنس والجنسية والدخل والتوجه الجنسي والقدرة والمعتقد السياسي أو الديني”.

 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى