دراسة: نماذج الذكاء الاصطناعي تفتقر إلى الشفافية
تفتقر نماذج الذكاء الاصطناعي التي تكاثرت منذ إطلاق “شات جي بي تي” إلى الشفافية في تصميمها، ما يشكل خطرا على التطبيقات التي ترتكز عليها تقنيا، بحسب دراسة أجرتها جامعة ستانفورد.
وبين مؤشر جديد وضعه وأجرى حسابات على أساسه باحثون في هذه الجامعة الواقعة في ولاية كاليفورنيا الأمريكية، أن الأكثر شفافية بين النماذج العشرة التي أخضعت للتقويم هو “لاما 2″، وهو نظام ذكاء اصطناعي أطلقته مجموعة “ميتا” في يوليو الفائت ويمكن إعادة استخدامه.
لكن هذا النموذج لا يوفر في الواقع إلا 54 في المائة من الشفافية المطلوبة، وهي نسبة غير كافية مقارنة بما يجب أن يحققه لكي يكون شفافا، وفقا لمعدي الدراسة.
أما “شات جي بي تي-4″، وهو المنتج الرئيس لشركة “أوبن إيه آي” التي تنتج روبوت “شات جي بي تي” الشهير والممولة من “مايكروسوفت”، فلا تتعدى درجة شفافيته 48 في المائة.
ووفق ما ذكرت “الفرنسية”، حصلت على مراتب أدنى نماذج أخرى تلقى رواجا، بينها “بالم-2” من “جوجل” و”كلود 2″ من “انثروبيك” الممولة من “أمازون”.
وأوضح ريشي بوماساني مدير الأبحاث في جامعة ستانفورد في بيان أن درجة الشفافية المطلوب توافرها فيما يسمى “نماذج التأسيس” يجب أن تراوح بين 80 في المائة و100 في المائة”.
وأوضح معدو الدراسة أن الافتقار إلى الشفافية “يصعب على الشركات معرفة ما إذا كان بإمكانها بناء تطبيقات بأمان تقوم على هذه النماذج، وعلى الأكاديميين الاعتماد على هذه النماذج في أبحاثهم”.
ولاحظت الدراسة أن معظم الشركات لا تفصح عن مدى المحتوى المحمي بحقوق المؤلف والمستخدم لتدريب نموذجها. كذلك لا تكشف الشركات عن استخدام العمالة البشرية لتصحيح بيانات التدريب، الأمر الذي قد يكون مشكلة كبيرة”.
وأسف بوماساني لكون “أي شركة لا تقدم معلومات عن عدد المستخدمين الذين يعتمدون على نماذجها، ولا إحصاءات عن البلدان أو الأسواق التي تستخدمها”.
وشرح معدو الدراسة أن صناع السياسات والعاملين في الهيئات الناظمة يستطيعون استخدام مؤشر الشفافية هذا في المستقبل. وأعلن الاتحاد الأوروبي والولايات المتحدة والصين والمملكة المتحدة وكندا عن رغبتهم في ظهور ذكاء اصطناعي أكثر شفافية.