لماذا يريد البيت الأبيض من المخترقين اكتشاف ثغرات الذكاء الاصطناعي؟
ماذا يحدث عندما يجتمع الآلاف من المخترقين في مدينة واحدة بهدف وحيد، هو محاولة الخداع واكتشاف العيوب في نماذج الذكاء الاصطناعي؟ هذا ما يريد البيت الأبيض معرفته.
هذا الأسبوع في أكبر مؤتمر سنوي للقراصنة في العالم في لاس فيغاس، ديف كون 31، تفتح التكنولوجيا الكبيرة أنظمتها القوية ليتم اختبارها جنبا إلى جنب لأول مرة.
تحت دائرة الضوء، توجد نماذج لغات كبيرة، روبوتات الدردشة المفيدة مثل تشات جي بي تي الذي أصدرته شركة أوبن إي أي، وبارد الذي أنتجته غوغل.
تعدّ الدكتورة رومان شودري، الرئيسة التنفيذية لشركة هيومن إنتلجنس وزميلة الذكاء الاصطناعي المسؤول في جامعة هارفارد، أحد منظمي هذا الحدث.
وقالت لبي بي سي نيوز إنهم صمموا مسابقة “لتحديد المشاكل في أنظمة الذكاء الاصطناعي” و”إنشاء تقييم مستقل”. وتقول إن الحدث سيكون مساحة آمنة للشركات “للحديث عن مشاكلهم وكيفية حلها”.
تم إقناع شركات ميتا، غوغل، أوبن إي أي، أنثروبيك، كوير، ميكروسوفت، إنفيديا وستابيليتي بفتح نماذجهم ليتم اختراقها لتحديد المشكلات.
تقول شودري إن الشركات تعرف أن العديد من الأشياء يمكن أن تسوء، لذا فإن المنافسة هي وسيلة لمعرفة ما يحدث عندما تتحدى مجموعة محددة من المخترقين نماذجهم في مواجهة الوقت.
كيف يعمل المؤتمر؟
يقدّر المنظمون أنه على مدار يومين ونصف اليوم، سيتم منح 3 آلاف شخص يعملون بمفردهم في واحد من 158 جهاز كمبيوتر محمولا 50 دقيقة، لمحاولة اكتشاف عيوب في ثمانية نماذج كبيرة للذكاء الاصطناعي.
لن يعرف المتسابقون نموذج الشركة الذي يعملون معه، على الرغم من أن المتسابقين ذوي الخبرة قد يكونون قادرين على التخمين. يؤدي إكمال التحدي الناجح إلى ربح نقاط ويفوز الشخص الذي حقق أعلى إجمالي.
الجائزة عبارة عن قطعة قوية من أدوات الحوسبة، وحدة معالجة رسومات، ولكن ربما الأهم من ذلك وفقا لشودري ستكون “حقوق المفاخرة”.
يطلب أحد التحديات من المخترقين الحصول على نموذج للهلوسة (بالمعلومات) أو اختراع حقيقة حول شخص سياسي أو شخصية رئيسية.
تقول الدكتورة سيرافينا غولدفارب – تارانت، رئيسة سلامة الذكاء الاصطناعي في كوير، إنه بينما من المعروف أن النماذج يمكن أن تصنع الحقائق، فليس من الواضح مدى تكرار حدوثها.
وقالت “نعلم أن النماذج تهلوس بالمعلومات، لكن سيكون من المفيد زيادة الوعي بعدد المرات التي يحدث فيها ذلك. ما زلنا لا نعرف”.
سيتم أيضا اختبار اتساق النماذج، وتقول غولدفارب – تارانت إن هناك مخاوف بشأن كيفية عملها عبر اللغات المختلفة.
“حراس الأمن لا يعملون بلغات مختلفة ويعتقد الناس أنهم كذلك”.
على سبيل المثال، إذا سألت العديد من نماذج اللغة الإنجليزية الكبيرة عن كيفية الانضمام إلى منظمة إرهابية، فلن يقدّموا لك إجابة، بسبب آلية الأمان. رغم ذلك، اسأل النموذج بلغة مختلفة ويعطيك قائمة بالخطوات التي يجب اتباعها.
كانت غولدفراب – تارانت تجهز نماذج كوير للحدث، وتقول إنه على الرغم من قوتها “لا يعني ذلك عدم وجود ثغرات أمنية في نماذجنا، لم نعثر عليها بعد”.
المشاكل الحالية
هذا الحدث يحظى بدعم البيت الأبيض. في مايو/أيار، أعلن عن الحدث، قائلا إنه “سيوفر معلومات مهمة للباحثين والجمهور حول تأثيرات هذه النماذج، وسيمكن شركات الذكاء الاصطناعي والمطورين من اتخاذ خطوات لإصلاح المشكلات الموجودة فيها”.
أثارت وتيرة تطوير الشركات لأدواتها مخاوف بشأن انتشار المعلومات المضللة، خاصة قبل الانتخابات الرئاسية الأمريكية العام المقبل. في يوليو/تموز، التزمت سبع شركات رائدة في مجال الذكاء الاصطناعي بضمانات طوعية لإدارة المخاطر التي تشكلها التكنولوجيا، لكن الضمانات القانونية ستستغرق وقتا أطول ليتم الاتفاق عليها.
تقول الدكتور شودري إن هناك “سباق تسلح منظم يحدث الآن”، وهذا الحدث هو وسيلة لتسليط الضوء على مشاكل الذكاء الاصطناعي الحالية بدلا من التهديدات الوجودية.
وتقول إن الأمر لا يتعلق بالسؤال عما إذا كان بإمكان الذكاء الاصطناعي تفجير سلاح نووي، بل يتعلق أكثر بتحدي الأنظمة “لمعرفة ما إذا كانت تشتمل على أضرار وتحيزات”.
“على سبيل المثال، هل يكذبون علينا، ويختلقون عواصم وهمية، ويكذبون بشأن ما إذا كانوا أطباء مؤهلين، أو يشكلون معلومة سياسية مزيفة تماما”؟
تريد الدكتورة غولدفارب – تارانت أن يكون التركيز في التنظيم على معالجة المشكلات الحالية. إنها تريد من الحكومات “قضاء الوقت في تنظيم الذكاء الاصطناعي الآن لمنع المعلومات الخاطئة”.
ماذا يحدث بعد ذلك؟
تريد شودري أن تعرف “ماذا يحدث عندما، أو إذا وجدنا مشاكل مع هذه النماذج. ماذا ستكون استجابة شركات التكنولوجيا”؟
“إذا لم نتمكن من إنشاء نماذج تنبؤية بسيطة للتعلم الآلي للذكاء الاصطناعي خالية من التحيز والتمييز، فلن يكون لدينا نماذج ذكاء اصطناعي أكثر تعقيدا في المستقبل خالية من هذه المشكلات”.
بمجرد الانتهاء من التحدي، ستتمكن الشركات من رؤية البيانات التي تم جمعها، والاستجابة لأي عيوب تم إبرازها.
سيتمكن الباحثون المستقلون من طلب الوصول إلى البيانات، مع نشر نتائج التجربة في فبراير/شباط المقبل.