أعلنت شركة مايكروسوفت أنها ستدفع للمستخدمين جوائز كبيرة، إذا تمكنوا من التفوق على منتجات الذكاء الاصطناعي الخاصة بها أو وجدوا فيها أي ثغرة.
وسيتم منح المستخدمين القادرين على كشف أي ثغرات أمنية مبلغاً يتراوح بين 2000 إلى 15000 دولار بناءً على مدى أهمية الخطأ.
وفي خطوة جريئة، كشفت شركة مايكروسوفت عن مبادرة رائدة لتعزيز أمن منتجات الذكاء الاصطناعي الخاصة بـ بينغ، مما يشكل تحدياً للمبدعين في مجال التكنولوجيا للكشف عن نقاط الضعف المحتملة في إطار عمل الذكاء الاصطناعي.
وفي تحديث مدونة جديد، قدمت الشركة العملاقة برنامجاً جديداً يسمى “مكافأة الأخطاء” يلتزم بمكافأة الباحثين الأمنيين بمكافآت تتراوح من 2000 دولار إلى 15000 دولار لتحديد “نقاط الضعف” في مجموعة بينغ للذكاء الاصطناعي.
وتدور نقاط الضعف هذه في المقام الأول حول مطالبات تقنع الذكاء الاصطناعي لتوليد استجابات تبتعد عن الحواجز الأخلاقية التي تهدف إلى حظر المحتوى المتعصب أو المثير للمشاكل.
وللمشاركة في هذا البرنامج، يجب على مستخدمي بينغ تنبيه مايكروسوفت إلى الثغرات الأمنية التي لم يتم الكشف عنها مسبقاً، وفقاً للمعايير المحددة للشركة، والمصنفة إما على أنها “مهمة” أو “حرجة” للأمان. ويجب أن يكون الباحثون أيضاً قادرين على تكرار نقاط الضعف هذه من خلال عروض الفيديو أو الوثائق المكتوبة.
وتعتمد مبالغ المكافآت على مدى خطورة وجودة المشكلات التي تم الإبلاغ عنها، حيث تحصل نقاط الضعف الأكثر خطورة المصحوبة بوثائق شاملة على أعلى المكافآت. ويمثل هذا فرصة مثيرة للاهتمام لعشاق الذكاء الاصطناعي لتحويل خبراتهم إلى مرابح مادية.
وبغض النظر عن توقيت هذه المبادرة، فمن المثير للاهتمام أن مايكروسوفت اختارت الاستعانة بمصادر خارجية لأبحاث الثغرات الأمنية. ومع ذلك، وبالنظر إلى الحجم الهائل لصفقاتها التجارية، فإن الحد الأقصى للمكافأة البالغة 15000 دولار يعتبر ضئيلاً بالمقارنة مع هذه الصفقات.
وتؤكد هذه المبادرة على تفاني مايكروسوفت في تعزيز الأمن والسلامة الأخلاقية لمنتجات الذكاء الاصطناعي الخاصة بها، وتوضح التزامها بالاستجابات الاستباقية في مجال الذكاء الاصطناعي، بحسب موقع فيرست بوست.