خوارزمية اقتصاص الصور على تويتر تفضل الشابات النحيلات

قال موقع تويتر إنه سيتوقف عن استخدام خوارزمية ذكاء اصطناعي وجد أنها تفضل الوجوه البيضاء والأنثوية عند اقتصاص الصور تلقائياً. واليوم أظهرت مسابقة استثنائية لفحص برنامج الذكاء الاصطناعي من حيث التحيز أن نفس الخوارزمية التي تحدد أهم مناطق الصورة، تميز أيضاً حسب العمر والوزن وتفضل النص باللغة الإنجليزية عن اللغات الأخرى.

ويُظهر أسلوب الإدخال الأعلى، الذي ساهم به بوجدان كولينيتش، طالب دراسات عليا في أمن الكمبيوتر في معهد لوزان الاتحادي للفنون التطبيقية في سويسرا، كيف تفضل خوارزمية اقتصاص الصور في تويتر الأشخاص النحيلين وصغار السن، حيث استخدم كولينيتش تقنية التزييف العميق deepfake لإنشاء وجوه مختلفة تلقائياً، ثم اختبر خوارزمية الاقتصاص لمعرفة كيفية استجابتها.

وذكر باتريك هول، العالم الرئيسي في شركة BNH، وأحد الحكام المشاركين في المسابقة لموقع wired أنه: «أساساً، كلما كانت الصورة نحيفة وشابة وأنثوية، زاد تفضيلها».

كما أفادت الحكم الثاني، أرييل هربرت فوس، الباحثة الأمنية في أوبن إيه آي، بأن التحيزات التي وجدها المشاركون تعكس تحيزات البشر الذين قدموا البيانات المستخدمة لتدريب النموذج. لكنها تضيف أن الإدخالات توضح كيف يمكن لتحليل شامل للخوارزمية أن يساعد في القضاء على تحيزات نماذج الذكاء الاصطناعي المختلفة.

ويشير «تحدي إصلاح انحياز الخوارزمية»، الذي أطلق الأسبوع الماضي في مؤتمر ديفكون Defcon، وهو مؤتمر لأمن الكمبيوتر في لاس فيغاس، إلى أن السماح للباحثين بفحص الخوارزميات بحثاً عن التحيز قد يساعد الشركات على استئصال المشكلات قبل أن تتسبب بوقوع ضرر حقيقي.

ويعتقد بعض خبراء الذكاء الاصطناعي أن على الشركات منح الغرباء إمكانية الوصول إلى الخوارزميات والبيانات التي يستخدمونها لتحديد المشكلات.

في سبتمبر، لفت طالب كندي الانتباه إلى الطريقة التي تتبعها خوارزمية تويتر في اقتصاص الصور. حيث إن الخوارزمية غالباً ما فضلت الوجوه البيضاء والنساء في الصور التي يظهر فيها العديد من الأشخاص. وسرعان ما وجد مستكشفو تويتر أمثلة أخرى للتحيز الذي يظهر التحيز العنصري والجنسي.

في مسابقة المكافآت التي جرت الأسبوع الماضي، جعل تويتر رمز خوارزمية اقتصاص الصور متاحاً للمشاركين، وقدم جوائز للفرق التي أظهرت أدلة على وجود سلوكيات ضارة أخرى. فأظهر أحدهم أن الخوارزمية كانت متحيزة ضد الأشخاص ذوي الشعر الأبيض. في حين كشف آخر أن الخوارزمية تفضل النص اللاتيني على النص العربي.

أثيرت في السنوات القليلة الماضية، ضجة كبيرة حول الذكاء الاصطناعي من خلال أمثلة على مدى سهولة تحيز الخوارزميات. وثبت أن خوارزميات التعرف على الوجه تميز على أساس العرق والجنس، ووُجد أن رمز معالجة الصور يعرض أفكاراً متحيزة ضد المرأة، واتضح أن البرنامج الذي يحكم على احتمالية إعادة الشخص للإجرام متحيز ضد المتهمين السود.

ويثير ذلك قضايا تتعلق بإجبار الشركات على التدقيق في خوارزمياتها، وحتى اليوم لا توجد سوى جهود محدودة للحد من تحيز برامج الذكاء الاصطناعي. فعلى سبيل المثال، اقترحت مدينة نيويورك مطالبة أصحاب العمل بالكشف عن استخدامهم للذكاء الاصطناعي لفحص المرشحين للوظائف وفحص برامجهم بحثاً عن التحيز. كما اقترح الاتحاد الأوروبي أيضاً فرض لوائح شاملة تطالب بالتدقيق في خوارزميات الذكاء الاصطناعي.

وفي أبريل 2020، دعت لجنة التجارة الفيدرالية الشركات إلى إطلاع العملاء على كيفية تأثير نماذج الذكاء الاصطناعي عليهم؛ وبعد عام، أشارت إلى أنها «ستحاسب الشركات» إذا فشلت في الكشف عن استخدامات الذكاء الاصطناعي وتخفيف التحيز.

 

 

Exit mobile version