يرغب عدد متزايد من شركات الذكاء الاصطناعي بوادي السيليكون في ممارسة الأعمال التجارية مع الجيش، مدعين أن الوقت والجهد اللذين بذلوهما في تدريب الشبكات العصبية الكبيرة على كميات هائلة من البيانات، يمكن أن يوفّرا للجيش قدرات جديدة.
ثنائية الاستخدام تهدّد حياة الأبرياء
إلا أن دراسة صدرت الثلاثاء من مجموعة من علماء الذكاء الاصطناعي البارزين تزعم أن أدوات الذكاء الاصطناعي ثنائية الاستخدام من شأنها أن تزيد من احتمالات أن يصبح المدنيون الأبرياء أهدافاً بسبب البيانات السيئة – كما أن هذه الأدوات يمكن أن يستغلها الخصوم بسهولة: كما كتب باتريك تاكر(*).
وفي الدراسة التي نشرها معهد «إيه آي ناو» AI Now، يشير مؤلفوها :هايدي خلف وسارة مايرز ويست وميريديث ويتاكر، إلى الاهتمام المتزايد بنماذج الذكاء الاصطناعي التجارية – التي تسمى أحياناً نماذج الأساس – للأغراض العسكرية، وخصوصاً للاستخبارات والمراقبة ورصد الأهداف والاستطلاع.
مخاطر لا يمكن تقديرها
ويقول الباحثون إنه في حين تهيمن المخاوف بشأن إمكانات الذكاء الاصطناعي في الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية على المحادثة، فإن نماذج الأساس التجارية الكبيرة تشكّل بالفعل مخاطر «لا يمكن تقديرها» على المدنيين.
إن بعض الشركات التي تقترح نظم الذكاء الاصطناعي القائم على نموذج الأساس للجيش «تقترح نماذج تجارية تم تدريبها مسبقاً على مجموعة من البيانات التجارية… إنها ليست نماذج تجارية حصرية للجيش تم تدريبها بشكل بحت على البيانات العسكرية»، كما قالت خلف لمجلة «ديفنس وان».
تكمن المشكلة في كيفية تدريب نماذج الأساس هذه: على كميات كبيرة من البيانات المتاحة للجمهور، وغالباً ما تتضمن البيانات الشخصية التي شقت طريقها إلى الويب عبر وسطاء البيانات أو مواقع الويب والخدمات العادية.
أما ويتاكر، التي تشغل حالياً منصب رئيس مؤسسة Signal Foundation، فقالت إن «البيانات هي القضية الأساسية هنا. إنها تسبب قدراً هائلاً من المخاوف والثغرات الأمنية، ولا يتم وضعها في الحسبان عندما نتحدث عن أشياء مثل إمكانية التتبع على نطاق واسع».
أنماط واستقراءات غير مضبوطة
لا تستخدم هذه الشبكات العصبية المنطق كما يفعل الإنسان. وقد أظهرت أبحاث أخرى أنها تقوم بشكل أساسي بمطابقة الأنماط على نطاق واسع، وإيجاد مجموعات من الكلمات لإنشاء استقراءات سليمة إحصائياً لما قد يأتي بعد ذلك، أو أخذ نقاط البيانات لملايين الأفراد ورسم روابط الارتباط بين تلك النقاط (على عكس الروابط السببية).
وتعمل نماذج الأساس بشكل جيد في السيناريوهات، حيث تكون تكلفة النتائج الإيجابية الكاذبة false positives، منخفضة، مثل محاولة التوصل إلى نقاط مثيرة للاهتمام لورقة بحثية أو قائمة بالأشخاص لتسويق منتج لهم.
لكن، وعند تطبيقها على السياقات العسكرية – على وجه التحديد مهمة مراقبة السكان بحثاً عن أهداف محتملة – يمكن أن تكون تكلفة النتائج الإيجابية الكاذبة، حياة بريئة.
جيش إسرائيل والذكاء الاصطناعي
بعض الجيوش، مثل جيش إسرائيل، يستخدم بالفعل من خلال برامجه Where’s Daddy وLavender، نماذج الأساس التي تستخلص الأنماط لتجميع قوائم الأهداف. ويقول واضعو الدراسة إن هذا يساهم في تطبيع هذه الأدوات للاستهداف في الحرب. ووجد تقرير من المصدر الإعلامي +972 ومقرّه إسرائيل أن معدل الخطأ في Lavender وحده كان قريباً من 10 في المائة.
في حديثها عن استخدام إسرائيل الذكاء الاصطناعي في عملياتها في غزة (وخارجها)، قالت خلف: «نحن نرى… بيانات تُسحب من تطبيق (واتساب)، بيانات وصفية، أليس كذلك؟ نحن نرى بيانات تُسحب من (صور غوغل) ومصادر أخرى، بالطبع، والتي لا نعرف عنها شيئاً ولم نعطها حقاً. لذا؛ فإن البيانات غير دقيقة و(النماذج) تحاول نوعاً ما العثور على أنماط قد لا تكون موجودة، مثل أن تكون في مجموعة (واتساب) مع… عضو في (حماس)… وهذا لا ينبغي أن يؤهلك لعقوبة (الإعدام). لكن في هذه الحالة، هذا ما نلاحظه (يحدث)».
مراقبة مجموعات سكانية
وقالت ويتاكر إن هذه الأدوات الإسرائيلية تعمل على أساس «مراقبة مجموعة سكانية معينة، أليس كذلك؟ أحد الأسباب التي تجعل أوكرانيا غير قادرة على تنفيذ أنظمة بخصائص (لافندر) و(أين دادي) هو أنها لا تمتلك بيانات مراقبة دقيقة للغاية على مستوى السكان، أي على سبيل المثال، كل سكان روسيا. لذا؛ يتجسد هنا دور المعلومات الشخصية في إعلام الأنظمة التي تستخدم نماذج البيانات هذه».
أخلاقيات الذكاء الاصطناعي
وهذه المشكلة هي أحد الأسباب التي تجعل وزارة الدفاع تؤكد على «إمكانية تتبع البيانات» في مبادئ أخلاقيات الذكاء الاصطناعي.
وكما ذكرت مجلة «ديفينس ون» سابقاً، فإن قائمة مبادئ الذكاء الاصطناعي لوزارة الدفاع أكثر تفصيلاً وتحديداً من المبادئ التوجيهية الأخلاقية المماثلة للذكاء الاصطناعي من شركات وادي السليكون. لكنها أيضاً إطار تطوعي، وقد أعطت وزارة الدفاع نفسها حلولاً بديلة.
يزعم مؤلفو الدراسة أن الإطار الأخلاقي الذي تبناه المرء بنفسه لا يحمي المدنيين من نماذج الذكاء الاصطناعي التجارية التي يتم تدريبها على البيانات الشخصية، خصوصاً عندما تبدو الحكومة على استعداد لمنح استثناءات لأدوات الذكاء الاصطناعي التجارية.
وقالت ويست: «لقد رأينا هذا الميل، كما تعلمون، حتى مثل تقديم برنامج RAMP السريع التابع لمجلس الاحتياطي الفيدرالي من أجل تعزيز التبني السريع لحالات استخدام الذكاء الاصطناعي التوليدي، وإنشاء هذه الاستثناءات، وهذا هو السبب في أن هذه الأطر الطوعية والمبادئ من الدرجة الأعلى غير كافية، وخصوصاً عندما نتعامل مع استخدامات تشكل مخاطر حياة أو موت، وحيث تكون العواقب على المدنيين كبيرة جداً».
حتى كبير مسؤولي المعلومات في البحرية الأميركية، جين راثبون، كان قد قال إن نماذج الأساس التجارية «غير موصى بها لحالات الاستخدام التشغيلية» لنظم الذكاء الاصطناعي.
التلاعب بالبيانات والهجمات المسمومة
كما يزعم واضعو الدراسة أن اعتماد هذه النماذج من قِبل وزارة الدفاع من شأنه أيضاً أن يُدخل نقاط ضعف في العمليات، حيث يمكن التلاعب بالبيانات المتاحة للجمهور أو التلاعب بها من قبل الخصوم.
«إن الاستخدام الشامل وغير المقيد لمجموعات البيانات على نطاق الويب لتدريب نماذج الأساس التجارية أدى إلى استغلال واستخدام الكثير من السبل التي تسمح للجهات الفاعلة المعادية بتنفيذ هجمات التسميم (التي تضمن ظهور نماذج خبيثة في مجموعات البيانات على نطاق الويب)»، كما يشير البحث.
وهذا يوسع من تداعيات نتائج البحث إلى ما هو أبعد من مسألة الأدوات التي قد تتبناها وزارة الدفاع أو لا تتبناها. في عصر أصبحت فيه مثل هذه الأدوات شائعة بشكل متزايد، أصبحت البيانات الشخصية للمدنيين الأميركيين نقطة ضعف استراتيجية وطنية.
وقال المؤلفون إن الأوامر التنفيذية للبيت الأبيض في عهد بايدن بشأن جمع البيانات الوصفية بالجملة والذكاء الاصطناعي الآمن لا تذهب إلى ما هو أبعد من ذلك لإبعاد بيانات الأميركيين عن أيدي الخصوم المسلحين بنماذج مماثلة.
ومع ذلك، قالت ويتاكر إن توسيع نطاق قوانين الخصوصية الأميركية لتغطية البيانات الشخصية بشكل أكثر فاعلية «قد يكون مفيداً للغاية في الحد من الوصول المعادي إلى نوع البيانات الشخصية التي، أولاً، تُستخدم لتدريب (نماذج اللغة الكبيرة) وثانياً، يمكن استخراجها من خلال أنواع الهجمات، التي لا توجد لها علاجات حالية».