تكنولوجيا

شركات التكنولوجيا تكافح تهديداً عالمياً لـ الأمن السيبراني

 تعكف شركات التكنولوجيا على إيجاد حلول لمكافحة التزييف العميق ومقاطع الفيديو المزيفة والأصوات المفبركة التي ساهم الذكاء الاصطناعي في انتشارها، ويستغلها البعض للقيام بعمليات احتيال في مختلف المجالات.

ووفقاً لتقرير أعدته وكالة “فرانس برس”، تسمع لوريل عن طريق اتصال هاتفي صوت والدتها ديبي دودكين “هذه أنا لقد تعرضت لحادث”، معلِمَةً اياها بأنها في المستشفى.

فما كان من المرأة إلا أن أغلقت الخط واتصلت بوالدتها التي كانت في الواقع موجودة في مكتبها غير مصابة بأي أذى. لحسن الحظ، كانت لوريل موجودة في منزل جدتها روثي (93 عاماً)، التي تلقت المكالمة الهاتفية في محاولة لإيقاعها بعملية احتيال يبدو أنها كانت الهدف من الاتصال.

وتقول ديبي التي تعيش في كاليفورنيا، في حديث عبر وكالة “فرانس برس”، إنّ المحاولات من هذا النوع “تحدث يومياً. قد يكون الذكاء الاصطناعي خطراً جداً”.

وانتشرت تقنية التزييف العميق على شبكات التواصل الاجتماعي من خلال تركيب مقاطع مفبركة لشخصيات أحياناً لأغراض التضليل، كما يتم الاستعانة بها أيضاً من عصابات الجريمة المنظمة.

وفي أوائل شباط/ فبراير الماضي، أعلنت شرطة هونغ كونغ أنّ موظفاً في شركة متعددة الجنسيات جرى إقناعه بتحويل 200 مليون دولار محلي في هونغ كونغ (25 مليون دولار أميركي) إلى محتالين نظموا مؤتمراً عبر الفيديو مع صور رمزية (أفاتار) بحجم فعلي قائمة على الذكاء الاصطناعي لعدد كبير من زملائه.

وتبيّن دراسة نشرتها في شباط/ فبراير الماضي شركة “آي بوم” الناشئة المتخصصة في رصد عمليات التزييف، أن 0,1% فقط من الأميركيين والبريطانيين الذين خضعوا للاختبار تمكّنوا من أن يحددوا بشكل صحيح صورة أو مقطع فيديو مزيّفاً.

ويقول رئيس “بيندروب سكيوريتي” المتخصصة في التحقق الصوتي، فيجاي بالاسوبرامانيان “قبل أقل من عشر سنوات، ما كان هناك سوى أداة واحدة لتوليد صوت من خلال الذكاء الاصطناعي، اما اليوم فثمة 490 أداة”.

وقد بدّل انتشار الذكاء الاصطناعي التوليدي الوضع.

ويضيف “في السابق، كان ابتكار تسجيل صوتي يستغرق 20 ساعة (من التسجيلات). أما اليوم، فباتت هذه المهمة تحتاج إلى خمس ثوان”.

وثمة جهات كثيرة توفّر للشركات القدرة على رصد المحتوى المزيف بالذكاء الاصطناعي في الوقت الفعلي، سواء في المقاطع الصوتية أو الفيديو، مثل “رياليتي ديفندر” و”إنتل”.

وتستخدم “إنتل” تغيرات اللون في الأوعية الدموية للوجه (تصوير التحجم الضوئي) في أداتها “فايك كاتشر”، بينما يقسم “بيندروب” كل ثانية من المقطع الصوتي إلى ثمانية آلاف مقتطف ويقارنها بخصائص الصوت البشري.

ويقول رئيس شركة “أتيستيف”، نيكوس فيكياريدس “مثل أي شركة للأمن السيبراني، ينبغي دائما البقاء على اطلاع”، مضيفاً “في البداية، كنّا نرى أشخاصاً مع يد بستة أصابع، ولكن مع التقدم في التكنولوجيا، تزداد صعوبة رصد التزييف بالعين المجردة”.

وقد قلّلت بعض المنشورات العلمية من فعالية أنظمة الكشف هذه، لكنّ دراسات جامعية كثيرة سلطت الضوء أيضاً على معدلات الكشف المرتفعة.

وبالنسبة إلى فيجاي بالاسوبرامانيان، سيتعين في النهاية على كل الشركات أن تتزوّد ببرنامج رصد المحتوى المولَّد بالذكاء الاصطناعي.

وبعيداً عن قطاعي المال والتأمين اللذين يعتبران من الضحايا التقليديين لعمليات الاحتيال، فإن ذلك “أصبح يشكل تهديداً عالمياً للأمن السيبراني”، بحسب نيكوس فيكياريدس.

ويقول “يمكن لأي شركة أن ترى سمعتها مشوهة بسبب التزييف العميق أو أن تكون مستهدفة بهذه الهجمات المعقدة”.

ويؤكد بالاسوبرامانيان أن زيادة معدّل العمل من بعد تعزز من مخاطر انتحال الهوية.

ومن الممكن أن يتّسع نطاق هذه العمليات ليصل إلى عامة الناس وخصوصاً كبار السن، تحت تهديد المكالمات المفبركة.

في كانون الثاني/ يناير الماضي، عرضت الشركة المصنعة الصينية “هونور” هاتفها الذكي الجديد “ماجيك 7″، القادر على الكشف والإبلاغ في الوقت الفعلي عن أن المحاور يستخدم الذكاء الاصطناعي خلال اتصال بالفيديو.

وفي نهاية عام 2024، أطلقت الشركة البريطانية الناشئة “سورف سيكيوريتي” متصفّحاً عبر الإنترنت مخصصاً حالياً للشركات فقط، قادراً على تنبيه المستخدم عندما يكون الصوت أو الفيديو مولّداً بواسطة الذكاء الاصطناعي.

وتشير “اتيستيف” إلى أنّ لديها آلاف المستخدمين الفرديين للنسخة المجانية.

ويرى الأستاذ في علوم الكمبيوتر لدى جامعة بوفالو الحكومية بولاية نيويورك، سيوي ليو، أن “التزييف العميق سيصبح مثل البريد العشوائي”، الذي شكّل مصدر إزعاج كبير لمستخدمي الإنترنت الأوائل لكنه بات حالياً تحت السيطرة تقريباً، بفضل كفاءة برامج فرز البريد الإلكتروني.

ويقول بالاسوبرامانيان “لقد شوّش الذكاء الاصطناعي التوليدي الخط الفاصل بين الإنسان والآلة”، مضيفاً “الشركات التي تنجح في إعادة ترسيخ هذا الفصل ستصبح ضخمة”، وستبلغ قيمة هذه السوق “مليارات” الدولارات.

زر الذهاب إلى الأعلى