تكنولوجيا

«غوغل» تطرد موظفاً لمس «وعياً ومشاعر» لدى الذكاء الصناعي

طردت شركة «غوغل» أحد مهندسيها الذي يعمل في قسم الذكاء الصناعي، لاقتناعه بأن نظام الذكاء الصناعي للشركة «لديه مشاعر».

أعلن بليك ليموين الشهر الماضي عن نظريته القائلة بأن «تقنية (غوغل) اللغوية حساسة ويجب احترام رغباتها».

وفي حين نفت «غوغل» إلى جانب العديد من خبراء الذكاء الصناعي هذه المزاعم، أكدت الشركة أمس (الجمعة) أنه تم إقالة ليموين من منصبه.

مقالات ذات صلة

من جهته، قال ليموين لشبكة «بي بي سي» إنه يحصل على مشورة قانونية بهذا الشأن، رافضاً الإدلاء بمزيد من التعليقات.

وقالت «غوغل» في بيان إن «مزاعم ليموين حول نموذج لغة لتطبيقات الحوار المعروفة باسم (lambda) لا أساس لها من الصحة على الإطلاق. والشركة تعمل معه منذ أشهر عدة لتوضيح هذا الأمر».

وأضافت: «لذلك من المؤسف أنه رغم الانخراط الموصول في هذا الموضوع، لا يزال بليك يختار باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية المعلومات عن المنتج».

وبحسب «غوغل»، «لامدا» هي تقنية متطورة يمكن أن تشارك في محادثات حرة ودردشات باستخدام الذكاء الصناعي، وهي أداة تقنية للشركة متقدمة لبناء روبوتات المحادثة.

وتصدّر ليموين عناوين الصحف الشهر الماضي عندما قال إن «لامدا أظهرت وعياً بشرياً»، وأثار كلامه النقاش بين خبراء الذكاء الصناعي والمتحمسين حول تطوير التكنولوجيا المصممة لتقليد البشر.

وقال ليموين، الذي عمل مع فريق الذكاء الصناعي المسؤول عن «غوغل»، في تصريحات صحافية، إن وظيفته كانت اختبار ما إذا كانت التكنولوجيا تستخدم لغة تمييزية أو بغيضة.

ووفقاً له، «لامدا» أظهرت وعياً ذاتياً ويمكنها إجراء محادثات حول الدين والعواطف والمخاوف. مما دفعه إلى الاعتقاد بأن مهارات «لامدا» اللفظية المثيرة للإعجاب قد تكون أيضاً عقلاً واعياً.

ورفضت «غوغل» النتائج التي توصل إليها وأعطته إجازة مدفوعة الأجر لانتهاكه سياسة السرية للشركة، ليقوم ليموين على الإثر بنشر محادثة أجراها هو وشخص آخر مع «لامدا» لدعم أقواله.

وبحسب «بي بي سي»، ليموين ليس أول مهندس ذكاء صناعي يدعي أن التكنولوجيا أصبحت أكثر وعياً. وفي الشهر الماضي شارك موظف آخر في «غوغل» أفكارا مماثلة مع صحيفة «ذا إكونوميست».

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى