مايكروسوفت تكشف عن أدوات أمان للذكاء الاصطناعي
قالت سارة بيرد، كبيرة مسؤولي منتجات الذكاء الاصطناعي المسؤول في مايكروسوفت، إن فريقها صمم العديد من مزايا الأمان الجديدة التي من السهل استخدامها لعملاء Azure الذين لا يختبرون خدمات الذكاء الاصطناعي التي بنوها.
وتقول عملاقة البرمجيات إن هذه الأدوات العاملة بالنماذج اللغوية الكبيرة يمكنها اكتشاف نقاط الضعف المحتملة، ومراقبة الهلوسة المقبولة، وحظر المطالبات الضارة في الوقت الفعلي لعملاء Azure AI الذين يعملون مع أي نموذج مستضاف عبر المنصة.
وتساعد الأدوات في تجنب الخلافات بخصوص الذكاء الاصطناعي التوليدي الناجمة عن الاستجابات غير المرغوب فيها أو غير المقصودة، مثل الاستجابات التي تتضمن صورًا مزيفة صريحة للمشاهير، أو الصور غير الدقيقة تاريخيًا.
وتوفر الأدوات ثلاث مزايا متاحة الآن للمعاينة عبر Azure AI، وهي:
Prompt Shields: التي تحظر عمليات الحقن الفوري أو المطالبات الضارة من المستندات الخارجية التي ترشد النماذج إلى مخالفة تدريبها.
Groundedness Detection: التي تكتشف الهلوسة وتمنعها.
Safety Evaluations: التي تقيم نقاط الضعف في النموذج.
وتتوفر قريبًا ميزتان أخريان لتوجيه النماذج نحو مخرجات آمنة ومطالبات التتبع للإبلاغ عن المستخدمين الذين قد يتسببون في مشكلات.
وسواء كان المستخدم يكتب في موجه أو إذا كان النموذج يعالج بيانات جهة خارجية، فإن نظام المراقبة يقيمها لمعرفة إذا كانت تؤدي إلى أي كلمات محظورة أو تحتوي مطالبات مخفية قبل أن يقرر إرسالها إلى النموذج للإجابة.
كما يفحص النظام بعد ذلك استجابة النموذج والتحقق من كون النموذج قد هلوس بمعلومات غير موجودة في المستند أو المطالبة.
وتعترف بيرد بوجود مخاوف من أن مايكروسوفت والشركات الأخرى قد تقرر ما هو مناسب أو غير مناسب لنماذج الذكاء الاصطناعي، لذلك أضاف فريقها طريقة يمكن لعملاء Azure من خلالها تبديل تصفية خطاب الكراهية أو العنف الذي يراه النموذج ويحظره.
كما يمكن لمستخدمي Azure في المستقبل الحصول على تقرير بالمستخدمين الذين يحاولون تشغيل مخرجات غير آمنة.
وترتبط أدوات الأمان مباشرة بالنموذج اللغوي الكبير GPT-4 والنماذج الشائعة الأخرى، مثل Llama 2.
وتتجه مايكروسوفت إلى الذكاء الاصطناعي لتعزيز سلامة وأمان برامجها، وخاصة مع تزايد اهتمام العملاء باستخدام Azure للوصول إلى نماذج الذكاء الاصطناعي.