- خطأ Copilot أدى لمنع جماهير نادي مكابي تل أبيب الإسرائيلي من حضور مباراة أوروبية.
- الشرطة البريطانية اعتمدت على معلومات غير صحيحة من Copilot.
- قائد شرطة الإقليم غيلدفورد اعترف باستخدام الذكاء الاصطناعي دون التحقق من دقة المعلومات.
- الواقعة أثارت نقاشًا حول ضوابط استخدام الذكاء الاصطناعي في الأمن.
كشف تطور أمني وسياسي لافت في بريطانيا عن حجم الإشكاليات المرتبطة باستخدام الذكاء الاصطناعي داخل مؤسسات إنفاذ القانون، بعدما اعترفت شرطة إقليم ويست ميدلاندز بالاعتماد على معلومات غير صحيحة وفرتها أداة مايكروسوفت Copilot، وهو ما ساهم في اتخاذ قرار بمنع جماهير نادي مكابي تل أبيب الإسرائيلي من حضور مباراة أوروبية على الأراضي الإنجليزية.
اعترف قائد شرطة إقليم ويست ميدلاندز، كريغ غيلدفورد، في رسالة رسمية موجهة إلى لجنة برلمانية، بأن جهازه الأمني استخدم أداة مايكروسوفت Copilot خلال إعداد التوصيات الأمنية الخاصة بمباراة جمعت بين مكابي تل أبيب وأستون فيلا ضمن منافسات الدوري الأوروبي، وأن الأداة قدمت معلومات غير صحيحة لم ينتبه إليها الضباط في حينه.
تفاصيل المباراة الوهمية
أوضح غيلدفورد أن الأداة أنشأت تفاصيل وهمية عن مباراة مزعومة بين مكابي تل أبيب ونادي وست هام يونايتد، وهي مباراة لم تحدث على الإطلاق، ورغم ذلك جرى التعامل مع هذه المعلومات على أنها وقائع حقيقية ساهمت في تقييم المخاطر الأمنية المرتبطة بالمباراة الأوروبية التي أقيمت في السادس من نوفمبر.
أدى هذا الخطأ إلى اتخاذ قرار أمني بمنع جماهير مكابي تل أبيب من دخول ملعب أستون فيلا، وهو قرار أثار موجة من الجدل داخل المملكة المتحدة، ووصل صداه إلى مكتب رئيس الوزراء البريطاني كير ستارمر، الذي واجه ضغوطًا متزايدة لشرح ملابسات الواقعة.
سلطت الحادثة الضوء على إشكالية التوسع السريع في استخدام أدوات الذكاء الاصطناعي داخل المؤسسات العامة، خصوصًا في القطاعات الأمنية، حيث تبرز الحاجة إلى التحقق البشري الدقيق من مخرجات هذه الأنظمة قبل اعتمادها كأساس لاتخاذ قرارات مصيرية.
أعلنت شركة مايكروسوفت من جانبها أنها لم تتمكن من إعادة إنتاج النتائج التي قال غيلدفورد إن الشرطة حصلت عليها عبر Copilot، مشيرة إلى أن الأداة تجمع المعلومات من مصادر متعددة على الإنترنت وتعرضها مصحوبة بروابط مرجعية، مع تنبيه المستخدمين إلى أنهم يتعاملون مع نظام ذكاء اصطناعي يتطلب مراجعة المصادر وعدم الاعتماد الأعمى على نتائجه.
أكد متحدث باسم الشركة أن Copilot صُمم ليكون أداة مساعدة وليست بديلًا عن التحقق البشري، وأنه يشجع المستخدمين دائمًا على مراجعة البيانات الأصلية قبل اتخاذ أي قرارات مبنية على محتواه.
كشف غيلدفورد في رسالته أيضًا عن خطأ آخر، تمثل في تقديمه شهادة سابقة إلى اللجنة البرلمانية أفاد فيها بأن الذكاء الاصطناعي لم يُستخدم في إعداد التوصيات الأمنية، موضحًا أنه اعتقد حينها أن المعلومات الخاطئة جاءت نتيجة بحث تقليدي عبر محرك جوجل، وليس عبر أداة ذكاء اصطناعي.
تداعيات الاعتماد المفرط على Copilot
اعتذر المسؤول الأمني للجنة البرلمانية عن هذا التضليل غير المقصود، موضحًا أن اعتقاده السابق استند إلى معلومات تلقاها من داخل الجهاز، وأنه لم تكن هناك نية لتقديم معلومات غير دقيقة إلى البرلمان.
أعلنت وزيرة الداخلية البريطانية شابانا محمود لاحقًا أمام البرلمان فقدانها الثقة في غيلدفورد، في تطور سياسي لافت يعكس حجم الحساسية التي اكتسبتها القضية، خاصة في ظل الجدل المتصاعد حول استخدام التكنولوجيا داخل أجهزة إنفاذ القانون.
نشرت هيئة الإذاعة البريطانية BBC تفاصيل إضافية أفادت بنشر أكثر من 700 ضابط شرطة لتأمين محيط المباراة، وسط احتجاجات متعددة وقعت خارج الملعب، في وقت صنفت فيه شرطة ويست ميدلاندز المواجهة على أنها عالية الخطورة.
استندت الشرطة في تبريرها الأولي للقرار إلى معلومات استخباراتية حالية وحوادث سابقة، تضمنت اشتباكات وأعمال عنف وقعت خلال مباراة أخرى شارك فيها مكابي تل أبيب في أمستردام خلال العام السابق، وهي معطيات جرى دمجها مع المعلومات الخاطئة التي قدمتها أداة الذكاء الاصطناعي.
أبرزت هذه الواقعة التحديات المعقدة التي تواجهها المؤسسات الأمنية عند دمج أدوات الذكاء الاصطناعي في عمليات التقييم واتخاذ القرار، حيث يمكن لخطأ تقني واحد أن يؤدي إلى تداعيات سياسية وقانونية واجتماعية واسعة.
كما جددت القضية النقاش داخل بريطانيا حول أُطر المساءلة والحوكمة المرتبطة باستخدام الذكاء الاصطناعي في القطاع العام، مع مطالب متزايدة بوضع معايير واضحة للتدقيق والمراجعة، تضمن بقاء القرار النهائي بيد العنصر البشري المُدرب.
تشكل الحادثة في مجملها تحذيرًا من الاعتماد المفرط على تقنيات الذكاء الاصطناعي مثل Copilot في القرارات الأمنية، حيث يمكن لمعلومة خاطئة أن تؤثر على التقديرات الميدانية وتؤدي إلى اتخاذ إجراءات واسعة النطاق، ما يبرز الحاجة لتدقيق المخرجات ومراجعتها قبل إصدار أي قرار.