يثير اعتماد السلطات البريطانية على الذكاء الاصطناعي في معالجة طلبات اللجوء مخاوف واسعة في صفوف الجمعيات المدافعة عن حقوق المهاجرين. وتشير هذه الجمعيات إلى أن وزارة الداخلية أصبحت تعتمد بشكل متزايد على أدوات الذكاء الاصطناعي لفرز طلبات اللجوء، ما يثير تساؤلات حول مدى عدالة وشفافية هذه العمليات.
تستخدم وزارة الداخلية البريطانية أدوات الذكاء الاصطناعي للحسم في ملفات اللجوء، لكن البرنامج الذي أثار حفيظة المجتمع المدني على وجه الخصوص يُعرف باسم “تعريف وتحديد الأولويات” (Identify and Prioritise Immigration Cases)، ويهدف إلى تسهيل اتخاذ بعض القرارات المتعلقة بملفات المهاجرين وطالبي اللجوء، سواء كانوا بالغين أو أطفالا.
وقد عبر نشطاء حقوقيين عن قلقهم من أن هذه الأداة، التي بدأت وزارة الداخلية البريطانية استخدامها في عام 2020، قد تؤدي إلى اتخاذ قرارات آلية غير عادلة في ملفات طالبي اللجوء، حيث يمكن للمسؤولين أن يوافقوا على التوصيات الصادرة عن الخوارزمية دون تقييم دقيق لكل حالة على حدة.
كيف يتم استعمال الخوارزميات في معالجة ملفات اللجوء ؟
تناولت منظمة “خصوصية دولية” أو “برايفسي إنترناشيونال” (Privacy International) الموضوع، حيث أصدرت خلال شهر أكتوبر/تشرين الأول الماضي تقريرا بعنوان “أتمتة البيئة المعادية: خوارزمية سرية لوزارة الداخلية في قلب عملية اتخاذ القرار بشأن الهجرة”.
وأوضحت المنظمة أن هذا البرنامج يعتمد على خوارزمية “تقدم نصائح” للسلطات المعنية، من خلال تقديم توصيات تساعد في اتخاذ قرارات تتعلق بالمهاجرين.
ووفقا للوثائق التي حصلت عليها “برايفسي إنترناشيونال”، تقوم الأداة بتحليل مجموعة واسعة من البيانات المتعلقة بالمهاجرين، بما في ذلك المعلومات البيومترية والحالة الصحية والعرق والسجل الجنائي، لتصدر بعدها توصيات بشأن ما إذا كان ينبغي الإبقاء على ملف الشخص أو إبعاده من إجراءات اللجوء.
كما أشارت المنظمة إلى أنها لم تتمكن من الحصول على معلومات حول هذه الأداة إلا بعد عام كامل من تقديم طلب رسمي للسلطات، بموجب قانون حرية المعلومات البريطاني.
وفي ظل تزايد أعداد طالبي اللجوء، يهدف استعمال الذكاء الاصطناعي إلى تطوير “طريقة أكثر سهولة وسرعة وفعالية في تنفيذ قوانين الهجرة، بهدف تحديد الأولويات وتنسيق الخدمات والتدخلات اللازمة لإدارة عبء العمل المرتبط بها”، كما ورد في الوثائق الرسمية التي حصلت عليها “برايفسي إنترناشيونال”.
من جانبه، أشار بيتر كايل، وزير الدولة للعلوم والتكنولوجيا، إلى أن الذكاء الاصطناعي يمتلك “إمكانات هائلة لتحسين خدماتنا العامة”. ولكنه شدد في الوقت ذاته على أهمية بناء الثقة في هذه الأنظمة لضمان الاستفادة القصوى من قدراتها.
ورغم أن الحكومة تصف النظام بأنه “قائم على القواعد” وليس نظامًا يعتمد على الذكاء الاصطناعي فقط، إلا أن النشطاء يعربون عن قلقهم من أن أي استخدام للخوارزميات في اتخاذ القرارات المصيرية قد يؤدي إلى “ترميز الظلم”.
وعبرت المنظمات الحقوقية، بما في ذلك منظمة “خصوصية دولية”، عن قلقها من أن المهاجرين وطالبي اللجوء “لا يتم إعلامهم بدور الذكاء الاصطناعي في معالجة قضاياهم”، مما يحد من قدرتهم على الطعن في القرارات الصادرة بحقهم.
من جانبه، أشار جوناه ميندلسون، المحامي في المنظمة، إلى أنه لا يوجد حاليا أي وسيلة للمهاجرين لمعرفة كيفية استخدام هذه الأداة في قضاياهم، أو ما إذا كانت تعرضهم لخطر إجراءات تنفيذية غير صحيحة.
وفي نفس السياق، أشارت المنظمة إلى أن الخوارزمية تقدم توصيات تهدف إلى مساعدة موظفي الهجرة، إلا أن الضغوط الناتجة عن حجم الطلبات الكبير تجعل من السهل اتباع هذه التوصيات دون التدقيق الكافي في الحالات الفردية.
وفي حال قرر المسؤول رفض التوصية، يُطالب بتقديم تفسير كتابي مفصل، بينما لا يتطلب قبول قرارات الخوارزمية أي تفسير، مما يجعل القبول التلقائي للتوصيات أسهل بكثير.
دعوات لتعليق استخدام الذكاء الاصطناعي في اتخاذ قرارات مصيرية
من جهة أخرى، أعربت فزة قريشي المديرة التنفيذية لشبكة حقوق المهاجرين (Migrants’ Rights Network)، في تصريحات لصحيفة “ذا غارديان” البريطانية، عن مخاوفها من أن هذا النظام قد يفضي إلى تحيز عرقي، بالنظر إلى أن الذكاء الاصطناعي يعتمد على بيانات منتشرة بشكل واسع وقد تكون منحازة في الأساس.
وأضافت أن ذلك قد يؤدي أيضا إلى زيادة المراقبة على المهاجرين، مما يهدد خصوصيتهم نتيجة لتبادل البيانات الواسع بين مختلف الأجهزة الحكومية.
وتجدر الإشارة إلى أن عدة دول من الاتحاد الأوروبي تعتمد أيضا على الذكاء الاصطناعي في مجال الهجرة. وقد دعت منظمة العفو الدولية دول التكتل إلى تنظيم استخدام هذه الأدوات واتخاذ مواقف حازمة لحظر الأنظمة التي تعتمد على التمييز العنصري والتحيز ضد المهاجرين والفئات المهمشة.