كيف يشوه الذكاء الاصطناعي عملية صنع القرار ويجعل الحكام المستبدين أكثر خطورة؟

في الدوائر السياسية ، تضع المناقشات حول الذكاء الاصطناعي الصين دائمًا في مواجهة الولايات المتحدة في سباق على التفوق التكنولوجي. إذا كان المصدر الرئيسي هو البيانات ، فإن الصين ، بما لديها من أكثر من مليار من المواطنين والحماية المتساهلة ضد مراقبة الدولة ، يبدو أنها مقدر لها الفوز. ادعى كاي فو لي ، عالم الكمبيوتر الشهير ، أن البيانات هي النفط الجديد ، والصين هي أوبك الجديدة. إذا كانت التكنولوجيا الفائقة هي التي توفر الأفضلية ، فإن الولايات المتحدة ، بنظامها الجامعي العالمي والقوى العاملة الموهوبة ، لا يزال لديها فرصة للخروج إلى الأمام. بالنسبة لأي من البلدين ، يفترض الخبراء أن التفوق في الذكاء الاصطناعي سيؤدي بطبيعة الحال إلى تفوق اقتصادي وعسكري أوسع.
لكن التفكير في الذكاء الاصطناعي من منظور السباق على الهيمنة يخطئ الطرق الأكثر جوهرية التي يعمل بها الذكاء الاصطناعي على تغيير السياسة العالمية. لن يغير الذكاء الاصطناعي التنافس بين القوى بقدر ما سيغير المنافسين أنفسهم. الولايات المتحدة ديمقراطية ، في حين أن الصين نظام استبدادي ، والتعلم الآلي يتحدى كل نظام سياسي بطريقته الخاصة. إن التحديات التي تواجه الديمقراطيات مثل الولايات المتحدة واضحة للغاية. قد يزيد التعلم الآلي من الاستقطاب – إعادة هندسة عالم الإنترنت لتعزيز الانقسام السياسي. من المؤكد أنه سيزيد من المعلومات المضللة في المستقبل ، ويولد خطابًا مزيفًا مقنعًا على نطاق واسع. إن التحديات التي تواجه الأنظمة الاستبدادية أكثر دقة ولكنها ربما تكون أكثر تآكلًا. مثلما يعكس التعلم الآلي الانقسامات الديمقراطية ويعززها ، فإنه قد يربك الأنظمة الاستبدادية ، ويخلق مظهرًا زائفًا للإجماع ويخفي الانقسامات المجتمعية الأساسية حتى فوات الأوان.

أدرك رواد الذكاء الاصطناعي الأوائل ، بما في ذلك العالم السياسي هربرت سيمون ، أن تكنولوجيا الذكاء الاصطناعي تشترك مع الأسواق والبيروقراطيات والمؤسسات السياسية أكثر مما تشترك في التطبيقات الهندسية البسيطة. وصف أحد رواد الذكاء الاصطناعي ، نوربرت وينر ، الذكاء الاصطناعي بأنه نظام “إلكتروني” – نظام يمكنه الاستجابة والتكيف مع الملاحظات. لم يتوقع سايمون ولا وينر كيف سيهيمن التعلم الآلي على الذكاء الاصطناعي ، لكن تطوره يتناسب مع طريقة تفكيرهم. يستخدم Facebook و Google التعلم الآلي كمحرك تحليلي لنظام التصحيح الذاتي ، والذي يقوم باستمرار بتحديث فهمه للبيانات اعتمادًا على ما إذا كانت تنبؤاته تنجح أو تفشل. هذه الحلقة بين التحليل الإحصائي وردود الفعل من البيئة هي التي جعلت التعلم الآلي قوة هائلة.
ما هو أقل فهمًا هو أن الديمقراطية والسلطوية هي أنظمة إلكترونية أيضًا. بموجب كلا الشكلين من الحكم ، تسن الحكومات سياسات ثم تحاول معرفة ما إذا كانت هذه السياسات قد نجحت أم فشلت. في الديمقراطيات ، توفر الأصوات والأصوات ردود فعل قوية حول ما إذا كان نهج معين يعمل حقًا. واجهت الأنظمة الاستبدادية تاريخياً وقتاً أصعب بكثير في الحصول على ردود فعل جيدة. قبل عصر المعلومات ، لم يعتمدوا على الاستخبارات المحلية فحسب ، بل اعتمدوا أيضًا على الالتماسات واستطلاعات الرأي السرية لمحاولة معرفة ما يعتقده مواطنوهم.

الآن ، يعمل التعلم الآلي على تعطيل الأشكال التقليدية للتعليقات الديمقراطية (الأصوات والأصوات) حيث تسهل التقنيات الجديدة المعلومات المضللة وتزيد من حدة التحيزات القائمة – مع الأخذ في الاعتبار التحيز المخفي في البيانات وتحويله بثقة إلى تأكيدات غير صحيحة. بالنسبة إلى المستبدين الذين يتخبطون في الظلام ، يبدو التعلم الآلي بمثابة إجابة لصلواتهم. يمكن لمثل هذه التكنولوجيا أن تخبر الحكام عما إذا كان رعاياهم يحبون ما يفعلونه دون متاعب الاستطلاعات أو المخاطر السياسية للمناقشات المفتوحة والانتخابات. لهذا السبب ، شعر العديد من المراقبين بالقلق من أن التقدم في الذكاء الاصطناعي لن يؤدي إلا إلى تقوية يد الطغاة وتمكينهم من السيطرة على مجتمعاتهم.

الحقيقة أكثر تعقيدا. من الواضح أن التحيز يمثل مشكلة للديمقراطيات. ولكن نظرًا لأنها أكثر وضوحًا ، يمكن للمواطنين التخفيف من حدتها من خلال أشكال أخرى من التعليقات. عندما ترى مجموعة عرقية ، على سبيل المثال ، أن خوارزميات التوظيف متحيزة ضدها ، فيمكنها الاحتجاج وطلب الإنصاف مع بعض فرص النجاح. ربما تكون الدول الاستبدادية على الأقل عرضة للانحياز مثل الديمقراطيات ، وربما أكثر من ذلك. من المحتمل أن يكون الكثير من هذا التحيز غير مرئي ، خاصة بالنسبة لصانعي القرار في القمة. وهذا يجعل التصحيح أكثر صعوبة ، حتى لو كان القادة يرون أن شيئًا ما يحتاج إلى تصحيح.

على عكس الحكمة التقليدية ، يمكن للذكاء الاصطناعي أن يقوض الأنظمة الاستبدادية بشكل خطير من خلال تعزيز أيديولوجياتهم وأوهامهم على حساب فهم أدق للعالم الحقيقي. قد تكتشف الدول الديمقراطية أنه عندما يتعلق الأمر بالذكاء الاصطناعي ، فإن التحدي الرئيسي للقرن الحادي والعشرين ليس الفوز في معركة الهيمنة التكنولوجية. بدلاً من ذلك ، سيتعين عليهم التعامل مع الدول الاستبدادية التي تجد نفسها في خضم دوامة الوهم التي يغذيها الذكاء الاصطناعي.

ردود فعل سيئة

تتعلق معظم المناقشات حول الذكاء الاصطناعي بالتعلم الآلي – الخوارزميات الإحصائية التي تستخرج العلاقات بين البيانات. هذه الخوارزميات تخمين: هل يوجد كلب في هذه الصورة؟ هل ستفوز استراتيجية الشطرنج هذه باللعبة في عشر حركات؟ ما هي الكلمة التالية في هذه الجملة غير المكتملة؟ يمكن لما يسمى بالوظيفة الموضوعية ، وهي وسيلة رياضية لتسجيل النتائج ، أن تكافئ الخوارزمية إذا كانت تخمن بشكل صحيح. هذه العملية هي الطريقة التي يعمل بها الذكاء الاصطناعي التجاري. يريد YouTube ، على سبيل المثال ، الحفاظ على تفاعل المستخدمين ومشاهدة المزيد من مقاطع الفيديو حتى يستمروا في رؤية الإعلانات. تم تصميم الوظيفة الموضوعية لتعظيم مشاركة المستخدم. تحاول الخوارزمية تقديم محتوى يلفت انتباه المستخدم إلى الصفحة. اعتمادًا على ما إذا كان تخمينها صحيحًا أم خاطئًا ، تقوم الخوارزمية بتحديث نموذجها لما يحتمل أن يستجيب له المستخدم.

غالبًا ما لا تمتلك الحكومات الاستبدادية فكرة جيدة عن الكيفية التي يعمل بها العالم.

لقد أدت قدرة التعلم الآلي على أتمتة حلقة التعليقات هذه مع تدخل بشري ضئيل أو بدون تدخل بشري إلى إعادة تشكيل التجارة الإلكترونية. قد يسمح ، في يوم من الأيام ، بالسيارات ذاتية القيادة بالكامل ، على الرغم من أن هذا التقدم قد أصبح مشكلة أصعب بكثير مما توقعه المهندسون. لا يزال تطوير أسلحة مستقلة مشكلة أصعب. عندما تواجه الخوارزميات معلومات غير متوقعة حقًا ، فإنها غالبًا ما تفشل في فهمها. يمكن للمعلومات التي يمكن للإنسان فهمها بسهولة ولكن هذا التعلم الآلي الذي يخطئ في تصنيفها – والمعروفة باسم “أمثلة الخصومة” – قد يؤدي إلى تلويث الأعمال بشكل سيء. على سبيل المثال ، يمكن للملصقات بالأبيض والأسود الموضوعة على لافتة توقف أن تمنع نظام الرؤية للسيارة ذاتية القيادة من التعرف على العلامة. تشير مثل هذه الثغرات الأمنية إلى قيود واضحة على فائدة الذكاء الاصطناعي في زمن الحرب.

يساعد الغوص في تعقيدات التعلم الآلي في فهم النقاشات حول الهيمنة التكنولوجية. إنه يفسر سبب اعتقاد بعض المفكرين ، مثل عالم الكمبيوتر لي ، أن البيانات مهمة للغاية. كلما زادت البيانات لديك ، يمكنك تحسين أداء الخوارزمية بشكل أسرع ، وتكرار التغيير الصغير عند تغيير طفيف حتى تحقق ميزة حاسمة. لكن التعلم الآلي له حدوده. على سبيل المثال ، على الرغم من الاستثمارات الهائلة لشركات التكنولوجيا ، فإن الخوارزميات أقل فاعلية بكثير مما يُفهم عادة في جعل الناس يشترون منتجًا متطابقًا تقريبًا على منتج آخر. من الصعب التلاعب بالتفضيلات الضحلة بشكل موثوق ، وربما يكون تغيير الآراء والمعتقدات الراسخة لدى الناس أكثر صعوبة.

الذكاء الاصطناعي العام ، وهو نظام قد يستخلص الدروس من سياق واحد ويطبقها في سياق مختلف ، كما يمكن للبشر ، يواجه قيودًا مماثلة. من شبه المؤكد أن النماذج الإحصائية لـ Netflix لميول المستخدمين وتفضيلاتهم تختلف عن نماذج Amazon ، حتى عندما يحاول كلاهما تصميم نفس الأشخاص الذين يتصارعون مع قرارات مماثلة. الهيمنة في أحد قطاعات الذكاء الاصطناعي ، مثل تقديم مقاطع فيديو قصيرة تُبقي المراهقين مدمنين (انتصار لتطبيق TikTok) ، لا تُترجم بسهولة إلى هيمنة في قطاع آخر ، مثل إنشاء أنظمة أسلحة ساحة معركة مستقلة. غالبًا ما يعتمد نجاح الخوارزمية على المهندسين البشر الذين يمكنهم ترجمة الدروس عبر تطبيقات مختلفة بدلاً من التكنولوجيا نفسها. في الوقت الحالي ، لا تزال هذه المشاكل دون حل.

يمكن أن يتسلل التحيز أيضًا إلى الكود. عندما حاولت أمازون تطبيق التعلم الآلي على التوظيف ، قامت بتدريب الخوارزمية على البيانات من السير الذاتية التي قام المجندون البشريون بتقييمها. ونتيجة لذلك ، أعاد النظام إنتاج التحيزات الضمنية في قرارات البشر ، وميز ضد السير الذاتية من النساء. يمكن أن تكون مثل هذه المشاكل ذاتية التعزيز. كما أشارت عالمة الاجتماع روها بنيامين ، إذا استخدم صانعو السياسة التعلم الآلي لتحديد مكان إرسال قوات الشرطة ، يمكن أن توجههم التكنولوجيا لتخصيص المزيد من الشرطة للأحياء ذات معدلات الاعتقال المرتفعة ، في عملية إرسال المزيد من الشرطة إلى المناطق التي بها مجموعات عرقية منهم أظهرت الشرطة تحيزًا ضدها. قد يؤدي هذا إلى مزيد من الاعتقالات التي بدورها تعزز الخوارزمية في حلقة مفرغة.

للقول المأثور القديم في البرمجة “إدخال القمامة ، إخراج القمامة” معنى مختلف في عالم تؤثر فيه المدخلات على المخرجات والعكس صحيح. بدون التصحيح الخارجي المناسب ، يمكن لخوارزميات التعلم الآلي أن تكتسب طعم القمامة التي تنتجها بنفسها ، مما يولد حلقة من اتخاذ القرارات السيئة. في كثير من الأحيان ، يتعامل صانعو السياسات مع أدوات التعلم الآلي على أنها أدوات حكيمة ونزيهة بدلاً من كونها أدوات غير معصومة يمكن أن تزيد من حدة المشكلات التي يزعمون أنها تحلها.

الدعوة والاستجابة

الأنظمة السياسية هي أنظمة التغذية المرتدة أيضًا. في الديمقراطيات ، يقيم الجمهور حرفياً القادة ويحرزون درجات في الانتخابات التي من المفترض أن تكون حرة ونزيهة. تقدم الأحزاب السياسية وعوداً للفوز بالسلطة والتمسك بها. معارضة قانونية تسلط الضوء على أخطاء الحكومة ، بينما تنقل الصحافة الحرة الخلافات والأفعال السيئة. يواجه شاغلو المناصب الناخبين بانتظام ويعرفون ما إذا كانوا قد اكتسبوا ثقة الجمهور أو فقدوها ، في دورة تتكرر باستمرار.

لكن التغذية الراجعة في المجتمعات الديمقراطية لا تعمل بشكل مثالي. قد لا يكون لدى الجمهور فهم عميق للسياسة ، ويمكنه معاقبة الحكومات على أشياء خارجة عن سيطرتها. قد يسيء السياسيون وموظفوهم فهم ما يريده الجمهور. لدى المعارضة حوافز للكذب والمبالغة. خوض الانتخابات يكلف مالاً ، والقرارات الحقيقية تُتخذ أحياناً خلف أبواب مغلقة. قد تكون المنافذ الإعلامية متحيزة أو تهتم بتسلية المستهلكين أكثر من تثقيفهم.

ومع ذلك ، فإن التغذية الراجعة تجعل التعلم ممكنًا. يتعلم السياسيون ما يريده الجمهور. يتعلم الجمهور ما يمكن أن يتوقعه وما لا يمكنه توقعه. يمكن للناس أن ينتقدوا أخطاء الحكومة علانية دون حبسهم. مع ظهور مشاكل جديدة ، يمكن للمجموعات الجديدة أن تنظم نفسها لنشرها ومحاولة إقناع الآخرين بحلها. كل هذا يسمح لواضعي السياسات والحكومات بالتعامل مع عالم معقد ودائم التغير.

Russian President Vladimir Putin at an artificial intelligence conference in Moscow, November 2021

تعمل التعليقات بشكل مختلف جدًا في الأنظمة الاستبدادية. يتم اختيار القادة ليس من خلال انتخابات حرة ونزيهة ولكن من خلال معارك الخلافة القاسية والأنظمة الغامضة في كثير من الأحيان للترقية الداخلية. حتى عندما تكون معارضة الحكومة قانونية رسميًا ، يتم تثبيطها ، وأحيانًا بوحشية. إذا انتقدت وسائل الإعلام الحكومة ، فإنها تخاطر باتخاذ إجراءات قانونية والعنف. الانتخابات ، عندما تحدث ، تميل بشكل منهجي لصالح شاغلي المناصب. المواطنون الذين يعارضون قادتهم لا يواجهون فقط صعوبات في التنظيم ؛ يتعرضون لعقوبات قاسية للتحدث علانية ، بما في ذلك السجن والموت. لكل هذه الأسباب ، غالبًا ما لا تمتلك الحكومات الاستبدادية فكرة جيدة عن كيفية عمل العالم أو ما يريدونه هم ومواطنوها.

لا يوجد شيء من هذا القبيل
كعملية صنع قرار خالية من السياسة.

لذلك تواجه هذه الأنظمة مفاضلة بين الاستقرار السياسي قصير المدى وفعالية صنع السياسات ؛ الرغبة في الأول تدفع القادة الاستبداديين إلى منع الغرباء من التعبير عن آرائهم السياسية ، بينما تتطلب الحاجة إلى الأخير أن يكون لديهم فكرة عما يحدث في العالم وفي مجتمعاتهم. بسبب القيود الصارمة على المعلومات ، لا يمكن للحكام الاستبداديين الاعتماد على المواطنين ووسائل الإعلام وأصوات المعارضة لتقديم ملاحظات تصحيحية كما يستطيع القادة الديمقراطيون. والنتيجة هي أنهم يخاطرون بفشل السياسة الذي يمكن أن يقوض شرعيتهم على المدى الطويل وقدرتهم على الحكم. يبدو أن قرار الرئيس الروسي فلاديمير بوتين الكارثي بغزو أوكرانيا ، على سبيل المثال ، قد استند إلى تقييم غير دقيق للمعنويات الأوكرانية وقوة جيشه.

حتى قبل اختراع التعلم الآلي ، استخدم الحكام الاستبداديون المقاييس الكمية كبديل صارم وغير كامل لتعليقات الجمهور. خذ الصين على سبيل المثال ، التي حاولت على مدى عقود الجمع بين اقتصاد السوق اللامركزي والإشراف السياسي المركزي على عدد قليل من الإحصاءات المهمة ، لا سيما الناتج المحلي الإجمالي. يمكن ترقية المسؤولين المحليين إذا شهدت مناطقهم نموًا سريعًا بشكل خاص. لكن الرؤية الكمية المحدودة لبكين لم تقدم لهم حافزًا يذكر لمعالجة القضايا المتفاقمة مثل الفساد والديون والتلوث. ليس من المستغرب أن المسؤولين المحليين غالبًا ما تلاعبوا بالإحصاءات أو اتبعوا سياسات عززت الناتج المحلي الإجمالي على المدى القصير مع ترك المشاكل طويلة الأجل لخلفائهم.
لقد ألقى العالم لمحة عن هذه الديناميكية خلال الاستجابة الصينية الأولية لوباء COVID-19 الذي بدأ في مقاطعة هوبي في أواخر عام 2019. وقد أنشأت الصين نظامًا للإبلاغ عن الأمراض عبر الإنترنت في أعقاب أزمة السارس عام 2003 ، ولكن بدلاً من استخدام ذلك النظام ، عاقبت السلطات المحلية في ووهان ، عاصمة هوبي ، الطبيب الذي أبلغ عن وجود عدوى “تشبه السارس”. عملت حكومة ووهان بجد لمنع وصول المعلومات حول تفشي المرض إلى بكين ، وكررت باستمرار أنه “لا توجد حالات جديدة” إلا بعد اختتام اجتماعات سياسية محلية مهمة. وقد توفي الطبيب لي وين ليانغ نفسه بسبب المرض وتوفي في 7 فبراير ، مما أثار غضبًا شرسًا في جميع أنحاء البلاد.

ثم تولت بكين الاستجابة للوباء ، وتبنت نهج “صفر COVID” الذي يستخدم تدابير قسرية لقمع إحصاء الحالات. نجحت السياسة بشكل جيد على المدى القصير ، ولكن مع قابلية الانتقال الهائلة لمتغير Omicron ، يبدو أن سياسة صفر COVID أدت بشكل متزايد إلى انتصارات باهظة الثمن ، مما يتطلب عمليات إغلاق جماعية تركت الناس جائعين والاقتصاد في حالة من الفوضى. لكنه ظل ناجحًا في تحقيق مقياس واحد حاسم إذا كان خامًا – وهو إبقاء عدد الإصابات منخفضًا.

يبدو أن البيانات توفر مقاييس موضوعية تشرح العالم ومشاكله ، مع عدم وجود أي من المخاطر السياسية ومضايقات الانتخابات أو الإعلام الحر. لكن لا يوجد شيء مثل صنع القرار يخلو من السياسة. إن فوضى الديمقراطية وخطر عمليات التغذية المرتدة المشوهة واضحة لأي شخص يهتم بالسياسة الأمريكية. تعاني الأنظمة الاستبدادية من مشاكل مماثلة ، على الرغم من أنها لا يمكن إدراكها على الفور. اختلق المسؤولون الأرقام أو رفض المواطنون تحويل غضبهم إلى احتجاجات واسعة النطاق يمكن أن يكون له عواقب وخيمة ، مما يجعل القرارات السيئة أكثر ترجيحًا على المدى القصير وفشل النظام على المدى الطويل.

إنه فخ؟

السؤال الأكثر إلحاحًا ليس ما إذا كانت الولايات المتحدة أو الصين ستفوز أو تخسر في السباق على هيمنة الذكاء الاصطناعي. إنها الطريقة التي سيغير بها الذكاء الاصطناعي حلقات التغذية الراجعة المختلفة التي تعتمد عليها الديمقراطيات والأنظمة الاستبدادية لحكم مجتمعاتها. اقترح العديد من المراقبين أنه مع زيادة انتشار التعلم الآلي في كل مكان ، فإنه سيضر حتما بالديمقراطية ويساعد على الاستبداد. من وجهة نظرهم ، قد تؤدي خوارزميات وسائل التواصل الاجتماعي التي تعمل على تحسين المشاركة ، على سبيل المثال ، إلى تقويض الديمقراطية من خلال الإضرار بجودة تعليقات المواطنين. عندما ينقر الأشخاص على مقطع فيديو تلو الآخر ، تقدم خوارزمية YouTube محتوى صادمًا ومثيرًا للقلق للحفاظ على تفاعلهم. غالبًا ما يتضمن هذا المحتوى نظريات المؤامرة أو الآراء السياسية المتطرفة التي تجذب المواطنين إلى أرض العجائب المظلمة حيث ينقلب كل شيء رأسًا على عقب.

قد يؤدي المزيد من التعلم الآلي إلى دفع الأنظمة الاستبدادية إلى مضاعفة القرارات السيئة.

على النقيض من ذلك ، من المفترض أن يساعد التعلم الآلي الأنظمة الاستبدادية من خلال تسهيل سيطرة أكبر على شعوبها. يزعم المؤرخ يوفال هراري ومجموعة من العلماء الآخرين أن الذكاء الاصطناعي “يفضل الاستبداد”. وفقًا لهذا المعسكر ، يعمل الذكاء الاصطناعي على تركيز البيانات والسلطة ، مما يسمح للقادة بالتلاعب بالمواطنين العاديين من خلال تزويدهم بمعلومات محسوبة لدفع “الأزرار العاطفية” لديهم. من المفترض أن تنتج هذه العملية المتكررة باستمرار للتغذية الراجعة والاستجابة شكلاً غير مرئي وفعال من الرقابة الاجتماعية. في هذا الحساب ، تسمح وسائل التواصل الاجتماعي للحكومات الاستبدادية بقياس نبض الجمهور والاستحواذ على قلبه.

لكن هذه الحجج تستند إلى أسس غير مؤكدة. على الرغم من أن التسريبات من داخل Facebook تشير إلى أن الخوارزميات يمكن أن توجه الأشخاص بالفعل نحو المحتوى المتطرف ، إلا أن الأبحاث الحديثة تشير إلى أن الخوارزميات نفسها لا تغير ما يبحث عنه الناس. من المرجح أن يتم توجيه الأشخاص الذين يبحثون عن مقاطع فيديو متطرفة على YouTube نحو المزيد مما يريدون ، ولكن من غير المرجح أن يتبع الأشخاص الذين ليسوا مهتمين بالفعل بمحتوى خطير توصيات الخوارزميات. إذا أصبحت التعليقات في المجتمعات الديمقراطية مشوشة بشكل متزايد ، فلن يكون التعلم الآلي مخطئًا تمامًا ؛ كان سيقدم فقط يد المساعدة.
لا يوجد دليل جيد على أن التعلم الآلي يمكّن أنواعًا من التحكم بالعقل المعمم الذي من شأنه أن يفرغ الديمقراطية ويعزز الاستبداد. إذا لم تكن الخوارزميات فعالة جدًا في حمل الناس على شراء الأشياء ، فمن المحتمل أن تكون أسوأ بكثير في حملهم على تغيير رأيهم بشأن الأشياء التي تمس القيم الراسخة ، مثل السياسة. تفككت المزاعم بأن شركة Cambridge Analytica ، وهي شركة استشارات سياسية بريطانية ، استخدمت بعض الأساليب السحرية لإصلاح الانتخابات الرئاسية الأمريكية لعام 2016 لصالح دونالد ترامب. يبدو أن الخلطة السرية المفترضة للشركة والمقدمة لحملة ترامب تتكون من تقنيات الاستهداف السيكومترية القياسية – باستخدام استطلاعات الشخصية لتصنيف الأشخاص – ذات فائدة محدودة.

الذكاء الاصطناعي – المعلومات المضللة التي يغذيها الذكاء الاصطناعي قد تسمم الديمقراطيات والأنظمة الاستبدادية على حد سواء.

في الواقع ، قد يتحول الاستبداد المؤتمت بالكامل القائم على البيانات إلى فخ لدول مثل الصين التي تركز السلطة في مجموعة صغيرة معزولة من صانعي القرار. الدول الديمقراطية لديها آليات تصحيح – أشكال بديلة من ردود فعل المواطنين التي يمكن أن تتحقق من الحكومات إذا خرجت عن المسار الصحيح. الحكومات الاستبدادية ، في الوقت الذي تضاعف فيه من التعلم الآلي ، ليس لديها مثل هذه الآلية. على الرغم من أن مراقبة الدولة المنتشرة في كل مكان يمكن أن تثبت فعاليتها على المدى القصير ، فإن الخطر يكمن في تقويض الدول الاستبدادية من خلال أشكال التحيز الذاتي الذي يسهله التعلم الآلي. نظرًا لأن الدولة تستخدم التعلم الآلي على نطاق واسع ، فإن أيديولوجية القائد ستشكل كيفية استخدام التعلم الآلي والأهداف التي يتم تحسينها حولها وكيفية تفسير النتائج. من المحتمل أن تعكس البيانات التي تظهر من خلال هذه العملية تحيزات القائد في وجهه.

كما أوضح التقني Maciej Ceglowski ، فإن التعلم الآلي هو “غسل الأموال من أجل التحيز” ، وهو “جهاز رياضي نظيف يمنح الوضع الراهن هالة الحتمية المنطقية”. ماذا سيحدث ، على سبيل المثال ، عندما تبدأ الدول في استخدام التعلم الآلي لرصد شكاوى وسائل التواصل الاجتماعي وإزالتها؟ سيجد القادة صعوبة أكبر في رؤية أخطاء السياسة ومعالجتها – حتى عندما تلحق الأخطاء الضرر بالنظام. تكهنت دراسة أجريت عام 2013 بأن الصين كانت أبطأ في إزالة الشكاوى عبر الإنترنت مما قد يتوقعه المرء ، على وجه التحديد لأن مثل هذا الإمساك قدم معلومات مفيدة للقيادة. ولكن الآن بعد أن أكدت بكين بشكل متزايد على التناغم الاجتماعي وتسعى لحماية كبار المسؤولين ، سيكون من الصعب الحفاظ على نهج عدم التدخل هذا.

يدرك الرئيس الصيني شي جين بينغ هذه المشكلات في بعض مجالات السياسة على الأقل. لقد ادعى منذ فترة طويلة أن حملته لمكافحة الفقر – ​​محاولة للقضاء على الفقر الريفي – كانت انتصارًا مميزًا مدعومًا من التقنيات الذكية والبيانات الضخمة والذكاء الاصطناعي. لكنه اعترف منذ ذلك الحين بوجود عيوب في الحملة ، بما في ذلك حالات طرد فيها المسؤولون الناس من منازلهم الريفية وخبأوهم في شقق في المدن للتلاعب بإحصائيات الفقر. مع عودة إعادة توطينهم إلى براثن الفقر ، شعر شي بالقلق من أن “الأهداف الكمية الموحدة” لمستويات الفقر قد لا تكون النهج الصحيح في المستقبل. قد تكون البيانات هي النفط الجديد بالفعل ، لكنها قد تلوث بدلاً من تعزيز قدرة الحكومة على الحكم.

هذه المشكلة لها تداعيات على ما يسمى بنظام الائتمان الاجتماعي في الصين ، وهو مجموعة من المؤسسات لتتبع السلوك المؤيد للمجتمع الذي يصفه المعلقون الغربيون بأنه “نظام مراقبة مدعوم بالذكاء الاصطناعي ينتهك حقوق الإنسان”. كما أشار خبراء في سياسة المعلومات مثل شازيدا أحمد وكارين هاو ، فإن النظام في الواقع أكثر فوضوية. يبدو نظام الائتمان الاجتماعي الصيني في الواقع أشبه بنظام الائتمان الأمريكي ، الذي تنظمه قوانين مثل قانون الإبلاغ عن الائتمان العادل ، أكثر من كونه ديستوبيا أورويلية مثالية.

قد يؤدي المزيد من التعلم الآلي أيضًا إلى دفع الأنظمة الاستبدادية إلى مضاعفة القرارات السيئة. إذا تم تدريب التعلم الآلي على تحديد المعارضين المحتملين على أساس سجلات الاعتقال ، فمن المحتمل أن يؤدي ذلك إلى تحيزات ذاتية التعزيز مماثلة لتلك التي شوهدت في الديمقراطيات – مما يعكس وتؤكد معتقدات المسؤولين حول المجموعات الاجتماعية المحرومة ويديم الشك الآلي ورد الفعل العكسي بلا هوادة. في الديمقراطيات ، من الممكن حدوث رد فعل شعبي ، مهما كان غير كامل. في الأنظمة الاستبدادية المقاومة أصعب بكثير. بدونها ، تكون هذه المشكلات غير مرئية لمن هم داخل النظام ، حيث يتشارك المسؤولون والخوارزميات في نفس الأحكام المسبقة. بدلاً من السياسة الجيدة ، سيؤدي ذلك إلى زيادة الأمراض ، والخلل الاجتماعي ، والاستياء ، وفي النهاية ، الاضطرابات وعدم الاستقرار.

الذكاء الاصطناعي المُسلَّح

لن تخلق السياسة الدولية للذكاء الاصطناعي سباقًا بسيطًا للهيمنة. إن النظرة الفجة إلى أن هذه التكنولوجيا هي سلاح اقتصادي وعسكري وأن البيانات هي التي تخفي الكثير من العمل الحقيقي. في الواقع ، تتمثل أكبر العواقب السياسية للذكاء الاصطناعي في آليات التغذية الراجعة التي تعتمد عليها الدول الديمقراطية والاستبدادية. تشير بعض الأدلة إلى أن الذكاء الاصطناعي يعطل التغذية الراجعة في الديمقراطيات ، على الرغم من أنه لا يلعب دورًا كبيرًا كما يقترح الكثيرون. على النقيض من ذلك ، كلما ازداد اعتماد الحكومات الاستبدادية على التعلم الآلي ، زاد دفعها إلى عالم خيالي قائم على تحيزاتها التكنولوجية المكبرة. أوضح الكتاب الكلاسيكي للعالم السياسي جيمس سكوت عام 1998 ، “رؤية مثل الدولة” ، كيف كانت دول القرن العشرين تتجاهل عواقب أفعالها جزئيًا لأنها كانت ترى العالم من خلال الفئات والبيانات البيروقراطية فقط. كما جادل عالم الاجتماع ماريون فوركيد وآخرون ، قد يطرح التعلم الآلي نفس المشاكل ولكن على نطاق أكبر.

تخلق هذه المشكلة مجموعة مختلفة تمامًا من التحديات الدولية لديمقراطيات مثل الولايات المتحدة. روسيا ، على سبيل المثال ، استثمرت في حملات تضليل تهدف إلى زرع الارتباك والاضطراب بين الجمهور الروسي أثناء تطبيق نفس الأدوات في البلدان الديمقراطية. على الرغم من أن المدافعين عن حرية التعبير أكدوا منذ فترة طويلة أن الرد على الكلام السيئ هو المزيد من الكلام ، فقد قرر بوتين أن أفضل رد على المزيد من الكلام هو المزيد من الكلام السيئ. ثم استغلت روسيا أنظمة التغذية الراجعة المفتوحة في الديمقراطيات لتلويثها بالمعلومات المضللة.

 Demonstrating the facial recognition system of a Chinese artificial intelligence firm, Beijing, February 2022

تتمثل إحدى المشكلات الناشئة بسرعة في كيفية قيام الأنظمة الاستبدادية مثل روسيا بتسليح النماذج اللغوية الكبيرة ، وهو شكل جديد من أشكال الذكاء الاصطناعي يمكنه إنتاج نصوص أو صور استجابةً لموجه شفهي ، لتوليد معلومات مضللة على نطاق واسع. كما حذرت عالمة الكمبيوتر Timnit Gebru وزملاؤها ، يمكن لبرامج مثل نظام Open AI’s GPT-3 إنتاج نص يبدو بطلاقة يصعب تمييزه عن الكتابة البشرية العادية. تم إطلاق نموذج بلوم ، وهو نموذج لغة كبير جديد مفتوح الوصول ، ليستخدمه أي شخص. يتطلب ترخيصه من الناس تجنب الإساءة ، لكن سيكون من الصعب للغاية الشرطة.

ستؤدي هذه التطورات إلى مشاكل خطيرة للتغذية الراجعة في الديمقراطيات. يكاد يكون من المؤكد أن أنظمة التعليقات السياسية الحالية على الإنترنت محكوم عليها بالفشل ، لأنها تتطلب القليل من الأدلة لإثبات ما إذا كان المعلق إنسانًا حقيقيًا. لقد قام متعاقدو شركات الاتصالات الكبرى بالفعل بإغراق لجنة الاتصالات الفيدرالية الأمريكية بتعليقات وهمية مرتبطة بعناوين البريد الإلكتروني المسروقة كجزء من حملتهم ضد قوانين حيادية الإنترنت. ومع ذلك ، كان من السهل تحديد الحيلة عندما تم نشر عشرات الآلاف من التعليقات المتطابقة تقريبًا. الآن ، أو في المستقبل القريب ، سيكون من السهل جدًا حث نموذج لغوي كبير على كتابة ، على سبيل المثال ، 20000 تعليق مختلف بأسلوب الناخبين المتأرجحين الذين يدينون حيادية الإنترنت.

قد تكون البيانات هي النفط الجديد ، لكنها قد تلوث بدلاً من تعزيز قدرة الحكومة على الحكم.

الذكاء الاصطناعي – المعلومات المضللة التي يغذيها الذكاء الاصطناعي قد تسمم البئر للأنظمة الاستبدادية أيضًا. بينما تزرع الحكومات الاستبدادية نقاشها العام بالمعلومات المضللة ، سيصبح من الأسهل تفكيك المعارضة ولكن من الصعب معرفة ما يعتقده الجمهور بالفعل ، مما يعقد عملية صنع السياسات بشكل كبير. سيكون من الصعب بشكل متزايد على القادة الاستبداديين تجنب الاستغناء عن مواردهم الخاصة ، مما يدفعهم إلى الاعتقاد بأن المواطنين يتسامحون أو حتى يحبون السياسات التي لا تحظى بشعبية كبيرة.

التهديدات المشتركة

كيف سيكون شكل مشاركة العالم مع الدول الاستبدادية مثل الصين إذا أصبحت محاصرة بشكل متزايد في حلقات التغذية الراجعة غير الصحية الخاصة بها؟ ماذا يحدث عندما تتوقف هذه العمليات عن توفير التوجيه السيبراني وتعكس بدلاً من ذلك مخاوف الحكام ومعتقداتهم؟ يتمثل أحد ردود الأفعال المتمحورة حول الذات من قبل المنافسين الديمقراطيين في ترك الحكام المستبدين لأجهزتهم الخاصة ، ورؤية أي شيء يضعف الحكومات الاستبدادية على أنه مكسب صاف.

ومع ذلك ، يمكن أن يؤدي رد الفعل هذا إلى كارثة إنسانية. العديد من التحيزات الحالية للدولة الصينية ، مثل سياساتها تجاه الأويغور ، خبيثة بشكل نشط وقد تصبح أسوأ بكثير. تشمل العواقب السابقة لعمى بكين عن الواقع المجاعة الكبرى ، التي أودت بحياة حوالي 30 مليون شخص بين عامي 1959 و 1961 والتي عجلت بسياسات مدفوعة أيديولوجيًا وأخفتها عدم رغبة المسؤولين الإقليميين في الإبلاغ عن إحصائيات دقيقة. حتى المتشائمون المتشائمون يجب أن يدركوا مخاطر كوارث السياسة الخارجية التي يسببها الذكاء الاصطناعي في الصين وأماكن أخرى. من خلال تضخيم التحيزات القومية ، على سبيل المثال ، يمكن للذكاء الاصطناعي أن يعزز بسهولة الفصائل المتشددة التي تتطلع إلى الانخراط في غزو الأراضي.

ربما ، وبشكل أكثر تشاؤماً ، قد يميل صانعو السياسة في الغرب إلى استغلال الحلقات المغلقة لأنظمة المعلومات الاستبدادية. حتى الآن ، ركزت الولايات المتحدة على تعزيز حرية الإنترنت في المجتمعات الاستبدادية. بدلاً من ذلك ، قد يحاول تفاقم مشكلة المعلومات الاستبدادية من خلال تعزيز حلقات التحيز التي تكون هذه الأنظمة عرضة لها. يمكن أن تفعل ذلك عن طريق إفساد البيانات الإدارية أو نشر معلومات مضللة على وسائل التواصل الاجتماعي الاستبدادية. لسوء الحظ ، لا يوجد جدار افتراضي يفصل بين الأنظمة الديمقراطية والاستبدادية. ليس فقط قد تتسرب البيانات السيئة والمعتقدات المجنونة إلى المجتمعات الديمقراطية من المجتمعات الاستبدادية ، ولكن القرارات الاستبدادية الرهيبة يمكن أن يكون لها عواقب لا يمكن التنبؤ بها على البلدان الديمقراطية أيضًا. بينما تفكر الحكومات في الذكاء الاصطناعي ، فإنها تحتاج إلى إدراك أننا نعيش في عالم مترابط ، حيث من المرجح أن تتسلل مشاكل الحكومات الاستبدادية إلى الديمقراطيات.

إذن ، قد يتطلع نهج أكثر ذكاءً إلى التخفيف من نقاط الضعف في الذكاء الاصطناعي من خلال الترتيبات المشتركة للحوكمة الدولية. حاليًا ، تختلف أجزاء مختلفة من الدولة الصينية حول الاستجابة المناسبة لتنظيم الذكاء الاصطناعي. إدارة الفضاء الإلكتروني في الصين ، وأكاديمية تكنولوجيا المعلومات والاتصالات ، ووزارة العلوم والتكنولوجيا ، على سبيل المثال ، لديها جميع المبادئ المقترحة لتنظيم الذكاء الاصطناعي. يفضل البعض نموذجًا من أعلى إلى أسفل قد يحد من القطاع الخاص ويسمح للحكومة بحرية. يدرك آخرون ، ضمنيًا على الأقل ، مخاطر الذكاء الاصطناعي على الحكومة أيضًا. قد تساعد صياغة مبادئ تنظيمية دولية واسعة في نشر المعرفة حول المخاطر السياسية للذكاء الاصطناعي.

قد يبدو هذا النهج التعاوني غريبًا في سياق التنافس المتزايد بين الولايات المتحدة والصين. لكن السياسة المعدلة بعناية قد تخدم واشنطن وحلفائها بشكل جيد. قد يكون أحد المسارات الخطيرة أن تنجرف الولايات المتحدة في سباق من أجل هيمنة الذكاء الاصطناعي ، الأمر الذي من شأنه أن يوسع العلاقات التنافسية إلى أبعد من ذلك. والشيء الآخر هو محاولة جعل مشاكل الاستبداد المرتجعة أسوأ. كلاهما يخاطر بكارثة وحرب محتملة. أكثر أمانًا ، إذن ، لجميع الحكومات أن تدرك المخاطر المشتركة للذكاء الاصطناعي والعمل معًا للحد منها.


By Henry Farrell, Abraham Newman, and Jeremy Wallace

foreign affairs


يقول محدّثي :
لمّا تخرج الكلمة للعلن …فلا سلطة لك عليها …
كل يرميها بسهم عينه ..

 

ماهر حمصي

إبداع بلا رتوش
إشترك في القائمة البريدية