فى وقت سابق من هذا الشهر، أعلنت الإمارات العربية المتحدة عن خطة لتشغيل نصف خدماتها الحكومية باستخدام «الذكاء الاصطناعى الوكيل» فى غضون العامين المقبلين.
بموجب هذه الخطة، من المفترض أن يعمل الذكاء الاصطناعى باعتباره «شريكاً تنفيذيًا» يتولى مهام «التحليل، واتخاذ القرار، والتنفيذ، والتحسين، لحظيًا» دون تدخل بشري.
بعد أن أمضينا حياتنا المهنية عند تقاطع ريادة الأعمال، والبحوث، والسياسة الرقمية، بوسعنا الآن أن نعلن بثقة إن هذه الخطة متهورة.
ولأن الإمارات العربية المتحدة تقدم نفسها كنموذج رقمى عالمي، فسوف تستشعر حكومات أخرى الضغوط التى قد تدفعها إلى السير على خُطاها.
هذا خطر لا يجوز لنا أن نتجاهله.
نحن نعرف بالفعل ماذا يحدث عندما تفوض الحكومات عملية صنع القرار إلى خوارزميات.
فى عام 2021، اتُّهِم نظام يعمل بالتعلم الذاتى فى هولندا، عن طريق الخطأ، نحو 35 ألف أسرة بالاحتيال فى المطالبة بإعانات رعاية الأطفال. وصدر الأمر للآباء والأمهات بسداد عشرات الآلاف من اليورو، وهى مبالغ لم يكونوا مدينين بها قط؛ فخسروا مساكنهم؛ ووُضِع أكثر من 2000 طفل تحت رعاية الدولة.
كانت هذه النتيجة، فى الواقع، مدمجة فى تصميم النظام.
فقد جرى تصنيف الجنسية المزدوجة والأسماء ذات الصبغة الأجنبية كعوامل خطر، فأصبح التمييز غير القانونى داخلاً بشكل مباشر فى نسيج النموذج.
كانت النتيجة فضيحة وطنية أدت فى النهاية إلى استقالة حكومة رئيس الوزراء آنذاك مارك روته.
حدثت ديناميكية مماثلة فى أستراليا.
بين عامى 2015 و2019، طالب برنامج «روبوديت 433 ألف» مستفيد من الرعاية الاجتماعية برد مبلغ 1.7 مليار دولار أسترالى (1.2 مليار دولار أمريكي) من ديون افترض البرنامج أنها غير قانونية.
كان الضرر عميقًا، حيث شهدت أمهات بأن أبناءهن انتحروا بعد تلقيهم إخطارات بديون لم يكن لديهم أى وسيلة للطعن فيها.
فى وقت لاحق، وجدت لجنة ملكية أن البرنامج «ليس عادلاً ولا قانونيًا».
فى الولايات المتحدة، فى الوقت ذاته، استعاضت ولايتا أركنساس وأيداهو عن الممرضات بخوارزميات لتقييم الأهلية ومستويات الرعاية المنزلية.
وتقلصت الرعاية المقدمة للأشخاص المصابين بالشلل الدماغي، والشلل الرباعي، والتصلب المتعدد بنسبة 20-50% بين عشية وضحاها.
فى النهاية، أمرت المحاكم بوقف استخدام هذه الأنظمة، ولكن بعد وقوع الضرر.
وتُرِك بعض المرضى دون دعم كافٍ، الأمر الذى أدى إلى مضاعفات طبية كان من الممكن تجنبها.
تضمنت كل حالة من هذه الحالات نظاماً واحداً داخل هيئة واحدة.
الآن، تخيل أن مثل هذه الأنظمة تتولى إدارة نصف الخدمات الحكومية، كما تقترح خطة الإمارات العربية المتحدة.
لنتأمل، على سبيل المثال، حالة أم عزباء جرى تجميد إعانات رعاية أطفالها بعد أن وَسَم وكيل الذكاء الاصطناعى نشاطها المصرفي، تاركاً إياها لتخوض عملية استئناف تنقلها من نظام آلى إلى آخر، دون أى جهة اتصال بشرية، بينما يحين موعد دفع الإيجار.
وماذا عن عامل مهاجر يُرفض تجديد إقامته لأن النظام لا يستطيع تحليل مستندات صاحب عمله ــ بما يجعله فعلياً غير موثق ــ أو أرملة مسنة يُعلَّق معاشها التقاعدى بسبب تعارض قاعدتى بيانات، ولأنها عاجزة عن فهم واجهة المستخدم؟ هذه ليست افتراضات.
إنها أنماط موثقة يعززها الذكاء الاصطناعى الوكيل بطرق لا يمكن لأى برنامج تدريبى معالجتها فى غضون الجدول الزمنى المحدد بعامين فى الإمارات العربية المتحدة. وتبرز هنا ثلاثة مخاطر رئيسية.
الأول يتمثل فى الحجم: عندما يرتكب موظف اجتماعى خطأ ما، يعانى شخص واحد؛ وعندما يرتكب وكيل الذكاء الاصطناعى خطأ، فقد يتأثر آلاف قبل حتى أن ينتبه أحد. ثم هناك مسألة غموض عملية صنع القرار فى الذكاء الاصطناعي.
لأن الأنظمة الوكيلة تتخذ القرارات بالتسلسل، حيث تُبنى كل خطوة على الخطوة السابقة لها، فإن المسار السببى يضيع فعلياً بحلول الوقت الذى يصبح فيه الضرر مرئيًا. يقدم نظام المزايا الصحية الخوارزمى فى أركنساس مثالاً صارخاً على ذلك.
لم يستطع أحد ــ ولا حتى مبتكروه ــ شرح كيفية عمله بشكل كامل، الأمر الذى دفع محكمة فيدرالية إلى وصفه بأنه «غير منطقى بالمرة». علاوة على ذلك، قد يكون الافتقار إلى الشفافية متأصلاً عبر الأسرار التجارية أو أطر الملكية التى تستند إليها الخوارزميات.
أخيرًا، تعكس أنظمة الذكاء الاصطناعى اتجاه عبء الإثبات، بما يجبر المواطنين على إثبات براءتهم بدلاً من مطالبة الدولة بتبرير أفعالها.
وكما أظهرت فضيحة إعانات رعاية الأطفال فى هولندا وبرنامج «روبوديت» فى أستراليا، فإن أولئك الأقل قدرة على القيام بذلك ــ الأشخاص الذين يعانون من محدودية الوقت، والمال، والمهارة اللغوية، والقدرة على الوصول إلى الدعم القانونى ــ هم الأشد تضررًا.
تدّعى الإمارات العربية المتحدة أن المبدأ التوجيهى الذى يستند إليه برنامج الذكاء الاصطناعى الذى تعتزم تطبيقه هو «الناس أولًا».
لكن التصميم يشير إلى عكس ذلك. إن الحكومة التى تقيّم الوزارات بناءً على «سرعة التبني» و«إتقان تطبيق الذكاء الاصطناعي» لا تتتبع ما يهم، بل تكرر منطق الكفاءة ذاته الذى تسبب بالفعل فى إحداث أضرار جسيمة فى مختلف أنحاء العالم.
تُعد سرعة التبنى مقياساً خاصاً بالموردين، لكن المسئولية الأساسية الملقاة على عاتق الحكومة هى واجب الرعاية القائم على الحكم البشري.
يتوافق هذا مع توقعات المواطنين بأن تكون الحكومة مسئولة وشفافة، وأن تشرح القرارات التى تؤثر على حقوقهم وحرياتهم.
عندما تتبنى الحكومات بحماس عملية صنع القرار المستقلة باسم الكفاءة، فإنها، فى حقيقة الأمر، تتنازل عن هذه المسؤولية.
الواقع أن كل فضيحة مرتبطة بالخوارزميات فى السنوات القليلة الأخيرة أثارت ذات الأسئلة الجوهرية: من الذى يتولى المسئولية، ومن اتخذ القرار؟ فى حكومة يديرها الذكاء الاصطناعى الوكيل، لم تعد لهذه الأسئلة إجابات واضحة.
فالنظام يقرر، ويُحدِّث نفسه، ويمضى قدماً، تاركاً المواطنين دون ملاذ عندما تسوء الأمور.
مع ظهور الذكاء الاصطناعي، تتآكل المساءلة الديمقراطية ليس من خلال استيلاء صريح على السلطة، بل من خلال سلسلة من قرارات التوريد التى تحل بهدوء محل الرقابة البشرية.
من خلال تقويض الثقة فى المؤسسات فى وقت حيث أصبحت بالفعل عند مستويات منخفضة بدرجة خطيرة، تخدم هذه الأنظمة فى نهاية المطاف مصالح عمالقة التكنولوجيا الذين يقودون ثورة الذكاء الاصطناعي. لكن هذه الحال ليست حتمية بالضرورة.
تمتلك الإمارات العربية المتحدة الموارد، والمواهب، والاستقرار السياسى اللازم لبناء حكومة رقمية تركز حقاً على الإنسان، وقادرة على وضع المعيار العالمى من خلال تعزيز، وليس استبدال، عملية صنع القرار البشري. لن تقتصر تكاليف الفشل فى إدارة هذا الأمر على الإمارات العربية المتحدة.
بل ستتحملها أم عزباء فى بلد آخر تُحرم من إعاناتها بسبب خوارزمية لم تكن تعلم بوجودها مطلقًا، فضلاً عن عدد لا يُحصى من النساء الأخريات مثلها فى مختلف أنحاء العالم.








