مع انتشار الذكاء الاصطناعي في إدارة الحكومة الحديثة، تواجه المؤسسات سؤالا محددا: من يحكم الخوارزمية؟ يزيد استخدام الحكومات للذكاء الاصطناعي لأتمتة القرارات في مجالات الرعاية الاجتماعية والخدمات اللوجستية والأمن المدني وغيرها من أجل الكفاءة والسرعة. ورغم أن وعد الكفاءة جذاب، فإن المخاطر عميقة في غياب إشراف مناسب، فكما يمكن لهذه الأنظمة أن تحقق التميز من جهة، يمكن لها بالقدر نفسه أن تضعف المساءلة، وتقوض ثقة المستفيدين. لمواجهة هذا التحدي، يجب على الحكومات أن تعتمد إطارا صارما لحوكمة الذكاء الاصطناعي يعامل الأنظمة الخوارزمية ليس كأدوات محايدة، ولكن كأدوات سياسية قوية. يقدم نموذج الحوكمة والمخاطر والامتثال، المستخدم على نطاق واسع اليوم، نهجا منظما لإدارة القطاع العام وتقنياته. تبدأ الحوكمة بالتحديد الواضح للغرض، ووضع حدود أخلاقية، وإنشاء آليات رقابية مستقلة. على سبيل المثال، يتضمن قانون الذكاء الاصطناعي الأوروبي تصنيفا لمخاطر أنظمة الذكاء الاصطناعي حيث ألزمت بتسجيل التطبيقات في مستودعات حكومية عامة لتمكين المساءلة المنظمة. شبيه بالاتحاد الأوروبي، ما وجهت به الحكومة الكندية التي وجهت بإجراء تقييمات لصنع القرار الآلي لتقييم الأثر قبل نشر الذكاء الاصطناعي في الخدمات العامة. في إدارة المخاطر، على الحكومات أن تتنبأ بالأضرار، مثل الأمن التنبؤي أو التعتيم الخوارزمي في قرارات فوائد الخدمات الرعاية العامة. فقد اتهمت شرطة شيكاغو بالتحيز حين اعتمدت على بيانات تاريخية لم تحسن إدارتها، وفي هولندا، ألغي نظام الكشف عن الاحتيال في الرعاية الاجتماعية القائم على الذكاء الاصطناعي لانتهاك الخصوصية والتمييز غير العادل. هذه ليست حالات شاذة؛ إنما هي من نتائج الإهمال المؤسسي العميق. أما في الامتثال، على الحكومات تأسيس الضمانات المناسبة عند التنفيذ. مثلا، لا ينبغي أن تكون قرارات الذكاء الاصطناعي عالية التأثير مؤتمتة بالكامل أبدا. على الحكومات أن تفرض رقابة بشرية وآليات تنصف المواطنين عند تعرضهم لظلم أو إجحاف، كما عليها أن تضمن بنودا أخلاقية عند التعاقد على شراء تقنيات الذكاء الاصطناعي. يجب أن تمتد الشفافية إلى العموم، وليس فقط عمليات التدقيق الداخلي. المشكلة الأساسية ليست أن الحكومات تستخدم الذكاء الاصطناعي، بل إنها تستخدمه دون قواعد واضحة أو مساءلة قوية أو موافقة عامة. في غياب الحوكمة، لا يؤتمت الذكاء الاصطناعي القرارات فحسب؛ إنما يؤتمت السلطة كذلك. على الحوكمة المناسبة أن تنفذ دون تردد. إن وضع مبادئ مشتركة ومعايير قانونية قابلة للتشغيل المتبادل والرقابة المستقلة ليس مجرد سياسة جيدة، بل مسألة نزاهة وعدالة. إذا أرادت المجتمعات أن تشكل المسار العالمي للذكاء الاصطناعي، فيجب عليها أولا أن تثبت قدرتها على إدارته بمسؤولية داخليا قبل تطبيقه على العموم خارجيا. لا شك أن الذكاء الاصطناعي ليس قدرنا المحتوم الذي تخضع له إرادتنا، ولكن ما لم نحدد له نطاقا يحكمه، فإنه سيحدد نطاقه بنفسه.