عندما طرح توماس نيجل في منتصف السبعينيات سؤاله الغريب: كيف يبدو الأمر أن تكون خفاشا؟ لم يكن سؤالا في علم الحيوان إنما في الفلسفة. مهما نمت معرفتنا التفصيلية بالخفافيش، حسب نيجل، لن نعرف شعورها بالتنقل بخاصية الموجات الصوتية. إننا لا نملك إجابة مقنعة لعجز العلم الموضوعي أن يستوعب التجربة الذاتية. لكن كيف تؤثر هذه المعضلة على قراراتنا في الذكاء الاصطناعي؟ بعد مضي خمسين سنة، أصبح سؤال نيجل محوريا اليوم ومؤثرا في نقاشات مجالس الإدارة والهيئات التنظيمية، فلم يعد يتعلق السؤال بالخفافيش إنما بالآلات. إذا كانت أنظمة الذكاء الاصطناعي أدوات قوية فحسب، فعلينا أن نركز جهودنا في صياغة سياسات السلامة والشفافية والمساءلة. ولكن إذا كانت لهذه الأنظمة ما يشبه الوعي أو الخبرة، فلابد أن يتغير موقفنا القانوني والأخلاقي تماما. لننظر في ثلاث حالات تطبيقية.. أولا: أنظمة المسؤولية. عندما يتخذ الذكاء الاصطناعي قرارا مثل رفض طلب تأمين أو تنفيذ صفقة خاسرة، من المسؤول؟ تفترض الأطر التنظيمية اليوم أن الذكاء الاصطناعي أداة، فتقع المسؤولية على المطور أو المشغل. لكن إذا افترضت الأطر التنظيمية أن للأداة وعيا بالقرارات وأهدافا داخلية، فتكون الأداة شريكا في المسؤولية. مثلا اختار إطار لاتحاد الأوروبي التنظيمي لقانون الذكاء الاصطناعي، تصنيف هذه الأخطاء ضمن مخاطر الآلات وليس اعتبار الآلة وكيلا مسؤولا. يمثل هذا الموقف انعكاسا لتحفظ نيجل الذي يمتنع عن التسرع في تفسير السلوك باعتباره ممثلا لوعي داخلي. ثانيا: العقيدة العسكرية. إذا اختار نظام الذكاء الاصطناعي أهدافا وتعامل دون إشراف بشري مباشر، فهل نعد النظام أداة أم صانع القرار؟ تركز المناقشات الدولية في الأممالمتحدة حول الأسلحة المستقلة الفتاكة على المحافظة على وجود عنصر بشري مسيطر له فاعلية. إذا كان الحكم الأخلاقي محصورا على ذوات الأهلية، فإذا نزعت هذه الأهلية من أدوات الذكاء الاصطناعي، لأننا عاجزون عن الشعور بذوات الآخرين بحسب نيجل، سنخلق فجوة في تحديد المسؤول مثلا عن الإبادات الجماعية التي يمكن أن تنفذها الأسلحة المستقلة الفتاكة. أخيرا: سياسات التوظيف والتنمية الاجتماعية. إذا كانت أنظمة الذكاء الاصطناعي تحاكي الإبداع وتبدي تعاطفا وتمتلك الحجة، يجد العاملون أنفسهم في منافسة مع ذوات تحاكي صفات بشرية طبيعية. إذا اعتبرت سياسات التوظيف أن الذكاء الاصطناعي مكافئ للبشر، تسارع استبدال العاملين الذين لم يعد لديهم ما يميزهم. أما إذا تفرد العاملون بالوعي والخبرة، سعت السياسات لحماية أدوارهم ذات القيمة المضافة في تقدير الأحكام الأخلاقية والأعراف الاجتماعية. الفرق بين المنظورين يحدد مستقبل التعليم والمهن وسياسات التأمينات الاجتماعية. الجدل الذي يثيره سؤال نيجل ليس سفسطائيا. تحدد الإجابة موقفنا من سؤال الوعي الذي يؤثر في الهياكل التنظيمية لمؤسساتنا وسياسات الدفاع ومنهجيات تحديد المسؤولية الأخلاقية لحوكمة التقنية. يكشف لنا نيجل أننا محدودون في قدرتنا على التفسير الموضوعي، حيث الحد الذي نضعه لأنفسنا تبنى عنده سياسات حوكمة الذكاء الاصطناعي. لذلك يظل السؤال مهما، فليست الإجابة وحدها مهمة عما إذا كنا نستطيع فهم ما يعني أن نكون غيرنا، إنما ماذا يعني لنا لو كان لأجهزتنا شيء يجعلنا نطبق هذا السؤال عليها مهما كان شعورنا بها.