كشفت تقارير صحفية عن واقع مؤلم في قلب صناعة الذكاء الاصطناعي، التي يُروَّج لها بوصفها ذروة التقدّم التكنولوجي، بينما تُبنى فعليًا على جهود منهكة لعمال يعيشون في دول فقيرة. هؤلاء الأفراد، وغالبيتهم من الفلبين وكينيا وباكستان والهند، يتقاضون أجورًا زهيدة لقاء تصنيف وتدقيق محتوى حساس، يتضمن مشاهد عنف وخطاب كراهية وإيحاءات جنسية. الوثائق المسربة من شركة «سيرج إيه آي» تكشف كيف توكل إليهم مهام تحديد ما يُعد مقبولًا أخلاقيًا في ردود روبوتات الذكاء الاصطناعي، دون حماية قانونية أو إشراف مؤسسي شفاف. وهم من يقرر مثلًا ما إذا كان الرد على استفسار عن المثلية، أو توجيه نصائح حول تجنّب الحراس، يعتبر مقبولًا أو مرفوضًا. اللافت أن هذه القرارات تُتخذ في غياب إطار حقوقي عادل، بينما تجني الشركات العملاقة أرباحًا طائلة. الأمر يثير تساؤلات جوهرية: كيف يُبنى وعي أخلاقي لأنظمة ذكية على أكتاف من يعانون التهميش؟ وهل يمكن الوثوق بعدالة أنظمة تُدار من خلف شاشات بلا عدالة اجتماعية؟