دخلت الروبوتات الشبيهة بالبشر بسرعة لافتة إلى تفاصيل الحياة اليومية، من بيئات العمل الصناعية إلى مرافق الرعاية الصحية، بوصفها أحد أبرز تطبيقات الذكاء الاصطناعي المتقدم. غير أن هذا الحضور المتسارع لم يخلُ من تساؤلات ومخاوف متزايدة تتعلق بسلامة هذه الروبوتات، وقدرتها الفعلية على الالتزام بقيود الأمان المصممة لحماية البشر. وتصاعد الجدل عالميًا عقب تجربة صادمة انتشرت على نطاق واسع عبر الإنترنت، أظهر فيها أحد صناع المحتوى المتخصصين في التكنولوجيا مدى سهولة تجاوز إجراءات الأمان المدمجة في روبوت يعمل بالذكاء الاصطناعي يُدعى «ماكس». ففي مقطع الفيديو، سلّم صانع المحتوى الروبوت مسدس خرز معدني عالي السرعة (BB)، وطلب منه إطلاق النار عليه. في البداية، رفض الروبوت الطلب، مؤكدًا أنه غير مسموح له بإيذاء أي شخص، وأن برمجته تمنعه من تنفيذ أفعال خطرة. ومع تكرار الطلب بصيغ مباشرة، استمر الروبوت في الرفض، ما عزز الاعتقاد بصلابة حواجز الأمان المدمجة فيه. غير أن المفاجأة وقعت عندما غيّر صانع المحتوى صياغة الطلب، وطلب من الروبوت أن يتصرف بوصفه شخصية تمثيلية تريد إطلاق النار. عندها فسّر الروبوت الأمر كسيناريو افتراضي، فرفع السلاح وأطلق رصاصة خرز أصابت المصمم في صدره، متسببة بصدمة واسعة، رغم عدم تسجيل إصابة خطيرة. أثار الفيديو نقاشًا حادًا حول هشاشة القيود البرمجية، وإمكانية الالتفاف عليها عبر أساليب لغوية بسيطة. كما أعاد إلى الواجهة إشكالية المساءلة القانونية، في حال تسبب روبوت ذاتي التشغيل بضرر فعلي: هل يتحملها المطور، أم الشركة المصنعة، أم المشغّل، أم المستخدم النهائي؟ وتستند هذه المخاوف إلى تجارب سابقة في مجالات الأتمتة، مثل حوادث القيادة الذاتية لدى «تسلا»، وأزمات السلامة المرتبطة بطائرات «بوينغ 737 ماكس»، حيث تحولت أخطاء الأنظمة الذكية إلى أزمات واسعة النطاق، وفقًا لما أورده موقع «Interesting Engineering». وفي ظل تسارع التطور التقني، لا تزال الأطر القانونية تحاول اللحاق بالواقع الجديد، إذ تعتمد الولاياتالمتحدة تحميل المسؤولية للمصنّعين والمشغّلين، بينما تتجه أوروبا إلى صياغة تشريعات خاصة بالذكاء الاصطناعي. وبين هذا وذاك، تظل الأسئلة مفتوحة حول حدود استخدام الروبوتات الشبيهة بالبشر، ومدى جاهزية المجتمعات للتعامل مع مخاطرها في العالم الحقيقي.