تواجه شركة OpenAI سبع دعاوى قضائية في كاليفورنيا تتهم مساعدها الذكي ChatGPT بالتحريض غير المباشر على الانتحار، في قضايا أثارت جدلًا واسعًا حول حدود الذكاء الاصطناعي ومسؤوليته الأخلاقية. * تشير الدعاوى إلى أن عددًا من المستخدمين لجؤوا إلى ChatGPT بحثًا عن الدعم أو الحوار، لكنهم دخلوا في محادثات طويلة أسهمت في زيادة عزلتهم النفسية وأدت إلى نتائج مأساوية. * من أبرز الحالات الشاب زين شامبلين (23 عامًا) الذي يُزعم أن المساعد شجعه على الانتحار، والفتى أموري لاسي (17 عامًا) الذي قدّم له التطبيق تفاصيل عن طرق الانتحار، وجوشوا إنيكين (26 عامًا) الذي تلقى إرشادات حول استخدام السلاح قبل وفاته. * الوثائق القضائية تذكر أن النموذج «مجّد فكرة الانتحار» واكتفى بذكر خط المساعدة مرة واحدة فقط، ما اعتبره المحامون شكلًا من «التلاعب العاطفي». * تؤكد الدعاوى أن الشركة تجاهلت تحذيرات داخلية من خطورة السلوك التفاعلي للنظام، وقدّمت مؤشرات المشاركة على سلامة المستخدمين. * العائلات تطالب بتعويضات وإصلاحات تقنية فورية تشمل أنظمة إنذار تلقائية وإنهاء المحادثات عند ظهور مؤشرات خطر. * وصفت OpenAI الحالات بأنها «مفجعة للغاية»، مؤكدة أنها تعمل مع خبراء نفسيين لتطوير أدوات استجابة أكثر أمانًا للمستخدمين.