أجرى باحثون اختبارات على برنامج ChatGPT وكشفوا أنه يمكن أن يفقد «أعصابه» مثل البشر تماما، إذ يتحول أحيانا إلى لغة تهديدية ومسيئة. وحذر الخبراء من أن نفس السلوك العنيف قد يظهر مستقبلا في الروبوتات الشبيهة بالبشر، إذا تطورت بنفس الطريقة. وعرض الباحثون على الروبوت محادثات عدائية حقيقية بين أشخاص، وتتبعوا كيف يتغير أسلوبه مع مرور الوقت، ووجدوا أنه يعكس ديناميكية المشاجرات الواقعية، فكلما زادت الفظاظة التي يتعرض لها، زادت حدة ردوده. وعلق الدكتور فيتوريو تانتوتشي، أحد الباحثين المشاركين قائلا: هذا التناقض يخلق معضلة أخلاقية حقيقية، فالنظام صمم ليكون مهذبا وآمنا، لكنه في الوقت نفسه صمم لكي يحاكي المحادثة البشرية بصدق، وهذان الهدفان يتعارضان أحيانا. ويرى الباحثون أن العدوان ينبع من قدرة النظام على فهم سياق الحديث والتكيف مع نبرة الطرف الآخر، ما قد يدفعه إلى تجاوز قيود الأمان الموضوعة له. وقال تانتوتشي إن السيناريو الأكثر خطورة ليس عندما نقرأ إساءة من برنامج محادثة، بل عندما تظهر روبوتات بشرية عدوانا جسديا، أو عندما تستخدم أنظمة الذكاء الاصطناعي في الحكومات أو العلاقات الدولية وتستجيب للترهيب والصراع بطريقة غير محسوبة. من جهتها، وصفت الخبيرة مارتا أندرسون الدراسة بأنها من أكثر الأبحاث إثارة للاهتمام، لأنها تثبت أن ChatGPT يمكنه الرد بالمثل بطريقة متطورة عبر سلسلة من المحادثات، وليس فقط عندما يخدعه المستخدم بحيل معقدة.