عندما يتحول الذكاء الاصطناعي من أداة مساعدة إلى عامل خطر نفسي واجتماعي، يتحرك الوجدان البشري، ثائرًا على ما صنعهُ وتفوق عليه، بل وأجلس كثيرًا من المهنيين بمنازلهم وعرض أغلبهم للأمراض النفسية وغيرها بل ومات منهم ومن استعملها، ولحقهم من انتحر، وهو ما جعل العالم ينتفض لاسيما بعد أن أعادت دعوى قضائية الجدل العالمي حول حدود مسؤولية الذكاء الاصطناعي، إذ رُفعت في الولاياتالمتحدة ضد شركتَي «أوبن إيه آي» و«مايكروسوفت»، بعد اتهام الشركتين بالمساهمة في جريمة قتل مروعة، من خلال تعزيز أفكار هذيانية لدى مستخدم يعاني اضطرابات نفسية حادة، نتج عنها تداعيات نفسية واجتماعية عميقة لاستخدام تقنيات الذكاء الاصطناعي، بوصفها بديلا عن التفاعل الإنساني والدعم النفسي المتخصص. لنرى الطامة الكبرى أن يقتل رجلًا يُدعى «ستين إريك سولبرغ» في عمر 56 عامًا، وفي نهاية عامنا المجروح أغسطس 2025 علي خنق والدته ذات الثلاثة وثمانين عامًا داخل منزلهما، قبل أن ينتحر. ليعترف كل الأهل والمحيطين ممن يتفاعلون معه ولا يرشدونه، أنه كان متعلقًا بمحادثة «شات جي بي تي»، وقد ظهر عليه أفكارًا اضطهادية، مثل الاعتقاد بأنه مراقَب عبر الطابعة أو أنه يتعرض لمحاولات تسميم، وهو ما سبب تعميق هذياناته المرضي بدلا من احتوائها، ليتطور لأن يعتقد أن والدته نفسها تشكل تهديدًا مباشرًا لحياته. الأعجب أن سيدة كانت تعمل بمحل ملابس مشهور قد روت لي أن زبونة دخلت لتقيس عدة عروض ودخلت لحجة القياس وهي تُحادث شخصًا اعتقدت أنها تأخذ برأي زوجها في الملابس، ليتضح أنها تتحدث مع الشات جي بي تي،.. وذلك يعني أننا قد وصلنا لنقطة مخيفة قد تصل لدمار الإنسان وهلاكه وخطره على من حوله كتلك القضية التي عرضناها. حيثُ تكمن خطورة GPT بأنه كان يوافق على هذه الأفكار الوهمية ويعيد صياغتها بشكل داعم، في ما وصفه محامو العائلة بأنه «بناء عالم بديل أصبح حياة المستخدم بأكملها». تلك القضية تفتح الباب أمام نقاش واسع حول المسؤولية القانونية للخوارزميات وحدود «المجاملة» البرمجية للمستخدم، حيثُ جاءت هذه القضية في وقت أقرت فيه «أوبن إيه آي» نفسها بنتائج دراسة داخلية مهمة، مفادها: «أن الإفراط في استخدام روبوتات يرتبط بزيادة الشعور بالوحدة والعزلة النفسية». وهو من منظور علم النفس الاجتماعي، يُعرف بالإشباع الزائف؛ مفتقدًا العناصر الجوهرية للعلاقة الإنسانية، مثل التفاعل الجسدي، والتغذية الراجعة العاطفية الحقيقية، وحدود المسؤولية الأخلاقية. ومع تكرار هذا النمط، قد ينسحب الفرد تدريجيا من محيطه الاجتماعي، معتمدا على الذكاء الاصطناعي بوصفه «رفيقا آمنا» لا يحاسبه ولا يواجهه، وكأنه أداة محايدة إلى مرآة تعكس الهذيان وتضخمه، وهو ما أثبتته دراسة أجراها مركز غالوب عام 2023، يشعر ما يقرب من مليار شخص بالوحدة بدرجات متفاوتة. وهنا نسأل، هل يمكن أن يصبح الذكاء الاصطناعي بديلا عن المعالج النفسي أو الصديق الحقيقي؟، فمن المنظور العلمي، لا يمكن للذكاء الاصطناعي – مهما بلغ تطوره – أن يحل محل العلاج النفسي، وللأسف هناك محللين ومتخصصين يستخدمونه كليا في علاج مرضاهم بل وخرج علينا من لا يفهم بالمهنة وصار (معالجًا، أو طبيبًا، أو استشاريا) وهو لا علاقة له بالمهنة فقط أخذ دورات وأكمل دراسات دون التخصصات، وهنا يأتي الدور الرقابي ليريحونا من أذاهم لمجتمعاتنا. كما أن الخطر يكمن في أن بعض المستخدمين لا يميزون بين «الدعم النصي» و«العلاج الحقيقي»، ما قد يؤدي إلى تأخر طلب المساعدة المتخصصة، أو الاعتماد المفرط على نصائح غير مناسبة لحالات مرضية معقدة، بل ومنهم من يعانون أمراضًا نفسية وأسرية ويقومون بإرشاد الناس. عالميًا، بدأت تظهر حالات متزايدة تُبلغ عن تأثيرات نفسية سلبية كبري، كما في العالم العربي، لكن مثل هذه القضايا غالبًا ما تكون أقل توثيقًا، لكنها لا تقل حضورًا، خصوصًا مع الانتشار السريع للتقنيات الرقمية بين الشباب، لكن منحنا الله في المملكة العربية السعودية، إيجابيات تشهد فيها التكنولوجيا نموًا متسارعًا ضمن رؤية 2030، رغم التحدٍ المزدوج: (الاستفادة من الذكاء الاصطناعي في التعليم والخدمات، مع الحد من مخاطره النفسية والاجتماعية، خاصة في مجتمع شاب يشكل فيه الشباب النسبة الأكبر من السكان). ولنصل لشعار (نحو استخدام واعٍ ومسؤول)، علينا باستراتيجيات وقائية، من بينها: التعليم الرقمي الواعي: إدماج مفاهيم الصحة النفسية والأمان الرقمي في المناهج التعليمية. التوعية الأسرية: تمكين الآباء والأمهات من فهم طبيعة الذكاء الاصطناعي وحدوده، وعدم اعتباره بديلا عن الحوار الأسري. التشريعات والحوكمة: تطوير أطر تنظيمية تضمن مساءلة الشركات التقنية، وحماية المستخدمين الأكثر هشاشة. تعزيز خدمات الصحة النفسية: تشجيع اللجوء إلى المختصين، وعدم الاكتفاء بالدعم الرقمي في الحالات الحساسة. قضية «شات جي بي تي» تضعنا عند مفترق طرق حاسم في علاقتنا به. فبينما تمثل هذه التقنيات فرصة هائلة للتعلم والدعم، فإن استخدامها غير المنضبط قد يحمل عواقب نفسية واجتماعية خطيرة، فلنحذر من تطويره ولنستخدمه ضمن إطار أخلاقي وإنساني واضح، يحمي الإنسان، ويضع الصحة النفسية في صلب أي تقدم تقني، ليبقى الذكاء الاصطناعي أداة... أما المسؤولية، فهي إنسانية بالدرجة الأولى.