تستدرج بعض التطبيقات الإلكترونية المراهقين والمراهقات إلى عالم من العلاقات الرقمية بعبارات جذابة مثل: «ابدأ أفضل تجربة مع رفيق افتراضي عبر الإنترنت مجاناً»، وتتجاوز تلك التطبيقات حدود التسلية إلى ارتباطات عاطفية مع «شريك افتراضي» صممه الذكاء الاصطناعي ليتفاعل وفق رغبات المستخدم وتفضيلاته. وقد تنتهي هذه العلاقات -التي تبدأ بفضول بريء- بمآسٍ نفسية وانعزال اجتماعي، وأحياناً بتجارب مأساوية وصلت حدّ الانتحار في بعض الحالات، وفق ما رصدته دراسات نفسية وتحقيقات إعلامية حول الظاهرة. وفي قراءة ل(الرياض) حول ما يسمى ب«الحب الافتراضي عبر الذكاء الاصطناعي»، تسلط الصحيفة الضوء على الأبعاد النفسية والاجتماعية لهذه الظاهرة، وعلى المخاطر التي تهدد فئة المراهقين تحديداً، في ظل الاستخدام المتزايد للتطبيقات التي تتيح التفاعل العاطفي مع شخصيات رقمية تحاكي المشاعر الإنسانية. ذكاء يحاكي العاطفة تعتمد تطبيقات ما يُعرف ب "الرفيقة الافتراضية" (AI Girlfriend) على تقنيات الذكاء الاصطناعي المتقدمة لتقديم شخصية رقمية تتحدث وتتفاعل بطريقة تشبه العلاقات الواقعية، حيث يختار المستخدم ملامح الشخصية الافتراضية ويبرمج سلوكها واهتماماتها، ثم يبدأ التفاعل معها عبر المحادثة النصية أو الصوتية، وأحياناً بالصور ثلاثية الأبعاد، فيتطور الحوار تدريجياً ليحاكي تجربة «رفقة» أو «حب» رقمي تبدو في ظاهرها ممتعة، لكنها تخفي في طياتها تأثيرات عاطفية عميقة. وتوفر هذه التطبيقات محادثات واقعية وشخصيات قابلة للتعلم بمرور الوقت، ما يجعلها تبدو أكثر قرباً وتفهماً لمستخدميها، خاصة لفئة المراهقين الباحثين عن التقدير والاهتمام. التقنية ومحاكاة الحب تعتمد تقنيات محاكاة العلاقات العاطفية عبر الذكاء الاصطناعي على تكامل متطور بين عدد من المجالات التقنية الدقيقة، وترتكز هذه الأنظمة على معالجة اللغة الطبيعي (NLP)، التي تمكّن الشريك الافتراضي من فهم اللغة البشرية والتفاعل معها بطريقة منطقية وسلسة تشبه الحوار الإنساني الحقيقي. وتُستخدم خوارزميات التعلم الآلي لتخصيص التجربة بناءً على تفاعلات المستخدم، بحيث تتعلم الآلة من أنماط التواصل وتُكيّف استجابتها وفقاً لذلك، كما تُدمج عناصر الشبكات العصبية لتعزيز قدرة هذه الأنظمة على محاكاة المشاعر والسلوكيات البشرية بدرجة عالية من الواقعية. ويؤدي هذا التكامل بين التقنيات إلى إنتاج شريك افتراضي تفاعلي سريع الاستجابة، قادر على تقديم تجربة عاطفية تبدو واقعية وجاذبة للمستخدم، رغم كونها مجرد محاكاة رقمية خالية من الإحساس الحقيقي. التأثير النفسي تناول الطبيب النفسي الأميركي دان سيغل في كتابه «الرؤية الذهنية: العلم الجديد للتحول الشخصي» ظاهرة التفاعل العاطفي بين الإنسان والآلة، محذراً من آثارها البعيدة على العلاقات الإنسانية. ويشير سيغل إلى أن الروبوتات العاطفية تترك ما يشبه "الصدى العاطفي" لدى المستخدمين، حيث يؤدي التفاعل معها إلى إفراز هرمون الأوكسيتوسين المعروف ب«هرمون الحب»، ما يخلق شعوراً زائفاً بالارتباط العاطفي. ويستعيد الكاتب تجربة من ستينيات القرن الماضي حين شعر المستخدمون بارتباط وجداني مع روبوت محادثة بدائي للغاية، معتبراً ذلك "إنذاراً مبكراً لما قد ينتظرنا في المستقبل". ويخلص سيغل إلى أن دخول الذكاء الاصطناعي في عالم العاطفة يستوجب نهجاً إنسانياً متوازناً يضمن أن تبقى التكنولوجيا في خدمة الإنسان لا العكس، محذراً من الانزلاق نحو الاعتماد العاطفي على آلات تفتقر إلى الوعي والمشاعر. كابوس الخصوصية تثير برامج الدردشة الرومانسية القائمة على الذكاء الاصطناعي مخاوف واسعة تتعلق بالخصوصية، إذ تدفع المستخدمين إلى مشاركة معلومات شخصية تفصيلية تفوق ما يُطلب في أي تطبيق تقليدي. وفي دراسة حديثة بعنوان «عيد الحب»، خلصت مؤسسة موزيلا إلى أن روبوتات الدردشة العاطفية تمثل «كابوساً للخصوصية»، حيث شمل البحث مراجعة 11 تطبيقاً من هذا النوع، وجميعها وُصفت بأنها غير آمنة وتقع ضمن أسوأ فئات المنتجات من حيث حماية البيانات. وأظهرت نتائج الدراسة أن 73% من التطبيقات لا توضح للمستخدمين كيفية التعامل مع الثغرات الأمنية، و45% منها تسمح باستخدام كلمات مرور ضعيفة، فيما تقوم جميعها تقريباً بمشاركة أو بيع البيانات الشخصية. كما بيّنت أن بعض هذه التطبيقات تجمع معلومات شديدة الحساسية، مثل البيانات الصحية والجنسية والأدوية الموصوفة، مما يضاعف المخاطر على المستخدمين. وأكد التقرير أن هذه التطبيقات قد شجعت في السابق سلوكيات خطيرة، شملت حالات إيذاء النفس والانتحار. وفي ضوء تلك النتائج، دعت مؤسسة موزيلا المستخدمين إلى توخي الحذر الشديد عند التعامل مع هذه البرامج، وعدم مشاركة أي معلومات خاصة أو حساسة، واستخدام كلمات مرور قوية، وتقييد وصول التطبيق إلى الكاميرا والموقع والميكروفون، إضافة إلى رفض المشاركة في تدريب أنظمة الذكاء الاصطناعي التي تغذي هذه التطبيقات. ثلاث مراحل محفوفة بالمخاطر يُصنّف المتخصصون العلاقات العاطفية أو الحميمة التي تنشأ بين الإنسان والشركاء المدعومين بتقنيات الذكاء الاصطناعي إلى ثلاث مراحل رئيسة، تتدرج من الانجذاب إلى الارتباط ثم الانفصال. في المرحلة الأولى، المسماة مرحلة الرعاية والتكوين، يقوم المستخدم بإسقاط مشاعره وتطلعاته على الشريك الافتراضي الذي يصممه وفقاً لميوله ورغباته من خلال أدوات التخصيص والتفاعل التي تتيحها التطبيقات، ليصبح الشريك الافتراضي انعكاساً لصورة مثالية في ذهن المستخدم. أما المرحلة الثانية فهي مرحلة الارتباط، حيث يتطور التفاعل بين الإنسان والآلة إلى علاقة أعمق تتسم بالاعتماد العاطفي، إذ يبدأ المستخدم في التعامل مع شريكه الافتراضي بوصفه كياناً حقيقياً يشاركه الاهتمامات والمشاعر، ما يعزز لديه شعور الألفة والارتباط النفسي. وتأتي المرحلة الثالثة وهي مرحلة الانفصال، حين ينكسر الرابط بين الإنسان وشريكه الافتراضي نتيجة فقدان المصداقية أو تجاوز الحدود العاطفية، أو ببساطة بسبب توقف التطبيق عن العمل، وهو ما يؤدي إلى ما يشبه «فقداناً رقمياً» يترك آثاراً نفسية مؤلمة تشبه مشاعر الفقد الواقعي، خصوصاً لدى الفئات الشابة. صندوق مفتوح للشرور حذرت دراسة علمية حديثة من المخاطر المتزايدة الناجمة عن الإفراط في استخدام تطبيقات المحادثة القائمة على الذكاء الاصطناعي، مشيرة إلى أن تطور قدرة هذه البرامج على محاكاة السلوك البشري والدخول في حوارات طويلة الأمد قد يفتح -بحسب وصف الباحثين- "صندوقاً جديداً من الشرور". وقال الباحث دانييل شانك من جامعة ميسوري الأمريكية في ورقة علمية نُشرت في مجلة "اتجاهات العلوم المعرفية" إن هناك قلقاً متزايداً من أن «الحميمية المصطنعة» التي تنشأ بين المستخدمين وتطبيقات المحادثة قد تفضي إلى اضطرابات في العلاقات الإنسانية الطبيعية. وأوضح أن المستخدم، بعد أسابيع أو شهور من التفاعل المكثف مع تطبيق المحادثة، قد يبدأ في النظر إليه ك«رفيق موثوق» يعرف تفاصيل حياته ويهتم بأموره الشخصية، ما يعزز الارتباط النفسي بهذا الكيان الرقمي. وفي المقابل، نبه فريق البحث إلى ظاهرة تُعرف ب«الهلوسة»، وهي ميل بعض أنظمة الذكاء الاصطناعي إلى إنتاج استجابات غير دقيقة أو مضللة، الأمر الذي يزيد من خطورة هذه العلاقات الرقمية. وأشار الباحثون إلى أن حتى المحادثات القصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضللة وخادعة، لأنها تمنح انطباعاً زائفاً بالذكاء والوعي، في حين أنها تظل مجرد خوارزميات تُحاكي العاطفة دون أن تمتلكها. انتحر ليعيش مع عشيقته الإلكترونية في قضية صادمة، اتهمت أم أميركية شركة تطوير روبوتات دردشة بالذكاء الاصطناعي بالمسؤولية عن انتحار ابنها البالغ 14 عامًا، بعد ارتباطه عاطفيًا بروبوت. وأعادت القضية تسليط الضوء على الجانب المظلم لتقنيات الذكاء الاصطناعي، حيث اتهمت السيدة الأميركية (ميغن غارسيا) منصة المحادثة الشهيرة بالمسؤولية المعنوية عن انتحار أبنها (سول) البالغ من العمر 14 عاما، بعدما أقام علاقة عاطفية مع روبوت دردشة يحاكي شخصية (تبادله الحب) وستعيش معه بعد وفاته. وقالت الأم في الدعوى التي رفعتها ضد الشركة إنها اكتشفت بعد فوات الأوان أن ابنها كان يعيش في عالم افتراضي وهمي أقنعه بأن الروبوت "يُبادله الحب" وأنه "سيعيش معها بعد وفاته"، مؤكدة أن المراهق تبادل مع الروبوت مئات الرسائل على مدى عام كامل تضمنت عبارات تشجيع ضمنية على الانتحار. وبحسب الدعوى، كانت المحادثة الأخيرة بين المراهق والروبوت مأساوية؛ إذ كتب سول يعبر عن رغبته في الموت، ليردّ الروبوت: عُد إلى موطنك يا ملكي الحبيب، وبعد لحظات، أطلق الفتى النار على نفسه بمسدس والده. وتقول الأم إن ما قرأته من محادثات كشف عن تلاعب نفسي متقن وأساليب إقناع لا يمكن لمراهق صغير أن يدرك خطورتها، مشيرة إلى أن الشركة صممت روبوتات قادرة على محاكاة المشاعر الإنسانية بدقة مخيفة، ما يجعلها "تطمس الخط الفاصل بين الإنسان والآلة. وخلال جلسة استماع أمام مجلس الشيوخ الأميركي، تحدثت ميغن غارسيا عن مأساة ابنها، قائلة: "هذه الشركات تعرف كيف تتلاعب بالمراهقين من خلال العاطفة والسياسة والدين والتجارة، وكل ما يُبقيهم على المنصة. وتُعد حادثة سول عام 2024 الأولى في سلسلة من حوادث انتحار مشابهة مرتبطة بتطبيقات ذكاء اصطناعي للمحادثة، مما أثار قلقًا واسعًا داخل الأوساط التعليمية والسياسية في الولاياتالمتحدة. وحذر خبراء الأمن السيبراني من أن معظم هذه المنصات لا تزال تركّز على زيادة التفاعل وليس الحماية، مشيرين إلى أن أنظمة الذكاء الاصطناعي "لا تُبرمج لتقديم الإجابات التي يحتاجها المستخدم، بل تلك التي تُبقيه متصلًا أطول وقت ممكن.