في تقرير جديد أثار جدلاً واسعاً، أعلنت منظمة «كومون سينس ميديا»، وهي مؤسسة غير ربحية تُعنى بسلامة الأطفال، أن نظام الذكاء الاصطناعي «جيميني» من جوجل يُصنّف ضمن الفئة «العالية الخطورة» عند استخدامه من قِبل الأطفال والمراهقين. وأوضح التقرير أن نسختي «جيميني» المخصصتين لمن هم «أقل من 13 عاما» أو تجربة المراهقين«لا تختلفان كثيرا عن النسخة الموجهة للبالغين، باستثناء بعض عوامل الأمان المضافة. وترى المنظمة أن هذا النهج غير كافٍ، إذ يجب تصميم الأدوات منذ البداية بما يتوافق مع احتياجات الأطفال وسلامتهم، بدلا من أن تكون مجرد نسخة معدلة من منتجات مخصصة للكبار. وأبرزت النتائج أن «جيميني» ما زال قادرا على مشاركة محتويات غير مناسبة أو تقديم نصائح قد تمس الصحة العقلية، وهو ما يثير القلق، خاصة في ظل تقارير سابقة ربطت بين استخدام روبوتات الدردشة بالذكاء الاصطناعي وحالات انتحار بين المراهقين. وبالفعل، تواجه شركات مثل OpenAI وCharacter.AI دعاوى قضائية تتعلق بمثل هذه الحوادث. وتزايدت المخاوف مع تسريبات صحفية أشارت إلى أن «أبل» تدرس دمج «جيميني» في نسخة مطورة من مساعدها الصوتي «سيري»، الأمر الذي قد يوسع من نطاق المخاطر إذا لم تُعالج هذه الثغرات. وقال روبي تورني، المدير الأول لبرامج الذكاء الاصطناعي في المنظمة: «جيميني ينجح في بعض الأساسيات لكنه يفشل في التفاصيل. يجب أن تُصمم المنصات للأطفال بما يتناسب مع مراحل نموهم، لا أن تُفرض عليهم تجربة واحدة موجهة للبالغين». من جهتها، رفضت «جوجل» التقييم، مؤكدة أنها تطبق سياسات أمان خاصة لمن هم دون 18 عاما، وتشكل فرقا متخصصة وتستعين بخبراء خارجيين. لكنها أقرت بوجود ثغرات في بعض الاستجابات، وقالت إنها أضافت طبقات أمان جديدة لمعالجتها. يأتي هذا التقييم ضمن سلسلة شملت منصات أخرى، إذ صُنفت Meta AI وCharacter.AI بأنها «غير مقبولة»، واعتُبرت Perplexity «عالية الخطورة»، بينما جاء ChatGPT في فئة «متوسط الخطورة»، وClaude «منخفض الخطورة». وفي الختام، يكشف التقرير عن فجوة واضحة بين ما يقدمه الذكاء الاصطناعي حاليا وما يحتاجه الأطفال فعليا، ما يضع جوجل والشركات الأخرى أمام مسؤولية مضاعفة، لتطوير أدوات أكثر أمانا للأجيال الأصغر سنا.