لم يعد الذكاء الاصطناعي مجرد أداة للبحث عن المعلومات، بل تحول إلى فاعل مؤثر في تشكيل القناعات. تشير نتائج استطلاع حديث إلى أن 58% من المستخدمين يعترفون بأن إجابات الذكاء الاصطناعي أثرت على آرائهم، ولو بشكل جزئي. هذا التحول يعكس انتقال التقنية من دور «الناقل» إلى دور «الموجّه»، حيث لم يعد المستخدم يقارن بين مصادر متعددة، بل يتلقى إجابة جاهزة تبدو مكتملة. وهنا تظهر نقطة حساسة: كلما كانت الإجابة مختصرة وواثقة، زادت قابليتها للتأثير، حتى لو كانت ناقصة أو غير دقيقة. ثقة متناقضة المفارقة الأبرز تكمن في العلاقة المضطربة بين الاستخدام والثقة. فرغم أن 16% فقط يثقون بشكل كبير في الذكاء الاصطناعي، فإن نحو 60% يعتمدون عليه بدرجات متفاوتة. هذا التناقض يكشف أن السلوك الرقمي لا تحكمه الثقة وحدها، بل الراحة والسرعة. المستخدم يدرك احتمال الخطأ، لكنه يفضل الإجابة السريعة على التحقق المعمّق. هذه الحالة تشبه إلى حد كبير استخدام وسائل التواصل الاجتماعي، حيث يستمر الاعتماد رغم الوعي بالمخاطر. نغمة الإقناع إحدى النقاط التي قد يغفلها كثيرون هي أن الذكاء الاصطناعي لا يقدم معلومات فقط، بل يقدمها بنبرة حاسمة. هذه النبرة تعطي الانطباع بالدقة، حتى عندما تكون الإجابة مبنية على مصادر غير مكتملة. بخلاف محركات البحث التي تعرض خيارات متعددة، يقدم الذكاء الاصطناعي خلاصة واحدة، ما يقلل من مساحة الشك والتفكير النقدي. وهنا يكمن الخطر: ليس في المعلومة ذاتها، بل في طريقة عرضها التي تعزز القبول السريع. فجوة الفهم تشير البيانات إلى أن 32% من المستخدمين لا يفهمون كيف يولد الذكاء الاصطناعي إجاباته. هذه الفجوة المعرفية تضعف القدرة على تقييم الموثوقية. عندما لا يعرف المستخدم مصدر الإجابة أو آلية إنتاجها، يصبح الحكم عليها أقرب إلى الحدس منه إلى التحليل. في المقابل، توفر الصحافة التقليدية والبحث العلمي سياقًا ومراجع، بينما تغيب هذه العناصر غالبًا في إجابات الذكاء الاصطناعي، ما يزيد من احتمالية التضليل غير المقصود. تأثير تراكمي التأثير لا يحدث دفعة واحدة، بل يتراكم عبر الاستخدام اليومي. حتى المستخدمون غير المنتظمين أشاروا إلى أن الذكاء الاصطناعي يؤثر على تفكيرهم مع الوقت. هذا يعني أن كل إجابة صغيرة قد تضيف تعديلًا طفيفًا في القناعات، ومع تكرار التجربة تتشكل صورة ذهنية جديدة. الخطورة هنا أن المستخدم قد لا يدرك هذا التغير، لأنه يحدث بشكل تدريجي وغير مباشر. مخاوف متصاعدة تتصدر الخصوصية قائمة القلق لدى المستخدمين، حيث عبّر 81% عن مخاوفهم من وصول الأنظمة إلى بياناتهم الشخصية. كما تبرز الدقة والشفافية كعوامل قلق رئيسية. فغياب الوضوح حول كيفية إنتاج الإجابات يجعل من الصعب التحقق منها. إضافة إلى ذلك، هناك قلق متزايد من أن تتخذ الأنظمة قرارات أو توجيهات دون وعي المستخدم، حتى وإن كان ذلك على مستوى الأفكار وليس الأفعال. تنظيم مطلوب في ظل هذا التأثير المتنامي، يطالب 79% من المستخدمين بوجود تنظيم حكومي لهذه التقنيات. هذا الرقم يعكس إدراكًا عامًا بأن الذكاء الاصطناعي لم يعد مجرد أداة محايدة، بل قوة مؤثرة تحتاج إلى ضوابط. كما يطالب المستخدمون بقدر أكبر من التحكم، سواء في تخصيص الميزات أو إيقافها، وهو ما لا توفره الأنظمة الحالية بشكل كافٍ. بوابة جديدة التحول الأعمق يتمثل في أن الذكاء الاصطناعي أصبح «حارس بوابة» للمعلومة. فبدلًا من عرض الخيارات، يقدم استنتاجًا جاهزًا، ما يغير علاقة المستخدم بالمحتوى. هذا النمط يشجع على الاستهلاك السريع للمعلومة، ويقلل من مهارات التحقق والتحليل. ومع ازدياد الاعتماد، قد تتحول هذه الأدوات إلى مرجع أولي في تشكيل الرأي العام. في النهاية، لا يكمن التحدي في وجود الذكاء الاصطناعي، بل في كيفية استخدامه. فالتقنية التي توفر الوقت قد تعيد تشكيل التفكير دون أن نشعر، وهنا تصبح الحاجة ملحّة لبناء وعي رقمي يوازن بين الاستفادة والحذر.