بصراحة.. هل تثق في إعلام الروبوتات؟ وهل تثق بالمحتوى الذي تصنعه تقنيات الذكاء الاصطناعي؟ وهل أصبحت تلك التقنيات التي تتحكم في إعلامنا؟ قد يبدو السؤال مستقبليًا أو يخيل لنا أننا لم نصل تلك المرحلة! لكن الحقيقة أن الجواب لم يعد يحتمل التأجيل، لأن هذا المستقبل قد بدأ بالفعل، بل إنه أصبح حاضرًا متغلغلًا في كواليس أغلب المؤسسات الإعلامية حول العالم. ابتداءً من الأخبار التي تصنع، ومن المواد والفيديوهات التي تنتج، ومن المقالات التي تُكتب وتُنشر أوتوماتيكيًا خلال ثوانٍ، إلى التحليلات الصوتية والمرئية التي تصنعها تقنيات الذكاء الاصطناعي، لذا نحن اليوم أمام إعلام يصوغه "روبوت" لا يشعر، لا يغضب، لا ينحاز... أو هكذا نعتقد. في عام 2023، أعلنت وكالة "أسوشيتد برس" أنها تستخدم روبوتات تحرير لكتابة أكثر من 3 آلاف تقرير مالي كل ربع سنة، وهو رقم يستحيل على أي غرفة أخبار بشرية مجاراته، وشركة "بلومبيرغ" كذلك، تستخدم منصة "Cyborg" لكتابة تقارير مالية خلال ثوانٍ، بينما اعتمدت صحيفة "واشنطن بوست" خوارزمية "Heliograf" لتغطية الانتخابات والأحداث الرياضية. ورغم أن تلك الاستخدامات تبدو تقنية بحتة، فإن الخطر لا يكمن فقط في السرعة أو الكفاءة، بل في سؤال الثقة: هل نثق في محتوى لا نعرف كيف صيغ؟ وهل تنحاز الخوارزميات فعلًا؟ الإجابة المعقدة تبدأ من البيانات، فالذكاء الاصطناعي لا يصنع رأيًا، بل يبني محتواه بناءً على ما دُرب عليه، وما دُرب عليه هو بالضرورة اختيارات بشرية مشبعة بثقافات ومصالح وميل سياسي أو اقتصادي. وإذا كانت مصادر البيانات غير متوازنة أو محملة بانحيازات، فالنتيجة ليست فقط خبرًا غير دقيق، بل واقعًا مشوهًا يخدعنا بوجه محايد. إحصائية صادمة نشرتها منظمة "MIT Technology Review" أشارت إلى أن أكثر من 61 % من الأخبار التي ينتجها الذكاء الاصطناعي على الإنترنت تحتاج إلى تدقيق بشري، وأن نسبة الأخطاء في الأخبار الآلية تفوق 30 % في المحتوى السياسي. وفي استطلاع أجرته "Reuters Institute" عام 2024 في 46 دولة، قال 52 % من المشاركين إنهم "لا يثقون" بالأخبار المنتجة بالذكاء الاصطناعي إذا لم يُذكر صراحة أنها راجعت من قبل محرر بشري. الثقة، في الإعلام، ليست فقط في صحة المعلومة، بل في نيات من يقدّمها، وتوجهاته! فهل يمكن تحميل الروبوت نية؟ هل يمكن محاسبة خوارزمية على ترويج دعاية أو إسقاط معلومة؟ الأسئلة الأخلاقية هنا لا تقل أهمية عن الأسئلة التقنية، ولتوضيح هذا المقصد أستعرض حادثة عام 2023، حين نشرت إحدى منصات الأخبار الأميركية مقالًا كاملاً من إنتاج الذكاء الاصطناعي عن حدث خيري، ليتبين لاحقًا أن الحدث لم يقع أصلًا، وأن الخبر كان مبنيًا على إشاعة منشورة على منصة مجهولة. ولا يقف الأمر عند التضليل، بل يتعداه إلى تهميش الإنسان نفسه. فبحسب تقرير صادر عن "PwC"، فإن أكثر من 30 % من وظائف الإعلام التقليدي قد تختفي أو يعاد تشكيلها خلال السنوات الخمس القادمة بسبب الأتمتة، وهو ما يعني أن القرار حول "من نثق فيه" لم يعد رفاهية، بل قرارًا يرتبط بمستقبل مهنة كاملة. لا يعني هذا أن الذكاء الاصطناعي عدو، بل قد يكون أداة هائلة إذا ما ضُبطت بمدونات سلوك وأطر أخلاقية واضحة، فكما لا نترك الطبيب الآلي يشخّصنا دون إشراف بشري، لا ينبغي أن نترك الصحفي الآلي يُخبرنا بالعالم دون رقابة، لذا الدور الأهم اليوم هو للإنسان الذي يُدرب الآلة ويُدقق مخرجاتها. ختاما أقول، قد نعيش في زمن تكتب فيه الآلة كل شيء، لكننا ما زلنا نملك الحق في أن نقرأ بعين الشك، وأن نسأل: من كتب هذا؟ ولماذا؟ وهل يمكنني أن أصدّقه؟ فالثقة ليست فقط في التقنية، بل في من يشغلها.