33 ألف منشأة تحت المراقبة استعدادًا للحج    أمير الرياض يرعى تخرج المعاهد والكليات التقنية    كاميرات سيارات ترصد العوائق بسرعة فائقة    الصمعاني: دعم ولي العهد مسؤولية لتحقيق التطلعات العدلية    جامعة "المؤسس" تعرض أزياء لذوات الإعاقة السمعية    "أكنان3" إبداع بالفن التشكيلي السعودي    وصول أول فوج من حجاج السودان    رياح مثيرة للأتربة والغبار في 5 مناطق وفرصة لهطول الأمطار على الجنوب ومكة    اكتمال عناصر الأخضر قبل مواجهة باكستان    الخريجي يشارك في مراسم تنصيب رئيس السلفادور    أمير تبوك يعتمد الفائزين بجائزة المزرعة النموذجية    السعودية و8 دول: تمديد تخفيضات إنتاج النفط حتى نهاية 2025    «التعليم» تتجه للتوسع في مشاركة القطاع غير الربحي    «نزاهة»: إيقاف 112 متهماً بالفساد من 7 جهات في شهر    المؤسسات تغطي كافة أسهم أرامكو المطروحة للاكتتاب    الطائرة ال51 السعودية تصل العريش لإغاثة الشعب الفلسطيني    السفير بن زقر: علاقاتنا مع اليابان استثنائية والسنوات القادمة أكثر أهمية    محمد صالح القرق.. عاشق الخيّام والمترجم الأدق لرباعياته    نتنياهو.. أكبر عُقدة تمنع سلام الشرق الأوسط    عبور سهل وميسور للحجاج من منفذي حالة عمار وجديدة عرعر    نوبة «سعال» كسرت فخذه.. والسبب «الغازيات»    في بطولة غرب آسيا لألعاب القوى بالبصرة .. 14 ميدالية للمنتخب السعودي    زلزال بقوة 5,9 درجات يضرب وسط اليابان    المملكة تستضيف بطولة العالم للراليات تحت مسمى "رالي السعودية 2025"    الكعبي.. الهداف وأفضل لاعب في" كونفرنس ليغ"    رونالدو يغري ناتشو وكاسيميرو بالانضمام للنصر    القيادة تهنئ الشيخ صباح الخالد بتعيينه ولياً للعهد في الكويت    الحجاج يشيدون بخدمات « حالة عمار»    ..و يرعى حفل تخريج متدربي ومتدربات الكليات التقنية    نقل تحيات القيادة وأشاد بالجهود الأمنية.. الأمير عبدالعزيز بن سعود يدشن مشروعات «الداخلية» في عسير    حجاج الأردن وفلسطين : سعدنا بالخدمات المميزة    حجب النتائج بين ضرر المدارس وحماس الأهالي    بدء تطبيق عقوبة مخالفي أنظمة وتعليمات الحج    سائقو الدبَّابات المخصّصة لنقل الأطعمة    ماذا نعرف عن الصين؟!    الاحتلال يدمر 50 ألف وحدة سكنية شمال غزة    مزايا جديدة لواجهة «ثريدز»    انضمام المملكة إلى المبادرة العالمية.. تحفيز ابتكارات النظم الغذائية الذكية مناخيا    هذا ما نحن عليه    هنأ رئيس مؤسسة الري.. أمير الشرقية يدشن كلية البترجي الطبية    إطلاق اسم الأمير بدر بن عبدالمحسن على أحد طرق مدينة الرياض    الصدارة والتميز    9.4 تريليونات ريال ثروة معدنية.. السعودية تقود تأمين مستقبل المعادن    توبة حَجاج العجمي !    "فعيل" يفتي الحجاج ب30 لغة في ميقات المدينة    الأزرق يليق بك يا بونو    تقرير يكشف.. ملابس وإكسسوارات «شي إن» سامة ومسرطنة    أمير نجران يشيد بالتطور الصحي    نمشي معاك    11 مليون مشاهدة و40 جهة شريكة لمبادرة أوزن حياتك    أمير الشرقية يستقبل رئيس مؤسسة الري    الهلال الاحمر بمنطقة الباحة يشارك في التجمع الصحي لمكافحة التدخين    مسبار صيني يهبط على القمر    «طريق مكة».. تقنيات إجرائية لراحة الحجيج    «إخفاء صدام حسين» يظهر في بجدة    فيصل بن مشعل يرعى حفل تكريم معالي رئيس جامعة القصيم السابق    توافد حجاج الأردن وفلسطين والعراق    مدينة الحجاج بحالة عمار تقدم خدمات جليلة ومتنوعة لضيوف الرحمن    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



ما هو معرض للخطر إذا لم تعالج شركات التكنولوجيا الكبرى محتوى الذكاء الاصطناعي المخادع
نشر في الوكاد يوم 26 - 02 - 2024

تيموثي كار هو مدير في Free Press، منظمة غير حزبية وغير ربحية تدعو إلى نظام إعلامي أكثر عدلاً وديمقراطية. الآراء الواردة أدناه تعبر عن رأي الكاتب ولا تعكس بالضرورة رأي شبكة CNN.
وافقت 20 منصة تكنولوجية، قبل حوالي أسبوع، على تصنيف وتقليص المعلومات المضللة التي ينتجها الذكاء الاصطناعي والتي يتم نشرها عبر الإنترنت لخداع الناخبين خلال عام انتخابي مزدحم. وتعهدوا بتقديم "ردود سريعة ومتناسبة" على محتوى الذكاء الاصطناعي المخادع حول الانتخابات، بما في ذلك مشاركة المزيد من المعلومات حول "الطرق التي يمكن للمواطنين من خلالها حماية أنفسهم من التلاعب أو الخداع".
هذا الالتزام الطوعي، الموقع من قبل غوغل، مايكروسوفت، ميتا، "أوبن أيه آي"، تيك توك و"إكس"، تويتر سابقا، من بين شركات أخرى، لا يحظر تمامًا استخدام ما يسمى بخاصية "التزييف العميق" (Deep Fake) – مقاطع فيديو أو مقاطع صوتية زائفة – للمرشحين والقادة وغيرهم من الشخصيات العامة المؤثرة. كما أن المنصات لا توافق على اعادة الفرق الكبيرة التي كانت موجودة لديها لحماية نزاهة الانتخابات في عام 2020. وحتى عند تلك المستويات السابقة، كافحت هذه الفرق لوقف انتشار المعلومات المضللة حول نتيجة الانتخابات، مما ساعد على تأجيج العنف في مبنى الكابيتول الأمريكي بينما كان يستعد الكونغرس للتصديق على فوز الرئيس جو بايدن.
ردًا على ذلك، تعهدت المنصات بوضع توقعات عالية في عام 2024 حول كيفية "إدارة المخاطر الناشئة عن محتوى الذكاء الاصطناعي الخادع المرتبط بالانتخابات"، وفقًا للاتفاقية المشتركة. وستسترشد أعمالهم بعدة مبادئ، بما في ذلك الوقاية والكشف والتقييم والتوعية العامة.
إذا كانت المنصات ترغب في منع تكرار ما حدث في عام 2020، فيتعين عليها أن تفعل المزيد الآن بعد أن أصبح بإمكان التكنولوجيا خداع الناخبين بهذه الصور المطابقة الخادعة التي يمكن تصديقها. وعليهم أن يطابقوا تعهداتهم بأداء أفضل في عام 2024 مع التنفيذ الفعلي وفضح الزيف الذي يمكن توثيقه ومشاركته مع الجمهور، وهو أمر فشلوا في القيام به بأي اتساق في الماضي.
في ديسمبر/كانون الأول، وجدت "فري برس" أنه في الفترة بين نوفمبر/تشرين الثاني 2022 ونوفمبر/تشرين الثاني 2023، قامت "ميتا" و"إكس" و"يوتيوب" بإلغاء ما مجموعه 17 سياسة مهمة عبر منصاتهم. وشمل ذلك التراجع عن سياسات المعلومات الخاطئة المتعلقة بالانتخابات المصممة للحد من محتوى "الأكذوبة الكبيرة" حول تصويت عام 2020. خلال الفترة الزمنية نفسها تقريبًا، قامت شركات غوغل وميتا وإكس مجتمعة بتسريح ما يقرب من 40 ألف موظف، مع حدوث تخفيضات كبيرة في فئات الإشراف على المحتوى والثقة والسلامة. في ذلك الوقت، وصفت المنصات التخفيضات في عدد الموظفين بأنها ضرورية لمواءمة شركاتها مع "واقع اقتصادي مختلف" (غوغل) أو لأن النفقات الرأسمالية السابقة "لم تسر كما هو متوقع" (ميتا).
يؤدي هذا التراجع إلى تعزيز قدر أقل من المساءلة عبر المنصات البارزة، حيث تدير شركات التكنولوجيا ظهرها لسنوات من الأدلة التي تشير إلى الدور الضخم الذي تلعبه في تشكيل الخطاب العام الذي يؤثر على المشاركة المدنية والديمقراطية. ومن المرجح أن يتزايد دورها كقنوات للمعلومات المضللة مع تزايد إتاحة أدوات الذكاء الاصطناعي المتطورة اللازمة لإنشاء صور مزيفة للسياسيين على نطاق أوسع لمستخدمي وسائل التواصل الاجتماعي. وبدون قيام المنصات بإنفاذ هذه القواعد بشكل واضح وحتى قواعد أقوى ضد انتشار معلومات مضللة للناخبين، سنواجه المزيد من الجهود عالية التقنية لاختطاف الانتخابات في جميع أنحاء العالم.
إن الأمر يحدث بالفعل. في العام الماضي، في سباق رئاسة بلدية شيكاغو، تم تداول تسجيل صوتي مزيف يهدف إلى تقليد المرشح بول فالاس على "إكس". وادعى التسجيل الصوتي كذبًا أن فالاس كان يدعم عنف الشرطة في المدينة.
وفي نهاية عام 2023، حثت Free Press شركات مثل غوغل وميتا وإكس على تنفيذ مجموعة مفصلة من حواجز الحماية ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي خلال عام الانتخابات 2024. ويشمل ذلك إعادة الاستثمار في أناس حقيقيين، وخاصة أولئك اللازمين لحماية الناخبين، والإشراف على المحتوى. ويجب عليها أيضًا أن تصبح أكثر شفافية من خلال تبادل بيانات أساسية بانتظام مع الباحثين والمشرعين والصحفيين.
وفي الوقت نفسه، طالبنا المشرعين بوضع قواعد واضحة ضد إساءة استخدام تكنولوجيا الذكاء الاصطناعي، خاصة في ضوء الاستخدام المتزايد للتزييف العميق في الولايات المتحدة وخارجها. يتضمن ذلك إصدار قوانين تتطلب من منصات التكنولوجيا نشر تقارير شفافية منتظمة حول أدوات الفحص والإشراف الخاصة بالذكاء الاصطناعي والكشف عن عملية صنع القرار عند إزالة الإعلانات السياسية المشكوك فيها.
لقد كان هناك الكثير من النشاط حول هذا الموضوع في الكونغرس، بما في ذلك العديد من الإحاطات والمنتديات وجلسات الاستماع، ولم يحقق سوى عدد قليل جدًا من النتائج القابلة للتنفيذ. وقد قدم أعضاء مجلس الشيوخ والنواب العشرات من مشاريع القوانين – بعضها جيد، وبعضها سيئ – ولكن لم يصل أي منها إلى التصويت. وفي الوقت نفسه، تتدخل لجنة التجارة الفيدرالية لملء الفراغ التنظيمي، حيث اقترحت الأسبوع الماضي قاعدة جديدة تجعل من غير القانوني استخدام الذكاء الاصطناعي لانتحال شخصية أي شخص، بما في ذلك المسؤولين المنتخبين. قد تقوم الوكالة بالتصويت على قاعدة جديدة في وقت مبكر من فصل الربيع بعد دعوة ومراجعة التعليقات العامة حول هذه القضية.
مع الاستخدام واسع النطاق للذكاء الاصطناعي، تغير مشهد الإنترنت بشكل كبير منذ عام 2020. ولكن الحقيقة تظل: لا يمكن للديمقراطية أن تستمر من دون مصادر موثوقة للأخبار والمعلومات الدقيقة. بعد تصويت عام 2020، هناك عواقب خطيرة وواقعية عندما تتراجع شركات المنصات عن التزاماتها باستئصال المعلومات المضللة.
ويجب أن تكون التعهدات الطوعية أكثر من مجرد ممارسة للعلاقات العامة. فما لم تعمل الشركات بشكل دائم على استعادة فرق نزاهة الانتخابات وفرض القواعد فعليا ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي، فإن الديمقراطية في جميع أنحاء العالم يمكن أن تظل على المحك.


انقر هنا لقراءة الخبر من مصدره.