الأهلي يُذيق النصر الهزيمة الأولى في دوري روشن    النجمة يتعادل مع الخليج في الوقت القاتل من دوري روشن للمحترفين    جدة تستضيف كأس الخليج العربي ال 27 في سبتمبر 2026    أنجيلينا جولي تزور الجانب المصري من معبر رفح الحدودي مع غزة    إحباط تهريب (122,100) قرص خاضع لتنظيم التداول الطبي في عسير    «سلمان للإغاثة» يوزع (806) سلال غذائية في ولاية قندوز بأفغانسان    ليلة من الفرح والأصالة… صامطة تقدّم أبهى صورة للتراث الجازاني    حدائق جيزان تتجهّز… تزامنًا مع مهرجان جازان 2026    المعادن النفيسة تفتتح 2026 على ارتفاع بعد عام تاريخي    الأمن العام يشارك في تمرين «وطن 95» لقطاعات قوى الأمن الداخلي    خطيب المسجد النبوي: ادعاء علم الغيب كفر ومنازعة لله في ربوبيته    دوري يلو 14.. أبها والدرعية ينتصران قبل القمة.. والعروبة يحسم الديربي    "ختام العام" قصيدة للشاعر عبدالعزيز سليمان الفدغوش        مجلس إدارة الجمعية التعاونية ببيشة يناقش الخطة الاستثمارية    خطيب المسجد الحرام: الضعف البشري يوجب التوكل على الله ويحذر من الإعجاب بالنفس    محمد بن بريدي الشهراني في ذمة الله        ارتفاع طفيف في أسعار النفط    تجارب تشغيلية لمتطوعي كأس آسيا تحت 23 عامًا «2026 السعودية»    المملكة تعيد تعريف التنافسية غير النفطية    هل ستقفز من الهاوية؟    فِي الكَلِمَةِ وتَحَوُّلاَتِهَا    رواية (قلوب قاتلة).. بين أدب البحر والجريمة    تحليل الخطاب التلفزيوني    ما بين الواقع والطموح.. اللاعب السعودي أمام منعطف حاسم    المحاكم من عامة إلى متخصصة    الإكثار من الماتشا خطر صحي يهدد الفتيات    هل تستطيع العقوبات تغيير مسار الصراع؟    ترامب: أتناول جرعة أسبرين أكبر مما يوصي بها الأطباء    البرازيل: المحكمة العليا تأمر بإعادة بولسونارو للسجن بعد خروجه من المستشفى    "هيكساجون" أكبر مركز بيانات حكومي في العالم في الرياض    نائب أمير الشرقية يطلع على مبادرة "مساجدنا عامرة" و يطلع على أعمال جمعية "إنجاب"    فريق طبي ب"مركزي القطيف" يحقق إنجازا طبيا نوعيا بإجراء أول عملية استبدال مفصل    بنك فيجن يعزز حضوره في السوق السعودي بالتركيز على العميل    السعودية وتشاد توقعان برنامجا تنفيذيا لتعزيز التعاون الإسلامي ونشر الوسطية    نزاهة تحقق مع 466 مشتبها به في قضايا فساد من 4 وزارات    حرس الحدود يشارك في التمرين التعبوي المشترك «وطن 95»    كرنفال ال60 يوما يحيي ثراث وهوية جازان    إرشادات أساسية لحماية الأجهزة الرقمية    أمير القصيم يزور معرض رئاسة أمن الدولة    «عالم هولندي» يحذر سكان 3 مدن من الزلازل    في 26 أولمبياد ومسابقة آيسف العالمية.. 129 جائزة دولية حصدها موهوبو السعودية    أكد أن مواقفها ثابتة ومسؤولة.. وزير الإعلام اليمني: السعودية تحمي أمن المنطقة    طالب إسرائيل بالتراجع عن تقييد عمل المنظمات.. الاتحاد الأوروبي يحذر من شلل إنساني في غزة    تلويح بالحوار.. وتحذير من زعزعة الاستقرار.. الاحتجاجات تتسع في إيران    "التعاون الإسلامي" تجدد دعمها للشرعية اليمنية ولأمن المنطقة واستقرارها    أطول كسوف شمسي في أغسطس 2027    مسابقة أكل البطيخ تودي بحياة برازيلي    عملية لإطالة عظم الفخذ لطفل    إجماع دولي على خفض التصعيد ودعم الحكومة اليمنية    أول عملية لاستبدال مفصل الركبة باستخدام تقنية الروبوت    نائب أمير تبوك يستقبل رئيس وأعضاء مجلس إدارة جمعية طفلي الطبية بالمنطقة    تكليف عايض بن عرار أبو الراس وكيلاً لشيخ شمل السادة الخلاوية بمنطقة جازان    «وطن 95».. تعزيز جاهزية القطاعات الأمنية    فلما اشتد ساعده رماني    باحثون يطورون نموذجاً للتنبؤ بشيخوخة الأعضاء    خادم الحرمين الشريفين وسمو ولي العهد يعزيان أسرة الخريصي    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



روبوتات الذكاء الاصطناعي تصطدم بكوارث الأمن والخصوصية
نشر في الوطن يوم 19 - 04 - 2023

تتسابق شركات التكنولوجيا لتضمين نماذج لغة الذكاء الاصطناعي في العديد من المنتجات لمساعدة الأشخاص على القيام بكل شيء بدءًا من حجز الرحلات إلى تنظيم التقويمات الخاصة بهم لتدوين الملاحظات في الاجتماعات.
لكن الطريقة التي تعمل بها هذه المنتجات - تلقي التعليمات من المستخدمين ثم البحث في الإنترنت عن إجابات - تخلق الكثير من المخاطر الجديدة. باستخدام الذكاء الاصطناعي، يمكن استخدامها في جميع أنواع المهام الخبيثة، بما في ذلك تسريب المعلومات الخاصة للأشخاص ومساعدة المجرمين في التصيد الاحتيالي والبريد العشوائي والاحتيال. يحذر الخبراء من أننا نتجه نحو «كارثة» تتعلق بالأمن والخصوصية.
بوت السناب
واجه مستخدمو «سناب شات» تحذيرات بشأن «بوت السناب» الذي أثار اهتمام مستخدمي التطبيق مؤخرا، ولاقى تفاعلا في مواقع التواصل الاجتماعي، حيث أضافت الشركة روبوت دردشة يعمل بالذكاء الاصطناعي «My AI»، ورأى العديد أنه سيضيف لهم المتعة من خلال الفضفضة والمحادثات فيما اعتبره آخرون مهددا للخصوصية.
تحميل إجباري
كشف راكان الروقي المهتم بأمن البيانات أن الروبوت كان في السابق إجباريا والآن لم يعد كذلك وبالإمكان حذفه من خلال الدخول على إعدادات الدردشة في السناب ومن ثم المسح من موجز الدردشة، والسبب في كونه لم يعد إجباريا هو تأثير الجمهور أو المستخدم أو العامة بشكل عام لأنهم هم بالأساس القوة ومن يقرر فهم من يزود الشركات بالمادة، بمعنى أنه لو لم يكن المستخدم موجودا بالتالي لا يمكن للشركات أن تستمر، لذلك رأوا أن يكون اختياريا خوفا على معلومات الأشخاص وأيضا وعيهم بالحفاظ على الخصوصية.
مخاطر عامة
أشار إلى أن تقنيات الذكاء الاصطناعي موجودة سابقا وليست بحديثة، وكانت تستخدم في التطبيقات التي نستخدمها في حياتنا اليومية، ونتعايش معها وأقرب مثال ظهور الإعلانات أو الصفحات المفضلة لنا، وهذه أمور قديمة فيما يتعلق بأنظمة الذكاء الاصطناعي، لكن دخول هذه الأنظمة والنماذج للعامة الآن بها مخاطر فعليا على الخصوصية. وفيما يتعلق بأنظمة روبورت السناب لو تم طرح أسئلة معينة عليه ستكون الإجابة بدعم أجندة خارجية وسياسات تضعها الشركات المسؤولة، بينما البيانات هذه ممكن أن يتم تسجيلها لدى الشركة ذاتها وهذه أخطر من روبورت السناب بمراحل خصوصا النماذج المتقدمة منها.
كسر الحماية
نماذج لغة الذكاء الاصطناعي التي تشغل روبوتات المحادثة مثل ChatGPT و Bard و Bing تنتج نصا يقرأ مثل شيء كتبه إنسان. إنهم يتبعون التعليمات أو «المطالبات» من المستخدم ثم يولدون جملة من خلال التنبؤ، على أساس بيانات التدريب الخاصة بهم، بالكلمة التي من المرجح أن تتبع كل كلمة سابقة. لكن الشيء الذي يجعل هذه النماذج جيدة جدًا - حقيقة أنها تستطيع اتباع التعليمات - يجعلها أيضًا عرضة لسوء الاستخدام. يمكن أن يحدث ذلك من خلال «الحقن الفوري»، حيث يستخدم شخص ما محفزات توجه نموذج اللغة لتجاهل الاتجاهات السابقة وحواجز الأمان.
المساعدة في الاحتيال والتصيد
هناك مشكلة أكبر بكثير من جيلبريك التي تنتظرنا. في أواخر مارس، أعلنت شركة OpenAI أنها تسمح للأشخاص بدمج ChatGPT في المنتجات التي تتصفح الإنترنت وتتفاعل معها. تستخدم الشركات الناشئة هذه الميزة بالفعل لتطوير مساعدين افتراضيين قادرين على اتخاذ إجراءات في العالم الحقيقي، مثل حجز الرحلات الجوية أو وضع الاجتماعات في تقاويم الأشخاص. يقول فلوريان ترامير، الأستاذ المساعد لعلوم الكمبيوتر في ETH Zürich الذي يعمل في أمن الكمبيوتر والخصوصية والتعلم الآلي: «أعتقد أن هذا سيكون كارثة إلى حد كبير من منظور الأمان والخصوصية». نظرا لأن المساعدين الافتراضيين المحسّنين بالذكاء الاصطناعي يكشطون النصوص والصور من الويب، فهم منفتحون على نوع من الهجوم يسمى الحقن الفوري غير المباشر، حيث يغير طرف ثالث موقع الويب عن طريق إضافة نص مخفي يهدف إلى تغيير سلوك الذكاء الاصطناعي. يمكن للمهاجمين استخدام وسائل التواصل الاجتماعي أو البريد الإلكتروني لتوجيه المستخدمين إلى مواقع الويب التي تحتوي على هذه المطالبات السرية. بمجرد حدوث ذلك، يمكن التلاعب بنظام الذكاء الاصطناعي للسماح للمهاجم بمحاولة استخراج معلومات بطاقة ائتمان الأشخاص، على سبيل المثال.
يمكن للجهات الخبيثة أيضًا إرسال بريد إلكتروني إلى شخص ما يحتوي على حقنة فورية مخفية فيه. إذا كان المتلقي يستخدم مساعدًا افتراضيًا للذكاء الاصطناعي، فقد يتمكن المهاجم من التلاعب به لإرسال معلومات شخصية للمهاجم من رسائل البريد الإلكتروني للضحية، أو حتى إرسال بريد إلكتروني إلى الأشخاص الموجودين في قائمة جهات اتصال الضحية نيابة عن المهاجم.
يقول أرفيند نارايانان، أستاذ علوم الكمبيوتر بجامعة برينستون: «بشكل أساسي، يمكن لأي نص على الويب، إذا تمت صياغته بالطريقة الصحيحة، أن يجعل هذه الروبوتات تسيء التصرف عندما تصادف ذلك النص».
تسمم البيانات
وجد باحثون أنه كان من الممكن تسميم مجموعة البيانات التي تدخل في تدريب نماذج الذكاء الاصطناعي الكبيرة. مقابل 60 دولارًا فقط، تمكنوا من شراء المجالات وملؤها بالصور التي يختارونها، والتي تم تجميعها بعد ذلك في مجموعات بيانات كبيرة. كانوا أيضًا قادرين على تحرير وإضافة جمل إلى إدخالات Wikipedia التي انتهى بها الأمر في مجموعة بيانات نموذج AI.
لجعل الأمور أسوأ، كلما تكرر شيء ما في بيانات التدريب لنموذج الذكاء الاصطناعي، كلما أصبحت الرابطة أقوى. يقول ترامير إنه من خلال تسميم مجموعة البيانات بأمثلة كافية، سيكون من الممكن التأثير على سلوك النموذج ومخرجاته إلى الأبد. لم يتمكن فريقه من العثور على أي دليل على هجمات تسمم البيانات، لكن ترامير يقول إنها مسألة وقت فقط، لأن إضافة روبوتات المحادثة إلى البحث عبر الإنترنت تخلق حافزًا اقتصاديًا قويًا للمهاجمين.
لا إصلاحات
تدرك شركات التكنولوجيا هذه المشاكل. لكن لا توجد حاليًا حلول جيدة، كما يقول سايمون ويليسون، الباحث المستقل ومطور البرامج، الذي درس الحقن الفوري.
رفض المتحدثون باسم Google و OpenAI التعليق عندما تم سؤالهم عن كيفية إصلاح هذه الثغرات الأمنية.
تقول Microsoft إنها تعمل مع مطوريها لمراقبة كيفية إساءة استخدام منتجاتهم والتخفيف من هذه المخاطر. لكنه يعترف أن المشكلة حقيقية، ويتابع كيف يمكن للمهاجمين المحتملين إساءة استخدام الأدوات.
يقول رام شانكار سيفا كومار، الذي يقود جهود مايكروسوفت الأمنية في مجال الذكاء الاصطناعي: «لا يوجد حل سحري في هذه المرحلة». ولم يعلق على ما إذا كان فريقه قد وجد أي دليل على الحقن الفوري غير المباشر قبل إطلاق Bing.


انقر هنا لقراءة الخبر من مصدره.