استقبل رئيس هيئة مكافحة الفساد.. نائب أمير مكة: القيادة تعزز قيم النزاهة لحماية المال العام    335 ألف متدرب في برامج التدريب التقني خلال عام    "حساب المواطن": 10 يوليو إيداع الدفعة 92    وسط فجوات كبيرة بين الطرفين.. جولة مفاوضات جديدة لوقف النار في غزة    قمة فرنسية – بريطانية بأجندة معقدة.. قضايا الدفاع المشترك تتصدر المشهد    يسعى لحصر السلاح.. نواف سلام يتمسك ب"استعادة الدولة"    نيوم يعزز التواجد الفرنسي في دوري روشن بالتعاقد مع غالتييه    القيادة تهنئ رئيسي ملاوي والقُمر المتحدة بذكرى الاستقلال ويوم الجمهورية    شقيقة رونالدو تكشف سبب غيابه عن جنازة جوتا    هيئة "الشورى" تحيل 26 موضوعاً للمناقشة    ضبط 10 مخالفين و226 كجم من المخدرات    "فلكية جدة": الأرض تستعد لمجموعة من أقصر الأيام    الفضاء السعودية تطلق جائزة "مدار" لتكريم المبتكرين    «الحارس» يعيد هاني سلامة إلى السينما    كيف يخدعنا الانشغال الوهمي؟    الحب طريق مختصر للإفلاس.. وتجريم العاطفة ليس ظلماً    لسان المدير بين التوجيه والتجريح.. أثر الشخصية القيادية في بيئة العمل    علماء يكتشفون علاجاً جينياً يكافح الشيخوخة    "الغذاء والدواء": عبوة الدواء تكشف إن كان مبتكراً أو مماثلًا    اعتماد الإمام الاحتياطي في الحرمين    إنقاذ مريض توقف قلبه 34 دقيقة    الاتحاد السعودي يختتم موسمي دوري البراعم تحت 14 وتحت 13 عاماً    «السجون» توقّع مذكرة مع «التعليم» لتطوير برامج النزلاء    العنقري يرأس اجتماع «هيئة المراجعين الداخليين»    العلاقة بين المملكة وإندونيسيا    تلاشي المخاطر الجيوسياسية في سوق النفط    «التخصصات الصحية» تعتمد دبلوم تمريض العناية القلبية بتخصصي تبوك    الرياض تحتضن مستقبل الطاقة العالمي    في الشباك    أرسنال يتعاقد مع زوبيمندي ب70 مليون دولار    التحذير من الشائعات والغيبة والنميمة.. عنوان خطبة الجمعة المقبلة    «مركز الملك سلمان» يدشّن المرحلة الثالثة لدعم الأمن الغذائي في باكستان    الطفل أمانة.. لا سلعة مُهانة    «الملك سلمان للإغاثة» يعيد السمع لأطفال في تركيا    مستشفى الملك فهد بالمدينة يقدم خدماته ل258 ألف مستفيد    ناغلسمان: إصابة موسيالا صدمة كبيرة للمنتخب    أمير الشرقية يشيد بجهود «مكافحة المخدرات»    توزيع 1.200 سلة غذائية في السودان ل 8.874 مستفيدًا    تجربة جديدة لعمرو دياب في موسم جدة    بين التخزين والامتثال.. معركة الوعي في قلب المدينة    تركي بن هذلول يلتقي قائد قوة نجران    التخصصات الصحية تعتمد برنامج دبلوم تمريض العناية القلبية في تخصصي تبوك    أمير حائل يدشّن مبادرة "أبناؤنا بعيون الصحة"    خطبة الجمعة القادمة عن التحذير من الشائعات والغيبة والنميمة    أحداث تاريخية وقعت في جيزان.. معركة الضيعة وشدا    الشؤون الإسلامية في جازان تختتم الدورة العلمية في صامطة    الشؤون الإسلامية في جازان تناقش آلية تدريب الموظفين على الإسعافات الأولية    المياه الوطنية تدعو عملاءها لتسجيل التوصيلات المنزلية غير النظامية    تمكين الهمم يختتم عامه القرآني بحفل مهيب لحَفَظَة القرآن من ذوي الإعاقة    والدة المحامي حمود الحارثي في ذمة الله    ريال مدريد يكمل عقد نصف نهائي كأس العالم للأندية بثلاثية في شباك دورتموند    ترحيل السوريين ذوي السوابق الجنائية من المانيا    بلاستيك إلكتروني صديق للبيئة    الرياض تستضيف مجلس "التخطيط العمراني" في ديسمبر    ألف اتصال في يوم واحد.. ل"مركز911"    911 يستقبل 2.8 مليون اتصال في يونيو    الأمير جلوي بن عبدالعزيز يرعى حفل انطلاق فعاليات صيف نجران    أمير تبوك يطلع على تقرير فرع وزارة النقل والخدمات اللوجستية بالمنطقة    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



الذكاء الاصطناعي.. الأطر المحددة
نشر في الجزيرة يوم 26 - 02 - 2021

لقد دخلت كلمة «روبوت» معجم اللغة الإنجليزية الحديث منذ مائة عام تقريباً مع العرض الأول في مسرح براغ الوطني لمسرحية كاريل شابيك بعنوان «هل أنت روبوت؟» R.U.R.
تقع أحداث تلك المسرحية على جزيرة في مكان ما على كوكبنا حيث يجري إبداع تلك الروبوتات التي هي عبارة عن كيانات بيولوجية تم تصميمها لتكون قوية وذكية، ولكن بدون روح.
على الرغم من أن المسرحية قديمة وتستمد السخرية من المنافسة بين ستة رجال في جزيرة للزواج من المرأة الوحيدة التي تعيش هناك، إلا أن المسرحية كانت ذات بصيرة في رؤيتها لعالم يتم فيه تكليف الإنسان الآلي بتقديم المزيد من الخدمات للبشرية، وفي نهاية الأمر لخوض حروبها.
تلك المسرحية وصفتها بعض الدراسات النقدية في نيويورك بأنها «سخرية حذقة لحضارتنا الآلية التي نطلق عليها اليوم المجتمع الصناعي.
بعد مرور قرن من الزمان، ما زالت النقاشات حول مكانة الروبوتات في المجتمع تردد صدى الموضوعات التي قدمتها المسرحية ومن بينها: كيفية الاستفادة من مزايا التكنولوجيا دون حدوث مخاطر على البشر؛ ما هي الاستحقاقات المطلوبة من الكيانات التي تحاكي على الأقل وربما تجسد الصفات البشرية؛ وما المكان الذي تبقى للبشرية إذا تجاوزتنا إبداعاتنا؟
خلال القرن العشرين، اعتمدت القواعد التي تحكم عمل الروبوتات بشكل كبير على الخيال العلمي. أصبحت قوانين إسحاق أسيموف الثلاثة: لا تؤذي البشر، وتطيع الأوامر، وتحمي نفسك، كلها كليشيهات، وغير مفيدة لأسباب ليس أقلها أنها لم تكن قوانين على الإطلاق ولكن لأنها قيدت ما يمكن أن تفعله إبداعات البشر.
نظرًا لأن الذكاء الاصطناعي (AI) جعل الآلات المستقلة حقًا فرصة أكثر واقعية، بدأ العلماء في التحذير من أن القواعد الفعلية التي تسيطر على الذكاء الاصطناعي قد تكون مطلوبة.
لقد شهدت السنوات القليلة الماضية انتشارًا واسعًا للأطر والمبادئ المطلوبة في عالم الذكاء الاصطناعي. كان بعضها نتاج مؤتمرات أو جمعيات صناعية والبعض الآخر كتب بواسطة شركات مثل مايكروسوفت وجوجل.
كما أن الحكومات كانت بطيئة في سن القوانين ذات التطبيق العام، لكن القليل منها طور معايير أكثر ليونة لا سيما سنغافورة وأستراليا ونيوزيلندا. حتى بابا الفاتيكان أيد مجموعة من المبادئ العام الماضي في نداء روما لأخلاقيات الذكاء الاصطناعي.
تشتمل جميع المبادئ التي تحكم الذكاء الاصطناعي تقريبًا على تنويعات في الموضوعات الستة التالية:
1- السيطرة البشرية: يجب أن يزيد الذكاء الاصطناعي من الإمكانات البشرية بدلاً من تقليلها.
2- الشفافية: يجب أن يكون الذكاء الاصطناعي قابلاً للفهم.
3- درجة الأمان: يجب أن يعمل الذكاء الاصطناعي على النحو المنشود وأن يكون مقاومًا للقرصنة.
4- المساءلة: يجب توفر الحلول الناجعة عند حدوث أي ضرر.
5- عدم التمييز: يجب أن تكون أنظمة الذكاء الاصطناعي شاملة و»عادلة»، مع تجنب التحيز غير المسموح به.
6- الخصوصية: يجب حماية البيانات التي تدعم الذكاء الاصطناعي، ولا سيما البيانات الشخصية.
لا شيء من الأطر المذكورة أعلاه يبدو مثيراً للجدل. ومع ذلك، وبالرغم من الوقت والجهد المبذول في عقد ورش العمل لصياغة هذه الوثائق، من الغريب أن القليل من الجهد قد بذل في تنفيذها.
يعطي سؤالاً آخر إجابة أكثر وضوحًا، هو ما إذا كان أي من هذه المبادئ ضروريًا في الواقع؟
ترقى الدعوات إلى المساءلة وعدم التمييز والخصوصية إلى مطالبة من يصنعون أنظمة الذكاء الاصطناعي أو يستخدمونه بالامتثال للقوانين المعمول بها بالفعل في معظم الولايات القضائية. عادة ما يتم تغطية متطلبات السلامة من خلال قواعد مسؤولية المنتج.
الشفافية ليست مبدأ أخلاقيًا في حد ذاته، ولكنها ضرورية إذا أردنا فهم وتقييم سلوك الروبوت. جنبًا إلى جنب مع التحكم البشري، يمكن أن يكون تقييدًا محتملاً على تطوير أنظمة الذكاء الاصطناعي بما يتجاوز القوانين الحالية.
تم الاعتراف بهذا كثيرًا في نموذج إطار حوكمة الذكاء الاصطناعي في سنغافورة، والذي احتفلت النسخة الثانية منه بالذكرى السنوية الأولى مؤخرا.
لكن ماذا سيعني كل هذا في الممارسة؟
في (يوليو) 2015، قامت مجموعة من المتسللين يطلقون على أنفسهم اسم فريق التأثير باقتحام موقع ويب لشركة كندية، وسرقة قاعدة بيانات المستخدمين الخاصة بها وجهد استمر ثماني سنوات من سجلات المعاملات. بعد بضعة أسابيع، بدأوا في نشر المعلومات الشخصية على الإنترنت لأكثر من 30 مليون عميل.
في الشهر التالي، تم رفع دعوى قضائية جماعية غير عادية للحصول على تعويض، ليس على أساس سوء التعامل مع البيانات الشخصية، ولكن على أساس الاحتيال. بالإضافة إلى مبلغ 100 دولار أمريكي أنفقه على شراء أرصدة على موقع للدردشة، طالب كريستوفر راسل (الذي انفصل عن زوجته عندما انضم إلى الموقع) بتعويضات تجاوزت 5 ملايين دولار.
تمت تسوية هذه الادعاءات خارج المحكمة ولكنها تشير إلى شيء ما أصبح يُنظر إليه على أنه حق أساسي هو معرفة ما إذا كنت تتحدث إلى إنسان أو روبوت.
قد يبدو هذا سؤالًا بسيطًا، لكن صنع القرار بمساعدة الذكاء الاصطناعي يمزج بشكل متزايد بين الإنسان والآلة. تبدأ بعض روبوتات الدردشة الآن تلقائيًا للاستفسارات الأساسية، وتنتقل من خلال الردود المقترحة التي يتم فحصها من قبل الإنسان، وتتصاعد لتصل إلى الاتصال المباشر مع شخص ما لمشكلات غير عادية أو أكثر تعقيدًا. جانب آخر للشفافية هو فهم القرارات عند اتخاذها.
يبدو التحكم البشري أيضًا شيئًا جيدًا، ولكن إذا كانت السيارات ذاتية القيادة (في نهاية المطاف) أكثر أمانًا من السيارات التي يقودها الإنسان، سيكون من المنطقي بالنسبة لنا التخلي عن عجلة القيادة. سيكون معظم الناس أكثر حذرًا بشأن ترك جندي آلي مستقل حقًا، أو إخضاع أنفسهم لرحمة قاضٍ آلي.
من المفيد هنا التمييز بين ثلاثة أسباب للقلق بشأن الروبوتات والذكاء الاصطناعي.
الأول هو إدارة المخاطر المرتبطة بالتقنيات الجديدة مثل المركبات ذاتية القيادة. هذا في النهاية سؤال نفعي: كيفية تعظيم المنفعة وتقليل الضرر. الذكاء الاصطناعي جيد جدًا في هذا النوع من التحسين.
ثانيًا، هناك بعض الأنشطة التي قد لا نريد أن تقوم بها الآلات على الإطلاق. انضمت العديد من الحكومات إلى اللجنة الدولية للصليب الأحمر والأمين العام للأمم المتحدة في إدانة احتمال اتخاذ الروبوتات قرارات تتعلق بالحياة والموت في ساحة المعركة باعتبارها «بغيضة أخلاقياً».
الفئة الثالثة هي الوظائف التي تعتمد شرعيتها على هوية الفاعل: القضاة، وأصحاب المناصب العامة، وما إلى ذلك. حتى لو كان الروبوت قادرًا على اتخاذ قرارات «أفضل»، يجب أن نتوقف قبل تسليمها المسؤولية عن مثل هذه القرارات، إلا إذا كنا مستعدين أيضًا لنقل السيطرة السياسية أيضًا مثل التخلي عن صندوق الاقتراع الخاص.
عندما تصبح الروبوتات أكثر حيوية واجتماعية، ستكون هناك حاجة إلى قواعد إضافية لحمايتها أيضًا، ويمكن مقارنتها بقوانين القسوة على الحيوانات. بقدر ما يجب أن نحترس من استخدام الروبوتات كسلاح، من المهم ألا تقع ضحايا لها أيضًا. مسرحية «هل أنت روبوت» تبدأ بتسلل ابنة رئيس الشركة إلى المصنع للدفاع عن الروبوتات كممثلة لعصبة الإنسانية المثالية (تعني كلمة robota باللغة التشيكية أيضًا «العبد»)؛ ينتهي بهم الأمر بالانتفاض وقتل جميع صانعيهم باستثناء شخص واحد. نظرًا لأن الروبوتات الخاصة بنا وأنظمة الذكاء الاصطناعي تلعب دورًا أكبر في المجتمع، فسوف نحتاج إلى تكييف قوانيننا لاستيعابها.
** **
سيمون تشيسترمان هو عميد كلية الحقوق بجامعة سنغافورة الوطنية وكتابه «هل نحن روبوتات؟ تنظيم الذكاء الاصطناعي وحدود القانون» سيتم نشره في وقت لاحق من هذا العام - عن صحيفة (ستريت تايمز) السنغافورية


انقر هنا لقراءة الخبر من مصدره.