زخة شهب إيتا الدلويات تزين سماء العالم العربي الليلة    باكستان: نواجه نقصا في المياه بنسبة 21% خلال بداية الخريف    فريق طبي في مستشفى عفيف العام ينجح في إجراء تدخل جراحي دقيق    حرس الحدود بقطاع الوجه ينقذ مواطنًا من الغرق    البرنامج الوطني لمكافحة التستر التجاري يُنفّذ (2,077) زيارة تفتيشية    حوار المدن العربية الأوروبية في الرياص    رياح نشطة في معظم مناطق المملكة وزخات من البرد في الجنوب    ارتفاع اليوان الصيني أمام الدولار    الاتحاد الأوروبي يدعو لرفع الحصار عن غزة    "مايكروسوفت" تعلن رسمياً نهاية عهد "سكايب"    الإدارة الذاتية: رمز وطني جامع.. سوريا.. انتهاء العمليات القتالية في محيط سد تشرين    دعت إسرائيل لاحترام سيادة لبنان.. 3 دول أوربية تطالب باتفاق جديد مع إيران    تسلم أوراق اعتماد سفير سلطنة عمان لدى المملكة.. نائب وزير الخارجية وسفير الكويت يبحثان الموضوعات الإقليمية    في إياب دور الأربعة لدوري أبطال أوروبا.. بطاقة النهائي بين إنتر وبرشلونة    شرط من انزاغي لخلافة جيسوس في الهلال    هاري كين يفوز بأول لقب في مسيرته    "المالية" معلنة نتائج الميزانية للربع الأول: 263.6 مليار ريال إيرادات و322 ملياراً مصروفات    أزمة السكن وحلولها المقترحة    رشيد حميد راعي هلا وألفين تحية    جمعية الوقاية من الجريمة «أمان»    محافظ جدة يطلع على الخدمات التعليمية لذوي الإعاقة    المملكة تختتم مشاركتها في معرض أبوظبي الدولي للكتاب 2025    في أمسية فنية بجامعة الملك سعود.. كورال طويق للموسيقى العربية يستلهم الموروث الغنائي    توقيع مذكرة تفاهم لتعزيز إبداعات الفنون التقليدية    دعوة لدمج سلامة المرضى في" التعليم الصحي" بالسعودية    السديس: زيارة وزير الداخلية للمسجد النبوي تعكس عناية القيادة بالحرمين وراحة الزوار    بنسبة نضج عالية بلغت (96 %) في التقييم.. للعام الثالث.. السعودية الأولى بالخدمات الرقمية في المنطقة    الصحة النفسية في العمل    حكاية أطفال الأنابيب «3»    وزير الدفاع يلتقي رئيس مجلس الوزراء اليمني    الفحوصات الطبية تكشف عن إصابة صهيب الزيد بقطع في الرباط الصليبي    أخضر الناشئات يختتم معسكر الدمام    جامعة الملك سعود تستضيف مؤتمر "مسير" لتعزيز البحث العلمي والشراكات الأكاديمية    مليون و250 ألف زائر ل"جسور" في جاكرتا    وزير الرياضة يستقبل أبطال «نخبة آسيا»    القبض على (31) لتهريبهم (792) كيلوجرامًا من "القات"    انخفاض مؤشرات الأسهم الأمريكية عند الإغلاق    الفتح يستأنف تدريباته استعداداً لمواجهة الوحدة    محاضرات لتعزيز ثقافة الرعاية في مستشفى الملك سلمان    ممنوع اصطحاب الأطفال    النزاعات والرسوم الجمركية وأسعار النفط تؤثر على توقعات اقتصاد دول الخليج    12024 امرأة يعملن بالمدن الصناعية السعودية    وزارة التعليم وموهبه تعلنان انطلاق أولمبياد الفيزياء الآسيوي    تركي بن هذلول: خدمة الحجاج شرف خصه الله بالمملكة حكومةً وشعبًا    وزير الشؤون الإسلامية يلتقي نائب رئيس الإدارة الدينية لمسلمي روسيا    وزير الداخلية يدشن مشروعات متطورة في المدينة المنورة    حرس الحدود يختتم معرض "وطن بلا مخالف" في جازان    السيطرة والبقاء في غزة: أحدث خطط الاحتلال لفرض الهيمنة وترحيل الفلسطينيين    الهند وباكستان تصعيد جديد بعد هجوم كشمير    أمير منطقة تبوك يرعى حفل تخريج طلاب وطالبات جامعة فهد بن سلطان    إنهاء معاناة طفل من جلطات دماغية متكررة بسبب مرض نادر    أمير منطقة الجوف يلتقي أهالي محافظة دومة الجندل    زوجان بنجلاديشيان .. رحلة من أمريكا إلى مكة المكرمة    من جيزان إلى الهند.. كيف صاغ البحر هوية أبناء جيزان وفرسان؟    سعد البريك    الرفيحي يحتفي بزواج عبدالعزيز    "الشؤون الإسلامية" تنفذ برامج التوعية لضيوف الرحمن    أمير جازان يستقبل مدير عام فرع وزارة العدل بالمنطقة    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



الذكاء الاصطناعي والحرب النووية: هل يمكن أن يصبح القرار بيد الآلة
نشر في الوطن يوم 21 - 03 - 2025

مع التطور المتسارع في تقنيات الذكاء الاصطناعي، بات العالم يواجه أسئلة جوهرية حول مدى قدرة هذه الأنظمة على اتخاذ قرارات مصيرية، خاصة في المجالات العسكرية. فهل يمكن الوثوق بالذكاء الاصطناعي لإدارة أزمات قد تؤدي إلى إبادة جماعية؟ وهل يمكن لنظام غير بشري أن يفهم التعقيدات السياسية والعاطفية التي تحكم قرارات الحرب والسلم؟
وقد يكون الذكاء الاصطناعي أداة قيمة للمساعدة في تحليل البيانات، لكنه لا يجب أن يُمنح السلطة لاتخاذ القرار النهائي. حيث أنقذ التدخل البشري العالم في الماضي، ويجب أن يبقى ذلك المبدأ ثابتاً في المستقبل.
ثلاث لحظات
ولإدراك مدى خطورة إسناد قرار نووي إلى الذكاء الاصطناعي، لا بد من مراجعة ثلاث أزمات تاريخية كان يمكن أن تنتهي بدمار شامل لو لم يكن العنصر البشري حاضراً:
01 أزمة الصواريخ الكوبية (1962): قرار ضبط النفس ينقذ العالم عندما اكتشفت الاستخبارات الأمريكية نشر الاتحاد السوفييتي صواريخ نووية في كوبا، دعا معظم مستشاري الرئيس جون كينيدي، بمن فيهم قادة البنتاغون، إلى شن ضربات جوية استباقية. كان من الممكن أن يؤدي ذلك إلى رد عسكري سوفييتي فوري، خصوصا من الغواصات المسلحة بطوربيدات نووية، أو من القوات المنتشرة في كوبا.
لكن كينيدي اختار نهجاً أكثر حكمة، حيث فرض حصاراً بحرياً على الجزيرة، وأدار مفاوضات سرية مع الزعيم السوفييتي نيكيتا خروشوف، انتهت باتفاق لسحب الصواريخ مقابل تعهد أمريكي بعدم غزو كوبا وإزالة الصواريخ الأمريكية من تركيا.
لو كان القرار بيد الذكاء الاصطناعي، المدرب على العقائد العسكرية السائدة في ذلك الوقت، لكان من المحتمل أن يوصي بالتصعيد العسكري استناداً إلى منطق الردع، مما قد يشعل مواجهة نووية شاملة.
02 إنذار كاذب كاد يشعل الحرب (1983): قرار فردي ينقذ البشرية في سبتمبر 1983، تلقى الضابط السوفييتي ستانيسلاف بتروف إنذاراً من أنظمة المراقبة يفيد بأن الولايات المتحدة أطلقت خمسة صواريخ نووية عابرة للقارات. كان ذلك نتيجة انعكاسات ضوئية على السحب، لكن الأجهزة لم تستطع التمييز.
اعتماداً على حدسه، أدرك بتروف أن أي هجوم أمريكي حقيقي كان ليكون أضخم بكثير، وقرر عدم الإبلاغ عن الإنذار كتهديد فعلي، متجنباً بذلك رد فعل نووي كارثي من جانب الاتحاد السوفييتي.
لو كان الذكاء الاصطناعي في موقع اتخاذ القرار، فمن المحتمل أن يستنتج أن الإشارات الواردة تعني هجوماً حقيقياً، خاصة إذا كان مدرباً على العقائد العسكرية التي تتطلب رداً فورياً.
03 مناورة «إيبل آرتشر» (1983): سوء فهم كاد يؤدي إلى نهاية العالم في نوفمبر 1983، أجرى حلف الناتو تدريبات عسكرية تحاكي استعداداً لضربة نووية، وسط توترات متزايدة مع الاتحاد السوفييتي. أساءت موسكو تفسير التحركات العسكرية للحلف، وردت بوضع قواتها النووية في حالة تأهب قصوى، مما أثار قلق الاستخبارات الأمريكية.
لحسن الحظ، أدرك الجنرال الأمريكي ليونارد بيروتز خطورة الوضع، وأوصى بعدم اتخاذ خطوات تصعيدية. لكن لو كان القرار بيد الذكاء الاصطناعي، فمن المحتمل أن يفسر التصعيد السوفييتي على أنه نية لضربة أولى، ما كان سيدفع واشنطن إلى ردع استباقي، وبالتالي إشعال حرب نووية فعلية.
نقاشات عميقة
ففي أواخر عام 2024، توصل الرئيسان الصيني شي جين بينج والأمريكي جو بايدن إلى اتفاق تاريخي ينص على عدم السماح للذكاء الاصطناعي باتخاذ قرار شن حرب نووية.
وجاء هذا الاتفاق بعد خمس سنوات من النقاشات العميقة في الحوار الأمريكي الصيني حول الذكاء الاصطناعي والأمن القومي، برعاية مؤسسة بروكينغز ومركز الأمن الدولي والاستراتيجية بجامعة تسينغهوا.
استندت هذه المحادثات إلى دروس مستخلصة من الحرب الباردة بين الولايات المتحدة والاتحاد السوفييتي، حيث طُرحت تساؤلات حول ما كان يمكن أن يحدث لو أنظمة الذكاء الاصطناعي آنذاك كانت مسؤولة عن قرارات إطلاق الأسلحة النووية. في عالم تحكمه العقائد العسكرية الصارمة والمخاوف المتبادلة، كان بإمكان ذكاء اصطناعي مُدرب على بيانات تلك الحقبة اتخاذ قرارات كارثية تؤدي إلى نهاية العالم.
قرار بايدن وشي
وإدراكاً لهذه المخاطر، جاء قرار بايدن وشي ليؤكد ضرورة استبعاد الذكاء الاصطناعي من قرارات الحرب النووية، وهو قرار ينبغي أن يحظى بإجماع عالمي. فلا يمكن لأي آلة، مهما بلغت دقتها، أن تمتلك الحكمة أو الإحساس الأخلاقي اللازم لمثل هذه القرارات المصيرية. قرارات أفضل قد يظن البعض أن الذكاء الاصطناعي يمكن أن يكون أكثر دقة في تقييم المخاطر، أو أنه قادر على تقليل الأخطاء البشرية. لكن الحقيقة أن جميع الأزمات الثلاث التي كادت تؤدي إلى كارثة نووية تم تجنبها بفضل قرارات اتخذها أشخاص امتلكوا الحدس والإدراك العاطفي والتاريخي للحالة.
على سبيل المثال، خلال أزمة الصواريخ الكوبية، كان ذكاء اصطناعي مدرب على استراتيجيات الحرب الباردة قد أوصى بهجوم استباقي. كذلك، في حالة الإنذار الكاذب عام 1983، كان من الممكن أن يختار الذكاء الاصطناعي الرد النووي بناءً على تحليل البيانات دون إدراك السياق السياسي والعسكري.
لماذا يوصى بعدم ترك القرار للذكاء الاصطناعي:
1. غياب الفهم العاطفي والأخلاقي: الذكاء الاصطناعي لا يمتلك مشاعر أو قيما أخلاقية، مما يجعله غير قادر على تقييم القرارات من منظور إنساني شامل.
2. محدودية السياق والإدراك: الذكاء الاصطناعي يعتمد على البيانات المتاحة له، وقد يفتقر إلى الفهم العميق للسياقات المعقدة أو غير المتوقعة.
3.احتمالية التحيز والخطأ: الأنظمة الذكية قد تتعلم من بيانات منحازة أو غير دقيقة، مما يؤدي إلى قرارات خاطئة أو غير عادلة.
4. المسؤولية والمساءلة: عند ترك القرار للذكاء الاصطناعي، يصعب تحديد المسؤولية عند حدوث أخطاء أو نتائج غير مرغوبة.
5. التأثير على الإبداع والمرونة: الاعتماد الكامل على الذكاء الاصطناعي قد يحد من الإبداع والقدرة على التعامل مع المواقف الجديدة بطرق غير تقليدية.
6. الأمان والمخاطر الأمنية: بعض القرارات قد تؤدي إلى مخاطر أمنية إذا تُركت لأنظمة غير قادرة على التنبؤ بالعواقب البشرية والاقتصادية والسياسية بشكل دقيق.


انقر هنا لقراءة الخبر من مصدره.