أولًا: تصاعد المخاطر دون رقابة الذكاء الاصطناعي يتحول من أداة مثيرة للجدل إلى تهديد أمني فعلي، مع مطالبات تقنية واسعة بوقف تطوير «الذكاء الفائق» واعتباره خطرا على المستقبل. ثانيًا: محدودية قدرات الذكاء الاصطناعي الحالية النماذج اللغوية ليست ذكية فعليًا بل تجمع أنماط بيانات، ما يجعلها عرضة للخطأ، ويضع قرارات حساسة في يد تقنية تخمينية وغير دقيقة. ثالثًا: مخاطر البيانات المسمومة التلاعب بالبيانات قد يحوّل الذكاء الاصطناعي إلى أداة مضادة لمستخدميه، ما يشكل خطرًا مباشرًا في ساحات المعارك المستقبلية والعمليات الدفاعية. رابعًا: شركات تعمل في الظل دون شفافية شركة Safe Superintelligence مثال بارز على تطوير ذكاء خارق دون أي إفصاح، رغم قيمتها الهائلة ومكاتبها العابرة للحدود، ما يثير شكوكًا حول الولاءات والأهداف. خامسًا: سباق دولي غير متوازن دول خصمة مثل الصين تطور تقنيات متقدمة، بينما تغيب سياسات واضحة في الولاياتالمتحدة، ما يفاقم الفجوة في الأمن التقني. سادسًا: ثغرات تنظيمية خطيرة القوانين الأمريكية الحالية لا تُلزم شركات الذكاء الاصطناعي بالكشف عن مشاريعها، خصوصًا من لا تُصدر نماذج قوية أو لا تصدر أي منتجات إطلاقًا. سابعًا: مقترح تشريعي لمعالجة الفجوة حل تنظيمي مقترح يلزم الشركات التي تتجاوز نفقاتها مليار دولار بالشفافية، لضمان رقابة حكومية على المشاريع فائقة الخطورة. ثامنًا: ضرورة تحرك الكونغرس فورًا غياب الرقابة عن تقنيات قد تتجاوز القدرات البشرية يمثل خطرًا قوميًا، ويستدعي قوانين تُجبر الشركات السرية على الانفتاح الكامل حمايةً للأمن الوطني.