أحدثت شركة (OpenAI) موجة جدل واسعة بعد إعلانها على منصة «إكس» عن اتفاقية مع وزارة الدفاع الأمريكية «البنتاغون» لنشر نماذج الذكاء الاصطناعي الخاصة بها — بما في ذلك تقنيات تُستخدم في (ChatGPT)، داخل الشبكات المصنّفة للحكومة، في خطوة أثارت نقاشًا حادًا حول دور الذكاء الاصطناعي في السياقات العسكرية وخصوصية البيانات. أعلن الرئيس التنفيذي، سام ألتمان، عبر «إكس» أن الشركة توصلت إلى اتفاق يسمح بنشر نماذجها تحت ضوابط سلامة شاملة، تشمل مبدأين أساسيين: حظر الاستخدام لأغراض المراقبة الجماعية داخل البلاد، وضمان مسؤولية البشر عند اتخاذ قرارات القوة، وأكد أن هذه المبادئ مُدرَجة في شروط الاتفاق مع وزارة الحرب الأمريكية. الخطوة جاءت بعد خلاف بين البنتاغون وشركة منافسة، (Anthropic)، التي رفضت تقييد استخدام نماذجها للذكاء الاصطناعي في السياقات العسكرية كما طلبت الحكومة، ما دفع الإدارة الأمريكية لإصدار توجيه بوقف استخدام تقنيتها في العقود الفيدرالية. قرار (OpenAI) أثار ردود فعل متفاوتة: انتقادات من مستخدمين عبر الإنترنت وصل بعضها إلى حملة (إلغاء ChatGPT)، حيث عبر كثيرون عن قلقهم من تورط تقنيات الذكاء الاصطناعي في أنشطة عسكرية قد تُستخدم في سياقات صراع أو حرب، كما طالب البعض بضرورة ضمان أعلى مستويات الشفافية بشأن كيف تُستخدم البيانات داخل التطبيقات العسكرية، خصوصًا حين تكون المعلومات حساسة أو متعلقة بأشخاص. في المقابل، أكدت (OpenAI) أن الاتفاق مُصمَّم لضمان أن الذكاء الاصطناعي يُستخدم بشكل قانوني وآمن، وأن الشركة تحتفظ بالسيطرة على بروتوكولات السلامة.