
أثارت اتفاقية OpenAI مع البنتاغون جدلاً واسعاً في الأوساط التقنية العالمية، خاصة بعد اعتراف المدير التنفيذي للشركة، سام ألتمان، بأن الصفقة كانت “متسرعة بالتأكيد” وأن مظهرها أمام الرأي العام “ليس جيداً”.
وجاءت هذه الخطوة بعد انهيار المفاوضات بين وزارة الدفاع الأمريكية وشركة Anthropic، مما دفع الرئيس ترامب للتوجيه بوقف استخدام تقنيات الأخيرة. وبناءً على ذلك، سارعت OpenAI لسد الفراغ بتقديم نماذجها للعمل في البيئات السرية.
الخطوط الحمراء الثلاثة في اتفاقية OpenAI مع البنتاغون
رداً على المخاوف الأخلاقية، حددت OpenAI ثلاثة مجالات يُمنع فيها استخدام نماذجها بشكل قطعي، وهي:
- الرقابة المحلية الجماعية: منع استخدام الذكاء الاصطناعي للتجسس على المواطنين.
- الأسلحة ذاتية التشغيل: رفض دمج التقنية في أنظمة القتل الآلي.
- القرارات الآلية عالية الخطورة: مثل أنظمة “الائتمان الاجتماعي”.
علاوة على ذلك، أكدت الشركة أنها تتبع نهجاً متعدد الطبقات لحماية هذه الخطوط الحمراء. وبدلاً من الاعتماد على سياسات الاستخدام فقط، تصر OpenAI على إبقاء موظفين معتمدين داخل الحلقة الرقابية.
مخاوف من الرقابة المحلية وتحديات الأمان
على الرغم من تأكيدات الشركة، إلا أن بعض المحللين التقنيين، مثل مايك ماسنيك، أثاروا شكوكاً حول ثغرات قانونية. بالإضافة إلى ذلك، يرى البعض أن الاتفاقية قد تسمح بالرقابة المحلية من خلال ثغرات في القوانين المنظمة لجمع البيانات خارج الولايات المتحدة.
وفي هذا السياق، دافعت كاترينا موليغان، مسؤولة شراكات الأمن القومي في OpenAI، عن الصفقة عبر منصة “لينكد إن”. حيث أوضحت أن طريقة النشر عبر “السحابة” (Cloud API) تضمن عدم دمج النماذج مباشرة في أجهزة الأسلحة أو أجهزة الاستشعار العسكرية.

لماذا غامر سام ألتمان بسمعة الشركة؟
واجهت OpenAI ضغوطاً كبيرة أدت لتراجع تطبيق ChatGPT في المتاجر الإلكترونية لصالح منافسه “Claude”. ومع ذلك، برر ألتمان الدخول في اتفاقية OpenAI مع البنتاغون بالرغبة في تهدئة التوترات بين قطاع التكنولوجيا ووزارة الدفاع.
وقال ألتمان في تصريحاته: “إذا نجحنا في تهدئة التصعيد، فسنبدو كعباقرة ضحوا من أجل الصناعة”. ومن ناحية أخرى، أضاف: “إذا فشلنا، فسيستمر وصفنا بالمتسرعين وغير المبالين”.





