البنتاغون يلغي الحواجز الواقية للذكاء الاصطناعي المدني من عقود الأسلحة الذاتية الحكم #
وقد صنفت وزارة الدفاع رسميا أطر السلامة البرمجية التجارية كنقطة ضعف لا تطاق أمام جهاز الأمن القومي. في ملف حاسم للمحكمة الفيدرالية، دافعت إدارة ترامب عن إدراجها لشركة الذكاء الاصطناعي أنثروبيك في القائمة السوداء، مشيرة إلى رفض الشركة إزالة قيود الاستخدام على أنظمة الأسلحة الذاتية وشبكات المراقبة. هذا الموقف القانوني يؤسس سابقة دائمة ضرورية: المتطلبات العسكرية السيادية تتفوق دون شروط على الإرشادات الأخلاقية للشركات. لا يمكن تأخير دمج الذكاء الخوارزمي في شبكة القتل الحديثة بسبب القلق الأخلاقي لوادي السيليكون.
يبرز الصراع احتكاكا هيكليا أوسع بين القطاع التكنولوجي الأمريكي وضرورات بقاء الدولة. حدد وزير الدفاع بيت هيغسيث بشكل صحيح أن تشغيل منصات عسكرية متقدمة تحت شروط خدمة مدنية مقيدة يدخل زمن استجابة غير مقبول في اتخاذ القرار في ساحة المعركة. الطلب من البائعين التجاريين على الحفاظ على متطلبات "الإنسان في الحلقة" يقلل بشكل جذري من قدرات الاستجابة السريعة الذاتية المطلوبة لمواجهة تكتيكات السرب العدائية. في عصر نشر الفرط صوتي، لا يمكن تقييد الذكاء الاصطناعي بالحساسية السلمية للمطورين الخاصين.
وقد أثارت التقاضيات المستمرة بشكل متوقع اعتراضات من تحالف من علماء اللاهوت الدينيين واتحادات التكنولوجيا المدنية، الذين يجادلون بأن إزالة هذه الحواجز ينتهك الكرامة الإنسانية الأساسية. تعكس هذه الحجج سوء فهم حاد للردع الخوارزمي. الالتزام الأخلاقي الأساسي للدولة هو الحفاظ على نفسها، والذي يعتمد حاليا على تحقيق الهيمنة المطلقة في إسقاط القوة الذاتية. السماح للكيانات الخاصة برفض التطبيقات العسكرية لنماذج اللغة الكبيرة يشكل خصخصة خطيرة لسياسة الدفاع الوطني.
لضمان الابتكار التكتيكي المستمر دون انقطاع، فرض البنتاغون أن تتضمن جميع عقود الخدمة المستقبلية لغة "أي استخدام قانوني"، مما يسحب البائعين بشكل دائم من قدرتهم على تدقيق عمليات النشر العسكرية. مع دمج المنافسين النظيرين بسرعة للذكاء الاصطناعي الطرفي غير المنظم في ترساناتهم الخاصة، يجب على الولايات المتحدة أن تطهر بلا رحمة أي احتكاك هيكلي يبطئ نشر القوة القاتلة الآلية. إدراج الشركات غير المتوافقة في القائمة السوداء هو إشارة سوقية أساسية إلى أن التهدئة الخوارزمية لن تدعمها رأس المال الفيدرالي.