صراع الأمن القومي: البنتاجون يهدد بقطع العلاقات مع أنثروبيك بسبب رفضها استخدام الذكاء الاصطناعي في الأسلحة الفتاكة

صراع الأمن القومي: البنتاجون يهدد بقطع العلاقات مع أنثروبيك بسبب رفضها استخدام الذكاء الاصطناعي في الأسلحة الفتاكة

صراع الأمن القومي: البنتاجون يهدد بقطع العلاقات مع أنثروبيك بسبب رفضها استخدام الذكاء الاصطناعي في الأسلحة الفتاكة

21 فبراير 2026 – أخبار التكنولوجيا العاجلة

الصدام العسكري: البنتاجون يهدد بتصنيف أنثروبيك كمورد خطر

في تطور غير مسبوق، أعلنت وزارة الدفاع الأمريكية (البنتاجون) أنها تعيد النظر في علاقتها مع شركة أنثروبيك، بما في ذلك عقد بقيمة 200 مليون دولار، بسبب اعتراض الشركة على المشاركة في عمليات عسكرية معينة. وقد تصنف الوزارة الشركة كـ"مورد خطر" في سلسلة الإمدادات الدفاعية، وهو تصنيف عادة ما يخصص للشركات التي تتعامل مع دول معادية مثل الصين.

وفقاً لتقرير نشرته WIRED ومصادر إعلامية أخرى، فإن هذا التهديد يأتي بعد أن أصبحت أنثروبيك أول شركة ذكاء اصطناعي كبيرة تحصل على clearance عالي من الحكومة الأمريكية للاستخدام في المهام السرية، بما في ذلك التطبيقات العسكرية. لكن الشركة أكدت أنها لن تسمح بنموذج Claude باستخدامها في الأسلحة الفتاكة أو المراقبة الحكومية الجماعية.

مبادئ أنثروبيك الأخلاقية تصطدم بالواقع العسكري

تعتمد شركة أنثروبيك على مجموعة من المبادئ الأخلاقية التي تمنع استخدام تقنياتها في:

• تطوير أو تصميم الأسلحة الفتاكة ذاتية التشغيل
• المراقبة الحكومية الجماعية التي تنتهك الخصوصية
• أي تطبيقات قد تسبب ضرراً واسع النطاق للبشرية

الرئيس التنفيذي داريو أمودي stated صراحة: "لا أريد أن يكون Claude part of أي نظام يهدف إلى إلحاق الأذى بالبشر". هذه المواقف جعلت أنثروبيك outlier في صناعة تتهافت فيها الشركات على عقود الدفاع.

رد فعل البنتاجون: "لن نتسامح مع القيود على الجيش"

رداً على موقف أنثروبيك، أصدر المتحدث باسم البنتاجون شون بارنيل تصريحاً حاسماً: "أمتنا تتطلب أن يكون شركاؤنا مستعدين لمساعدة مقاتلينا على الفوز في أي معركة. في النهاية، هذه المسألة تتعلق بقواتنا وسلامة الشعب الأمريكي".

وأضاف أن رسالة البنتاجون موجهة أيضاً إلى شركات أخرى: OpenAI و xAI و Google، التي لديها بالفعل عقود مع الوزارة للعمل غير السري. هذه الشركات الآن في سباق للحصول على نفس التصاريح العالية، لكنها قد تواجه نفس الضغوط للتخلي عن قيودها الأخلاقية.

CTO البنتاجون إميل مايكل (الذي كان سابقاً في Uber) عبر عن وجهة نظر الحكومة بوضوح: "ليس من الديمقراطية أن تقيد أنثروبيك كيفية استخدام الجيش للذكاء الاصطناعي في أسلحته. إذا كان هناك سرب طائرات بدون طيار قادم من قاعدة عسكرية، فما هي خياراتك لأسقاطه؟ إذا كان وقت رد الفعل البشري غير كافٍ... كيف ستدافع؟".

سباق التسلح الذكي: أين تقف شركات التكنولوجيا؟

الوضع الحالي يكشف انقساماً في Polariod صانعي الذكاء الاصطناعي:

أنثروبيك – تركز على السلامة والأخلاقيات، وتفرض قيود صارمة على الاستخدام العسكري
Palantيليكسي – لا يخفي فخره بأن منتجه "يستخدم أحياناً لقتل الناس"
OpenAI و Google – تسعى للحصول على عقود دفاعية مع استمرار تطوير النماذج التجارية

هذا التنافس المحموم يؤكد أن السيطرة على مستقبل الحوسبة تتطلب استثمارات غير مسبوقة في البنية التحتية والبحث والتطوير، مما يرفع أسئلة أخلاقية عميقة حول role of شركات القطاع الخاص في War.

المصادر والتقرير

لمزيد من المعلومات حول هذا الصراع المتنامي:

التقرير الكامل من WIRED
التغطية من The New York Times
إعلان أنثروبيك الرسمي

ملاحظة: هذه المقالة تقدم معلومات تقنية عامة. الآراء الواردة هي لأغراض إعلامية ولا تمثل نصيحة مهنية.

Next Post Previous Post
No Comment
Add Comment
comment url