تنقل نايلة الصليبي في "النشرة الرقمية" ما كشفته صحيفة " وول ستريت جورنال" أن القيادة المركزية الأمريكية (CENTCOM) وظّفت نموذج الذكاء الاصطناعي" كلود"لتحديد الأهداف ومحاكاة سيناريوهات القتال. حيث تحول الذكاء الاصطناعي من أداة للمساعدة المكتبية إلى عنصر محوري في رسم خرائط الحروب الكبرى.
عندما تكتب "الخوارزميات" سيناريو الحربفي الساعات الأولى من صباح السبت، 28 فبراير 2026، لم تكن سماء الشرق الأوسط تشتعل بصواريخ عملية "الغضب الملحمي" فحسب، بل كانت تضج بمليارات العمليات الحسابية التي تُجرى في أجزاء من الثانية خلف شاشات مراكز القيادة. فبينما كانت المقاتلات تشق طريقها نحو العمق الإيراني في أضخم حملة جوية منذ غزو العراق، كان ثمة "عقل غير بشري" يدير مسرح العمليات.
حيث كشف تقرير لصحيفة "وول ستريت جورنال" أن نموذج الذكاء الاصطناعي "كلود" من شركة "أنثروبيك"، كان المحرك الخفي لإدارة مسرح العمليات.
كيف دخل " نموذج الذكاء الاصطناعي "Claude إلى غرفة العمليات؟نقلت صحيفة "Wall Street Journal" و موقع Axios أن دور "نموذج "كلود" لم يكن التحكمَ المباشر في الأسلحة، بل معالجة الكميات الهائلة من البيانات غير المنظمة الواردة من ميدان المعركة. اعتمدت القيادة المركزية الأمريكية (CENTCOM) بشكل مباشر، خلال الضربات الجوية والجو-بحرية ضد أهداف في إيران، على نظام نموذج الذكاء الاصطناعي كلود العسكري
استُخدم "كلود" لتحليل صور الأقمار الصناعية واعتراضات الإشارات Signals Intelligence (SIGINT) لتحديد "بنك أهداف" بثوان والذي يضم أكثر من خمسمئة موقع إيراني، شمل منشآت نووية وقواعد صواريخ باليستية.
قبل شن الهجوم، أجرى نظام كلود آلاف عمليات المحاكاة التكتيكية (Wargaming) للتنبؤ برد الفعل الإيراني واختيار أفضل مسارات الطيران للمقاتلات الأمريكية والإسرائيلية لتجنب الدفاعات الجوية مثل منظومات S-300 و S-400.
كما اشارت صحيفة "وول ستريت جورنال" إلى أن البيانات المستخرجة من نظام "كلود" تمت مشاركتها آنيا مع غرف العمليات الإسرائيلية، مما سمح بتنسيق هجمات متزامنة بين سلاح الجو الإسرائيلي والمدمرات الأمريكية في الخليج العربي.
فقد أتاح نظام "كلود" للمحللين طرحَ أسئلة تكتيكية معقدة بلغة طبيعية، ليرد بمحاكاة احتمالية مبنية على تدريبه النظري وتدفق الاستخبارات الآنية. أما منصة " بالانتير" فأدّت دور الوعاء التقني لهذه العملية عبر تقنية Palantir Ontology التي تعمل كإطار لتنظيم وهيكلة أكثر مجموعات البيانات تعقيداً لتحليلها. وحوّلت البيانات الخام المتشعبة إلى نظام موحد قابل للتحليل، فلم يعد القادة أمام تقارير جافة، بل أمام "توأم رقمي" للميدان يعمل في الوقت الآني .ضمن مشروع Maven الذي يضم "فريق العمل المشترك المعني بالحرب الخوارزمية"Algorithmic Warfare Cross Functional Team .
استخدام البنتاغون لخوارزميات نموذج "كلود" أتى في وقت مثير للجدل
لم تكن عملية إيران الاختبار الأول؛ ففي يناير 2026، استُخدم النظام ذاته نموذج كلود العسكري وتقنية" بالانتير أنطولوجي "في العملية التي أدت للقبض على الرئيس الفنزويلي نيكولاس مادورو. حينها، بدأت فجوة الثقة تتسع بين "أنثروبيك" والبنتاغون، وذلك بعد استفسار الشركة عما إذا كان نموذجها قد استُخدم في عمليات تضمنت إطلاق نار، وهو ما اعتبره البنتاغون محاولة لفرض رقابة أخلاقية على قراراته العسكرية.
وقد بلغت حدة النزاع ذروتها عندما رفض "داريو أمودي"، الرئيس التنفيذي للشركة، ضغوط وزير الحرب "بيت هيغسيث" لرفع قيود السلامة ودمج "كلود" في أنظمة أسلحة فتاكة مستقلة. ورغم وصف جامعة King's College London نموذجَ "كلود " بـ"الصقر الحسابي" (Calculating Hawk)، لميله نحو التصعيد التكتيكي لضمان النصر، إلا أن التزام الشركة بحدود أخلاقية مثل منع المراقبة الجماعية أو الاستقلال الكامل للسلاح جعلها في صدام مباشر مع توجهات إدارة ترامب. حيث لجأ وزير الدفاع بيت هيغسيث إلى إجراء استثنائي، بتصنيف «أنثروبيك" كـ"خطر على سلاسل التوريد"، وهو التصنيف المخصص تاريخياً لشركات أجنبية مثل "هواوي" الصينية. أو "كاسبرسكي" الروسية يعني هذا القرار حظراً شاملاً على أي مقاول أو شريك للجيش من التعامل مع الشركة.
كما وصف الرئيس الأمريكي "دونالد ترامب أنثروبيك" عبر منصة Truth Social بأنها تضم"يساريين راديكاليين" يحاولون إملاء شروطهم على وزارة الدفاع. ووصم معايير السلامة بـ"الذكاء الاصطناعي المستيقظ" -Woke AI-، مع اقتراب خروج نموذج "كلود" من الخدمة العسكرية، سارع البنتاغون لإبرام صفقات مع منافسين مثل OpenAI مطورة ChatGPT وشركة xAI التابعة لإيلون ماسك مطورة نموذج " Grok" لاستخدامهما في البيئات السرية، ورغم تأكيدات "سام ألتمان" الرئيس التفيذي لشركة "أوبن إي آي "بوجود ضمانات أمنية صارمة، إلا أن الخبراء يجمعون على أن الاستبدال الكامل لنظام "كلود" في كافة الشبكات السرية قد يستغرق أشهراً.
سقوط حياد البرمجياتهذه الأحداث مجتمعةً تطرح تساؤلات مقلقة: نموذج لغوي صُمِّم في الأصل لمساعدة المستخدمين على الكتابة والتفكير، بات عنصراً محورياً في سلسلة القتل -Kill Chain-. والمقلق أيضا أن الولايات المتحدة استعانت بهذا الذكاء الاصطناعي لتخطيط أضخم عملية عسكرية منذ حرب العراق، في الوقت الذي تُعلن فيه رسمياً أنه يمثل خطراً على أمنها القومي. وما كشفته كواليس عملية "الغضب الملحمي" هو إعلان رسمي عن دخول البشرية عصر "الحروب الخوارزمية"، ومع اتساع الفجوة بين طموحات البنتاغون البرغماتية وقيود شركات التكنولوجيا الأخلاقية، هل سنسمح للسرعة الحسابية أن تبتلع التروي البشري؟ عندما تتحول الأرواح والمدن إلى "توائم رقمية" في محاكاة باردة، وتصبح المسؤولية الأخلاقية مجرد قيد سلامة يحاول القادة تجاوزه، فإننا لا نواجه خطراً عسكرياً فحسب، بل نواجه أزمة تعريف لمعنى الإنسانية في ميدان القتال.
يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل
للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
Fler avsnitt av النشرة الرقمية
Visa alla avsnitt av النشرة الرقميةالنشرة الرقمية med مونت كارلو الدولية / MCD finns tillgänglig på flera plattformar. Informationen på denna sida kommer från offentliga podd-flöden.
