... | 🕐 --:--
-- -- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
253402 مقال 299 مصدر نشط 38 قناة مباشرة 5679 خبر اليوم
آخر تحديث: منذ ثانيتين

حرب الخوارزميات .. كيف سرّع الذكاء الاصطناعي ضرب إيران؟

سياسة
DW عربية
2026/04/24 - 12:39 504 مشاهدة
سياسةالشرق الأوسطحرب الخوارزميات .. كيف سرّع الذكاء الاصطناعي ضرب إيران؟علاء جمعة 2026/4/24٢٤ أبريل ٢٠٢٦كشفت تقارير إخبارية أن أمريكا وإسرائيل استخدمتا، خلال الحرب مع إيران، أنظمة مدعومة بالذكاء الاصطناعي لتسريع تحليل الأهداف وتنسيق الهجمات. بيد أن هذا التطور يثير سؤالاً خطيراً عن قدرة الإنسان في التحكم الفعلي بالحرب. https://p.dw.com/p/5ClPGإلى أي مدى بات الذكاء الاصطناعي يتحكم بما يعرف عسكرياً باسم "Kill Chain”، أي سلسلة الخطوات التي تبدأ بتحديد الهدف وتنتهي بتقييم نتائج الضربة؟صورة من: IMAGO / YAY Imagesإعلانلم تعد الحروب الحديثة تُدار فقط عبر الطائرات والصواريخ وغرف العمليات التقليدية، بل باتت الخوارزميات جزءاً متقدماً من مسار اتخاذ القرار العسكري. ففي الحرب مع إيران، نفذت الولايات المتحدة وإسرائيل خلال فترة قصيرة عدداً كبيراً من الهجمات على أهداف عسكرية وشخصيات بارزة في النظام الإيراني. ويرى خبراء، وفق تقرير نشره موقع "تاغسشاو"(Tagesschau) التابع للقناة الألمانية الأولى العمومية ARD، أن السرعة اللافتة في تحديد الأهداق وتنسيق الضربات تعود جزئياً إلى الاستخدام المتزايد للذكاء الاصطناعي في تحليل المعلومات وتخطيط العمليات. خوارزميات في قلب غرفة العمليات يشير التقرير إلى أن نظاماً يعرف باسم Maven Smart System، وتطوره شركة "بالانتير" (Palantir) الأمريكية، يعد من أبرز الأدوات التي يجري الحديث عنها في هذا السياق. وتقوم هذه المنصة بجمع بيانات من مصادر متعددة، مثل أقمار الاستطلاع والطائرات المسيّرة وأنظمة الرادار، ثم تحليلها بمساعدة الذكاء الاصطناعي وتحويلها إلى صورة عملياتية موحدة أمام القادة العسكريين. ويساعد الذكاء الاصطناعي في تقليص الوقت اللازم لاتخاذ هذا القرار عبر تحليل كميات ضخمة من البيانات بسرعة كبيرة. وذكرت صحيفة "واشنطن بوست" أن نموذج الذكاء الاصطناعي التوليدي"كلود" الذي تطوره شركة أنثروبيك دُمج مع نظام "مافن" لتعزيز قدراته في الرصد والمحاكاة. غير أن الشركتين لم تقدما تعليقاً رسمياً بشأن هذه التقارير. وكان كاميرون ستانلي، كبير مسؤولي التحول الرقمي والذكاء الاصطناعي في وزارة الدفاع الأمريكية، قد عرض النظام في آذار/ مارس خلال مؤتمر لشركة شركة "بالانتير" (Palantir)، موضحاً أن المنصة تجمع مخرجات "ثمانية أو تسعة" أنظمة منفردة في أداة عرض واحدة. وبذلك لا يحتاج المخططون العسكريون إلى الانتقال بين برامج متعددة، بل يرون المعطيات الأساسية في واجهة موحدة، بما يساعد على تسريع التحليل والتخطيط. ولا يعني ذلك أن النظام يضغط على الزناد بنفسه. فبحسب ما ورد في تقرير تاغسشاو الألماني، تقوم المنصة بتمييز مركبات أو منشآت أو مخازن أسلحة بوصفها أهدافاً محتملة، وتقترح صوراً للموقف وخيارات للتحرك، لكنها لا تتخذ القرار القاتل بصورة مستقلة. ويساعد الذكاء الاصطناعي في تقليص الوقت اللازم لاتخاذ هذا القرار عبر تحليل كميات ضخمة منالبيانات بسرعة كبيرة.صورة من: Darimir Banda/Serbian Defence Ministry/Handout/AA/picture-alliance هل أتمت الذكاء الاصطناعي "سلسلة القتل"؟ هنا تظهر النقطة الأكثر حساسية: إلى أي مدى بات الذكاء الاصطناعي يتحكم بما يعرف عسكرياً باسم "Kill Chain”، أي سلسلة الخطوات التي تبدأ بتحديد الهدف وتنتهي بتقييم نتائج الضربة؟ هيكو بورشرت، الخبير في جامعة هيلموت شميت في هامبورغ، وهي جامعة تتبع للجيش الألماني، يحذر من إعطاء انطباع مبالغ فيه مفاده أن الذكاء الاصطناعي سيطر تماماً على هذه السلسلة وأن الإنسان خرج من المعادلة. لكنه يؤكد في الوقت نفسه أن الذكاء الاصطناعي يلعب حالياً دوراً مهماً في تطوير الأهداف وترتيب أولوياتها والمساعدة في تخطيط المهام. وبحسب هيكو بورشرت، تتكون هذه السلسلة في عقيدة الحرب الجوية الأمريكية من ست مراحل، تبدأ بتحديد الهدف السياسي، مروراً بإعداد قائمة الأهداف واختيار السلاح وتخطيط المهمة، وصولاً إلى تقييم النتائج بعد استخدام القوة. وفي هذه العملية، لا تزال بعض القرارات بشرية بحتة، خصوصاً القرار النهائي باستخدام السلاح. لذلك يقول بورشرت بوضوح إن "سلسلة القتل ليست مؤتمتة”. وتؤكد وزارة الدفاع الأمريكية بدورها أن نظام Maven Smart System يبقي القرار النهائي بشأن الهجمات بيد البشر. كما تقول شركة "بالانتير"Palantir، وفق ما نقلته تقارير إعلامية، إن برنامجها لا يتخذ قرارات قاتلة، بل يساعد فقط في التحليل والتخطيط. سرعة قاتلة وأخطاء محتملة لكن المشكلة لا تكمن فقط في من يتخذ القرار، بل في السرعة التي تدفع الجميع إلى اتخاذه. فكلما قدمت الأنظمة الرقمية "حزم أهداف" بسرعة أكبر، ضاق الوقت المتاح أمام الإنسان للمراجعة والتدقيق والتساؤل. ويورد تقرير موقع "تاغسشاو"(Tagesschau)، التابع للقناة الألمانية الأولى العمومية ARD، مثالاً على خطورة ذلك من خلال هجوم أصاب، في اليوم الأول من الحرب، مدرسة للبنات كانت في محيط توجد فيه منشآت عسكرية. وتشير التحقيقات الأولية، بحسب النص، إلى احتمال أن تكون صور قديمة قد لعبت دوراً في الخطأ. ولا يوجد دليل قاطع على وجود صلة مباشرة بين الهجوم ونظام ذكاء اصطناعي محدد، لكن الواقعة تكشف مشكلة أساسية: جودة نتائج الذكاء الاصطناعي تعتمد على جودة البيانات التي يتغامل معها. فإذا كانت الصور أو المعلومات قديمة أو ناقصة، قد يصل النظام إلى استنتاجات خاطئة تكون نتائجها مميتة للمدنيين. مسؤولية أخلاقية وتحذر إلكه شفارتس، أستاذة العلوم السياسية والباحثة في أخلاقيات الذكاء الاصطناعي العسكري للموقع الألماني من ظاهرة تعرف باسم "Automation Bias”، أي ميل الإنسان، تحت ضغط الوقت، إلى الوثوق باقتراحات الآلة أكثر مما ينبغي. وتقول إن البشر يميلون نفسياً إلى منح الآلة ثقة أكبر مما تستحق أحياناً. السؤال الأهم هنا ليس تقنياً فقط، بل هو أخلاقي وقانوني أيضاً: إذا اقترحت الخوارزمية هدفاً، ووافق الإنسان بسرعة تحت ضغط العمليات، فمن يتحمل المسؤولية عن الخطأ؟ ترى شفارتس أن الخطر يكمن في الانزلاق التدريجي نحو آلية شبه تلقائية في الحرب. صحيح أن الإنسان يبقى رسمياً داخل دائرة القرار، لكنه يضطر إلى مجاراة سرعة النظام، ما يترك له وقتاً محدوداً للتحقق والتفكير قبل تنفيذ الضربة. في المقابل، يركز هيكو بورشرت، الخبير في جامعة هيلموت شميت في هامبورغ، وهي جامعة تتبع للجيش الألماني، على مسؤولية القيادة السياسية والغسكرية. فالمشكلة، برأيه، لا تكمن فقط في التكنولوجيا، بل في القرار البشري الذي يسمح باستخدامها بهذا الشكل أو ذاك. وبعبارة أخرى، الخوارزمية قد تسرّع الحرب، لكنها لا تعفي البشر من مسؤولية السماح بالعنف أو منعه. ويرى خبراء عسكريون أن أهمية الذكاء الاصطناعي تكمن في قدرته على معالجة كم هائل من المعلومات في وقت قصير، فيما تحذر منظمات حقوقية منذ سنوات من خطر فصل القوة العسكريةعن الرقابة البشرية الفعلية. فكلما زادت آلية اختيار الأهداف، صار من الأصعب التحقق من احترام مبادئ القانون الدولي الإنساني، خصوصاً مبدأ التمييز بين المقاتلين والمدنيين ومبدأ التناسب في استخدام القوة. ويشير موقع تاغسشاو الألماني إلى أن النقاس الدولي حول وضع ضوابط لاستخدام الذكاء الاصطناعي في الحرب مستمر، خصوصاً داخل أطر الأمم المتحدة المعنية بما يعرف باسم "الأسلحة الفتاكة ذاتية التشغيل". لكن حتى الآن لا يوجد حطر دولي ملزم على الأنظمة القتالية المستقلة بالكامل. علاء جمعة صحافي وخبير اعلامي يعمل في DW وله مقالات متعددة عن الشأن الألماني والشأن الأوروبيملاحظاتك!ملاحظاتكم!إعلان
مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤