... | 🕐 --:--
-- -- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
131548 مقال 232 مصدر نشط 38 قناة مباشرة 10684 خبر اليوم
آخر تحديث: منذ 0 ثانية

حين تتحكم الخوارزميات بقرار القتل: من يملك الصورة يملك الحرب

العالم
النهار العربي
2026/04/08 - 02:28 501 مشاهدة

وارف قميحة*

لم يكن قرار حجب صور الأقمار الاصطناعية عن مناطقٍ في الشرق الأوسط تفصيلاً تقنياً عابراً، ولا كان توسيع استخدام الذكاء الاصطناعي في "مشروع مايفن" مجرد تطويرٍ عسكري طبيعي. ما نشهده اليوم هو تحوّل أعمق: انتقال السيطرة على الحرب من المجال العسكري التقليدي إلى فضاءٍ تتحكم به البيانات، وتديره الخوارزميات، وتشارك في صناعته شركات خاصة.

في الحالة الأولى، لا يتعلق الأمر بمنع نشر صور فحسب، بل بإعادة تعريف من يملك "حق الرؤية". حين تقرر شركة خاصة متى تُنشر الصور ومتى تُحجب، فهي لا تدير تدفق المعلومات فحسب، بل تتحكم بإدراك الواقع نفسه. الصورة هنا لم تعد مجرد انعكاسٍ للحدث، بل أصبحت جزءاً من معادلة القوة. من يرى أولاً، يقرر أولاً.

وفي الحالة الثانية، مع تطور "مشروع مايفن"، لم يعد الذكاء الاصطناعي أداةً مساعدة للمحللين، بل تحول إلى عنصرٍ مركزي في ما يُعرف بـ"سلسلة القتل"، أي الانتقال من الرصد إلى الاستهداف. هنا تُختصر المسافة الزمنية بين المعلومة والضربة إلى حدٍّ غير مسبوق، بحيث لم يعد القرار يحتاج إلى التأمل البشري بقدر ما يعتمد على سرعة المعالجة الخوارزمية.
شريك فعلي
هذا التحول يطرح مسألةً أكثر خطورة: لم تعد الدولة وحدها من يحتكر قرار استخدام القوة. شركات التكنولوجيا باتت شريكاً فعلياً، سواء عبر التحكم بالبيانات (كما في صور الأقمار الاصطناعية) أو عبر تحليلها وتوجيه استخدامها (كما في أنظمة الذكاء الاصطناعي). نحن أمام شكلٍ جديد من "السيادة الموزعة"، بحيث تتقاطع سلطة الدولة مع نفوذ الشركات، من دون إطارٍ واضح للمساءلة.

 

الأخطر من ذلك أن تسريع "سلسلة القتل" لا يعني كفاءةً أعلى فحسب، بل يعني أيضاً تقليص هامش التردد الإنساني. كلما تقلص الزمن بين الرصد والقرار، تراجع إمكان المراجعة، وازدادت احتمالات الخطأ، واتسعت مساحة القتل "المؤتمت". هنا لا يعود السؤال تقنياً، بل أخلاقي: من يتحمل المسؤولية؟ هل هي الدولة التي تستخدم النظام؟ أم الشركة التي طورته؟ أم الخوارزمية التي "اقترحت" الهدف؟
مجتمع المصير المشترك
في هذا السياق، يبرز نقاش دولي متزايد حول ضرورة وضع قواعد تحكم استخدام الذكاء الاصطناعي بالمجالات العسكرية. وقد دعا الرئيس الصيني  شي جينبينغ في أكثر من مناسبةٍ إلى تعزيز حوكمة الذكاء الاصطناعي، والتأكيد على أن تطويره يجب أن يكون في خدمة البشرية، ضمن إطار ما يُعرف بـ"مجتمع المصير المشترك للبشرية". هذه الدعوات لا تأتي من فراغ، بل تعكس إدراكاً مبكراً لمخاطر انفلات التكنولوجيا من الضوابط الأخلاقية.

في المقابل، يبدو أن الاتجاه السائد بعض النماذج الغربية يسير نحو تعميق دمج الذكاء الاصطناعي في العمليات العسكرية، ليس كأداة دعمٍ فحسب، بل كجزءٍ من عملية اتخاذ القرار نفسها. وبين هذين المسارين، يتشكل سؤال عالمي ملح: هل نحن أمام سباق تسلحٍ رقمي بلا قواعد، أم أمام فرصةٍ لوضع شرعةٍ دولية تضبط العلاقة بين التكنولوجيا والحرب؟

ما يحدث اليوم يؤكد أن الخطر لم يعد بامتلاك السلاح وحده، بل بامتلاك الخوارزمية التي تقرر متى يُستخدم… ومن يُقتل. وفي عالمٍ تُحجب فيه الصورة، وتُسرّع فيه الضربة، قد لا تكون الحقيقة أولى الضحايا فحسب، بل قد يصبح الإنسان نفسه مجرد متغيرٍ في معادلةٍ رقمية.

*رئيس معهد طريق الحرير للدراسات والأبحاث

-المقاربة الواردة لا تعكس بالضرورة رأي مجموعة "النهار" الإعلامية.

مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤