السلاح الذي لا يُرى: من يحكم خوارزميات الحرب في عصر الذكاء الاصطناعي؟

في 20 شباط 2026، أعلنت الأمم المتحدة تشكيل لجنة دولية تضم أربعين خبيرًا لدراسة مخاطر الذكاء الاصطناعي ووضع أسس لحوكمة عالمية تضمن بقاء “التحكّم البشري” في قلب هذه التكنولوجيا المتسارعة. قد يبدو القرار إجراءً تقنيًا في سياق أممي معتاد، لكنه في جوهره إعتراف بأنّ العالم يقف أمام تحوّل استراتيجي يُعيد تعريف القوة ذاتها. لم تعد موازين التفوّق تُقاس بعدد الطائرات أو الصواريخ، بل بسرعة الخوارزميات، وحجم البيانات، وقدرة الأنظمة على اتخاذ قرار في أجزاء من الثانية.
الذكاء الاصطناعي لم يعد مجرد أداة لتحسين الاقتصاد أو تسهيل الحياة اليومية، بل أصبح مكوّنًا أساسيًا في منظومات الأمن والدفاع والاستخبارات. أنظمة دفاع جوّي تٌحلل آلاف الإشارات في لحظة، طائرات مسيّرة تتعلم من أنماط الحركة لتحديد أهدافها، برمجيات قادرة على شنّ هجمات سيبرانية معقّدة دون تدخّل مباشر من الإنسان. في هذا السياق، يتحوّل الذكاء الاصطناعي إلى “سلاح لا يُرى”؛ لا يُدوّي صوته في السماء، لكنه يُغيّر نتيجة المعركة قبل أن تبدأ.
أهمية خطوة 20 شباط لا تكمُن في عدد الخبراء بقدر ما تكمُن في الإقرار الدولي بأن هذه التكنولوجيا تحمل وجهين متلازمين: وعدًا بالتطوير وخطرًا بالانفلات. فكما يُمكن للذكاء الاصطناعي أن يقلّل الخسائر البشرية عبر تحسين دقة الاستهداف والإنذار المبكر، يُمكن أيضًا أن يُغري بصياغة عقيدة عسكرية جديدة تجعل قرار استخدام القوة أسهل سياسيًا، وأقل كلفة بشريًا على الطرف المهاجم. عندما تنخفض كلفة الحرب على صانع القرار، يرتفع احتمال اللجوء إليها.
الفرق الجوهري بين الأسلحة التقليدية وأنظمة الذكاء الاصطناعي يكمُن في طبيعة القرار. السلاح التقليدي ينتظر إصبعًا بشريًا يضغط الزر. أما النظام الذكي فقد يُمنح صلاحية التقييم والاختيار ضمن معايير محددة مسبقًا. هنا ينشأ السؤال الأخلاقي والقانوني: إذا أخطأت الخوارزمية، من يُحاسَب؟ هل المسؤول هو المبرمج الذي صمّمها، أم القائد الذي فعّلها، أم الدولة التي اعتمدتها، أم أن القرار يتبدّد في شبكة معقّدة من البرمجيات لا يمكن إسناد الخطأ فيها إلى فاعل واحد؟ القانون الدولي الإنساني بُني على افتراض وجود إنسان يمكن مساءلته. أما في عصر الخوارزميات، فالمساءلة تصبح أكثر تعقيدًا.
ثمّة بُعد آخر لا يقل أهمية: سباق القوة. الدول الكبرى تستثمر مليارات الدولارات في أبحاث الذكاء الاصطناعي، ليس فقط لأغراض اقتصادية، بل لتعزيز تفوقها الاستراتيجي. التفوق الخوارزمي يعني القدرة على استباق الخصم، وقراءة نواياه، وتعطيل أنظمته، وربما شلّ بنيته التحتية دون إطلاق رصاصة واحدة. في هذا السياق، يصبح أي تنظيم دولي صارم موضع تردّد لدى القوى التي ترى في هذه التكنولوجيا ركيزة لمكانتها العالمية. السؤال الذي يفرض نفسه هو ما إذا كانت قواعد الحَوكمة ستُطبّق بالتساوي على الجميع، أم ستتحول إلى أداة سياسية تُقيّد بعض الدول وتمنح أخرى هامش مناورة أوسع.
لا يمكن اختزال الذكاء الاصطناعي في ثنائية “خطر أو تطور”. هو، في الواقع، تعبير مُكثّف عن طبيعة النظام الدولي نفسه. إذا كان النظام قائمًا على توازن وردع متبادل، فقد يسهم الذكاء الاصطناعي في تعزيز هذا الردع عبر أنظمة دفاع أكثر دقة واستجابة. أما إذا طغى منطق المنافسة غير المنضبطة، فقد يتحوّل إلى مُحرّك سباق تسلح رقمي يتجاوز قدرة المؤسسات الدولية على الضبط. الفارق بين المسارين لا تُحدّده الخوارزميات، بل الإرادات السياسية التي توجّه استخدامها.
خطوة الأمم المتحدة في 20 شباط 2026 تفتح نافذة لإعادة التفكير في قواعد اللعبة قبل أن تُحسم النتائج على أرض الواقع. تشكيل لجنة خبراء يعني محاولة استباق الأزمة بدل الاكتفاء بإدارتها بعد وقوعها. غير أن نجاح هذه المحاولة مرهون بمدى استعداد الدول للقبول بقيود متبادلة تحافظ على الحد الأدنى من الاستقرار. التاريخ يُعلّمنا أن التكنولوجيا تتقدم غالبًا أسرع من القوانين التي تُنظمها، وأنّ اللحظة الفاصلة ليست في الاختراع نفسه، بل في كيفية توظيفه.
في نهاية المطاف، الذكاء الاصطناعي لا يحمل نوايا، ولا يملك ضميرًا. إنه مرآة تعكس مصالح مستخدميه وأولوياتهم. قد يصبح أداة لحماية الأرواح وتعزيز الأمن إذا وُضع ضمن أُطر شفّافة تحافظ على الإشراف البشري والمساءلة. وقد يتحوّل إلى عنصر فوضى إذا أُطلق في سباق مفتوح بلا ضوابط واضحة. ما حدث في شباط 2026 ليس نهاية النقاش، بل بدايته. والسؤال الذي سيحدد شكل العالم في العقود المقبلة هو بسيط في صياغته، عميق في تبعاته: من سيحكم خوارزميات الحرب، الإنسان بقوانينه، أم منطق القوة وحده؟
السلاح الذي لا يُرى: من يحكم خوارزميات الحرب في عصر الذكاء الاصطناعي؟

في 20 شباط 2026، أعلنت الأمم المتحدة تشكيل لجنة دولية تضم أربعين خبيرًا لدراسة مخاطر الذكاء الاصطناعي ووضع أسس لحوكمة عالمية تضمن بقاء “التحكّم البشري” في قلب هذه التكنولوجيا المتسارعة. قد يبدو القرار إجراءً تقنيًا في سياق أممي معتاد، لكنه في جوهره إعتراف بأنّ العالم يقف أمام تحوّل استراتيجي يُعيد تعريف القوة ذاتها. لم تعد موازين التفوّق تُقاس بعدد الطائرات أو الصواريخ، بل بسرعة الخوارزميات، وحجم البيانات، وقدرة الأنظمة على اتخاذ قرار في أجزاء من الثانية.
الذكاء الاصطناعي لم يعد مجرد أداة لتحسين الاقتصاد أو تسهيل الحياة اليومية، بل أصبح مكوّنًا أساسيًا في منظومات الأمن والدفاع والاستخبارات. أنظمة دفاع جوّي تٌحلل آلاف الإشارات في لحظة، طائرات مسيّرة تتعلم من أنماط الحركة لتحديد أهدافها، برمجيات قادرة على شنّ هجمات سيبرانية معقّدة دون تدخّل مباشر من الإنسان. في هذا السياق، يتحوّل الذكاء الاصطناعي إلى “سلاح لا يُرى”؛ لا يُدوّي صوته في السماء، لكنه يُغيّر نتيجة المعركة قبل أن تبدأ.
أهمية خطوة 20 شباط لا تكمُن في عدد الخبراء بقدر ما تكمُن في الإقرار الدولي بأن هذه التكنولوجيا تحمل وجهين متلازمين: وعدًا بالتطوير وخطرًا بالانفلات. فكما يُمكن للذكاء الاصطناعي أن يقلّل الخسائر البشرية عبر تحسين دقة الاستهداف والإنذار المبكر، يُمكن أيضًا أن يُغري بصياغة عقيدة عسكرية جديدة تجعل قرار استخدام القوة أسهل سياسيًا، وأقل كلفة بشريًا على الطرف المهاجم. عندما تنخفض كلفة الحرب على صانع القرار، يرتفع احتمال اللجوء إليها.
الفرق الجوهري بين الأسلحة التقليدية وأنظمة الذكاء الاصطناعي يكمُن في طبيعة القرار. السلاح التقليدي ينتظر إصبعًا بشريًا يضغط الزر. أما النظام الذكي فقد يُمنح صلاحية التقييم والاختيار ضمن معايير محددة مسبقًا. هنا ينشأ السؤال الأخلاقي والقانوني: إذا أخطأت الخوارزمية، من يُحاسَب؟ هل المسؤول هو المبرمج الذي صمّمها، أم القائد الذي فعّلها، أم الدولة التي اعتمدتها، أم أن القرار يتبدّد في شبكة معقّدة من البرمجيات لا يمكن إسناد الخطأ فيها إلى فاعل واحد؟ القانون الدولي الإنساني بُني على افتراض وجود إنسان يمكن مساءلته. أما في عصر الخوارزميات، فالمساءلة تصبح أكثر تعقيدًا.
ثمّة بُعد آخر لا يقل أهمية: سباق القوة. الدول الكبرى تستثمر مليارات الدولارات في أبحاث الذكاء الاصطناعي، ليس فقط لأغراض اقتصادية، بل لتعزيز تفوقها الاستراتيجي. التفوق الخوارزمي يعني القدرة على استباق الخصم، وقراءة نواياه، وتعطيل أنظمته، وربما شلّ بنيته التحتية دون إطلاق رصاصة واحدة. في هذا السياق، يصبح أي تنظيم دولي صارم موضع تردّد لدى القوى التي ترى في هذه التكنولوجيا ركيزة لمكانتها العالمية. السؤال الذي يفرض نفسه هو ما إذا كانت قواعد الحَوكمة ستُطبّق بالتساوي على الجميع، أم ستتحول إلى أداة سياسية تُقيّد بعض الدول وتمنح أخرى هامش مناورة أوسع.
لا يمكن اختزال الذكاء الاصطناعي في ثنائية “خطر أو تطور”. هو، في الواقع، تعبير مُكثّف عن طبيعة النظام الدولي نفسه. إذا كان النظام قائمًا على توازن وردع متبادل، فقد يسهم الذكاء الاصطناعي في تعزيز هذا الردع عبر أنظمة دفاع أكثر دقة واستجابة. أما إذا طغى منطق المنافسة غير المنضبطة، فقد يتحوّل إلى مُحرّك سباق تسلح رقمي يتجاوز قدرة المؤسسات الدولية على الضبط. الفارق بين المسارين لا تُحدّده الخوارزميات، بل الإرادات السياسية التي توجّه استخدامها.
خطوة الأمم المتحدة في 20 شباط 2026 تفتح نافذة لإعادة التفكير في قواعد اللعبة قبل أن تُحسم النتائج على أرض الواقع. تشكيل لجنة خبراء يعني محاولة استباق الأزمة بدل الاكتفاء بإدارتها بعد وقوعها. غير أن نجاح هذه المحاولة مرهون بمدى استعداد الدول للقبول بقيود متبادلة تحافظ على الحد الأدنى من الاستقرار. التاريخ يُعلّمنا أن التكنولوجيا تتقدم غالبًا أسرع من القوانين التي تُنظمها، وأنّ اللحظة الفاصلة ليست في الاختراع نفسه، بل في كيفية توظيفه.
في نهاية المطاف، الذكاء الاصطناعي لا يحمل نوايا، ولا يملك ضميرًا. إنه مرآة تعكس مصالح مستخدميه وأولوياتهم. قد يصبح أداة لحماية الأرواح وتعزيز الأمن إذا وُضع ضمن أُطر شفّافة تحافظ على الإشراف البشري والمساءلة. وقد يتحوّل إلى عنصر فوضى إذا أُطلق في سباق مفتوح بلا ضوابط واضحة. ما حدث في شباط 2026 ليس نهاية النقاش، بل بدايته. والسؤال الذي سيحدد شكل العالم في العقود المقبلة هو بسيط في صياغته، عميق في تبعاته: من سيحكم خوارزميات الحرب، الإنسان بقوانينه، أم منطق القوة وحده؟













