جنود أم خوارزميات: تأثير الذكاء الاصطناعي على مستقبل الحروب الحديثة
في تصريح أثار جدلاً واسعًا، أعلن الجنرال الأمريكي وليام هانك تايلور عن استخدامه أداة ChatGPT في دعم اتخاذ القرارات الإدارية داخل الجيش، التصريح تزامن مع تساؤلات عدة حول مدى الاعتماد على خوارزميات تجارية في مجالات حساسة مثل القرارات العسكرية، فهل تحولت الخوارزمية من مجرد أداة مساعدة إلى حاكم فعلي يؤثر في مجريات الأمور؟ التحديات المتعلقة بهذا التحول تتطلب إعادة فحص دقيق للمفاهيم السياسية والأخلاقية المرتبطة بها.
بحسب تقرير من Ars Technica، أوضح الجنرال أن استخدام الأداة لا ينطوي على العمليات القتالية بل يركز على الإدارة والتخطيط لأهداف يومية، غير أن التأثير الرمزي لهذا التصريح يثير العديد من المخاوف، وفقًا لـ Futurism، اقترح الجنرال أن العلاقة بينه وبين الأداة قد تكون قوية، مما يعكس رغبة في استخدام نماذج وتحسين عمليات اتخاذ القرار ضمن قيادته بشكل مستمر.
هذا التصريح يمثل نقطة تحول رمزية في العلاقة بين الإنسان والتكنولوجيا، فهو ينقل النقاش من مجرد الاستعانة بالذكاء الاصطناعي إلى محاولة إضفاء طابع الحكم عليه، ما يثير تساؤلات حول المخاطر المحتملة للاعتماد المفرط على الخوارزميات في مجالات حساسة، مما يتطلب دراسة شاملة للنتائج المحتملة الناتجة عن هذا الاتجاه.
لدى النظر في كيفية استخدام الذكاء الاصطناعي في المجالات العسكرية، نجد أنه تطور بشكل كبير وتجاوز مرحلة المساعدة التقنية، والذي أضحى جزءًا لا يتجزأ من استراتيجيات القرار والتنبؤ، الآن تُوظف الجيوش الحديثة تقنيات الذكاء الاصطناعي لتحليل كميات هائلة من البيانات الاستخباراتية، ومدى قدرتها على التنبؤ بتحركات الخصوم وتخطيط السيناريوهات القتالية بشكل فعال.
ففي مراكز القيادة، تُستخدم خوارزميات التعلم العميق لتحليل الصور الجوية والتقاط الأنماط الدقيقة، كما تُستخدم نماذج التنبؤ الاحتمالية في تحديد المخاطر الميدانية ومسارات الإمداد، تفيد هذه الأنظمة في تسريع اتخاذ القرار في مواقف تتطلب استجابة فورية، مما يدفع العديد من الخبراء للقلق حول الآثار الناتجة عن هذا الاعتماد المتزايد.
تتجلى التطورات في مفهوم “Agentic AI”، وهي تقنية تسمح للأنظمة باتخاذ قرارات جزئية بشكل مستقل، وقد أثار مشروع “Project Maven” التابع للبنتاجون انتقادات تتعلق بالأخلاقيات، الأمر الذي يعيد فتح النقاش حول حدود الاعتماد على الذكاء الاصطناعي، وكيفية فهم الدور الذي يجب أن تلعبه الخوارزميات في الأمن القومي.
من المخاوف الرئيسية عند استخدام الذكاء الاصطناعي وجود ما يسمى “إغراء الاعتماد على الخوارزمية”، وهو ميل القادة للثقة في مخرجات الذكاء الاصطناعي بشكل مفرط، ما يثير التساؤلات حول مدى قدرة هذه الأنظمة على فهم التقديرات الإنسانية الدقيقة المطلوبة في مواقف حساسة، وفقًا لتقرير الأكاديمية السويسرية، يمكن أن يؤدي الاستخدام العسكري للذكاء الاصطناعي إلى انحيازات محتملة تعتمد على طبيعة البيانات التي تدربت عليها.
توجد أيضًا مخاوف من “فراغ المسؤولية” في حال ارتكاب أخطاء، حيث قد يؤدي استخدام الذكاء الاصطناعي في عمليات القيادة دون وضوح قانوني إلى عواقب وخيمة، وتوضح اللجنة الدولية للصليب الأحمر أن هذه الأنظمة تفتقر إلى الفهم العميق للسياقات الإنسانية، مما يجعلها أدوات تحليلية غير قادرة على تعويض التجربة الإنسانية اللازمة.
وعلى الرغم من القدرات الكبيرة التي توفرها النماذج اللغوية مثل ChatGPT، إلا أنها تتعرض لمخاطر مثل “prompt injection attacks”، وهي تقنيات يمكن أن تؤدي إلى تسريب معلومات حساسة، هذه المخاطر تتطلب إدراكًا دقيقًا لحقائق النزاع وتقديرًا إنسانيًا لا يمكن الاستغناء عنه في العمليات العسكرية.
وفي رأي الجنرال جاك شانهان، المدير السابق لمركز الذكاء الاصطناعي في البنتاجون، يجب أن يتم استخدام أدوات الذكاء الاصطناعي “بحذر شديد”، حيث يمكن أن تسبب مشكلات كبيرة في حال الاعتماد عليها بشكل غير مدروس، تحذر منظمة Arms Control Association من أن الاستخدام المتزايد لهذه التقنيات يمكن أن يؤدي إلى قرارات متسرعة، إذا لم تكن هناك آليات تحقق بشرية فعالة.
تعليقات