الإرهاب والذكاء الاصطناعي: تهديد يتطور بسرعة

من السمات الجوهرية والأصيلة للمنظمات الإرهابية قدرتها على استغلال المعرفة القائمة وتحويلها ضد الدول؛ والذكاء الاصطناعي يسير على نفس النهج. فعلى عكس الابتكارات السابقة مثل الإنترنت أو وسائل التواصل الاجتماعي، التي لم تُحدث تغييرًا مباشرًا في القدرات العسكرية للجماعات المسلحة، يعمل الذكاء الاصطناعي كـ مضاعف قوة حقيقي؛ فهو يعزز الإمكانيات القتالية، ويفتح بذلك الباب أمام فئات جديدة تمامًا من التهديدات.

كما هو معروف، تشكل الأيديولوجيا الوقود الأساسي للمنظمات الإرهابية. وبدونها، لا يمكن لهذه الجماعات أن تستمر. والآن، يسهل الذكاء الاصطناعي نشر الخطاب الطائفي. فالقنوات على منصة تليغرام تنشر صورًا مولّدة باستخدام أدوات الذكاء الاصطناعي، ما يمكّن من التلاعب بالرأي العام تجاه أحداث معينة. هذه الصور ليست لإبلاغ الجمهور، بل لتحويل الحقائق إلى رموز بطولية. المعلومات لم تعد مجرد تصوير للواقع، بل تحويل ذلك الواقع إلى أسطورة. في نيجيريا، استخدمت جماعة بوكو حرام مذيعين افتراضيين مولّدين بالذكاء الاصطناعي لبث نشرات إخبارية مفبركة بالكامل لتعزيز سرديتها الأيديولوجية العدميّة والمدمرة؛ والتشخيص واضح. تستغل الجماعات المسلحة في شمال نيجيريا، ولا سيما بوكو حرام وفرع ولاية غرب إفريقيا التابعة لتنظيم الدولة الإسلامية (ISWAP)، أدوات الذكاء الاصطناعي بشكل متزايد لتجنيد الأعضاء وتنسيق حملات التطرف.

والتحدي أمام وكالات مكافحة الإرهاب حاليًا هو التمييز بين الدعاية التي يطلقها المقاتلون البشر، وتلك التي تولّدها أنظمة الذكاء الاصطناعي، والتي ستصبح قريبًا قادرة على إنتاج محتوى دعوي بشكل مستقل، وهذا تطور مقلق للغاية. ستتمكن الجماعات المسلحة بشكل متزايد من تفويض أنشطة الدعاية وبعض مهام ما قبل التجنيد للذكاء الاصطناعي. ستتمكن الأنظمة الآلية من التواصل مع مستخدمي الإنترنت وبدء المحادثات الأولية معهم. إذا تبين أن الفرد متقبل للسرديات العدميّة والمدمرة، سيتولى عنصر بشري بعد ذلك زمام الأمور لإتمام عملية التجنيد داخل المنظمة الإرهابية.

التسارع التقني والتحول التنظيمي

لطالما كان الوصول إلى تقنيات القتال محصورًا بالمقاتلين المحترفين، لكن تلك الحقبة على وشك الانتهاء. بينما كان الإنترنت قد سهّل سابقًا تحديد الأهداف والوصول إلى المعلومات الحساسة، يوفّر الذكاء الاصطناعي الآن للإرهابيين وصولًا فوريًا إلى معارف متخصصة للغاية. كانت المواد التدريبية تُتداول يدويًا بالكتيبات المصورة، أما اليوم فيسرّع الذكاء الاصطناعي التعلم، ما يجعل الإرهاب أقل اعتمادًا على الموارد البشرية الخارجية. أصبح التخطيط العملياتي أقل اعتمادًا على التفاعل البشري، وأكثر ارتباطًا بعمليات التعلّم الذاتي التي تتم بواسطة الحاسوب.

في عالم العنف المسلح بنسخته الثانية، كان النموذج السائد سابقًا هو «الذئاب المنفردة» ذات الروابط الفضفاضة. أما اليوم، فإن الإرهابي المدعوم بالذكاء الاصطناعي يحصل على دعم معرفي مستمر، ولم يعد “منفردًا”؛ فهو يتفاعل مع حاسوبه، الذي يرد عليه. ويطلب التوجيه ويتلقى إرشادات منظمة. صحيح أن نماذج الذكاء الاصطناعي التوليدي التجارية تتضمن ضوابط أمان، ولا تستجيب لأسئلة مباشرة من قبيل: «كيف يمكن وضع قنبلة في روضة أطفال». لكنها قادرة على شرح كيفية تحقيق هذا الهدف مثل وصف الموقع، ووصف تصميم المبني، ورسم الملامح الاجتماعية للعائلات التي ترسل أبناءها إليه، وتحديد المواد المتفجرة المتاحة في المتاجر القريبة. وهذا يمثل تحولًا بالغ الخطورة. فبإمكان الفرد المتطرف اليوم التخطيط لعمليات معقدة دون أي وساطة بشرية مباشرة.

مكافحة الإرهاب

نظرًا لأن التطور التكنولوجي للذكاء الاصطناعي يحدث بسرعة فائقة، تواجه وكالات مكافحة الإرهاب الآن تهديدًا متحوّلًا يجب عليها متابعته عن كثب قدر الإمكان للتنبؤ به. لقد كان هذا الحال دائمًا، لكن وتيرة التغيير لم تعد تُقاس بالعقود، بل بالأسابيع.

يرتبط التقدم التكنولوجي للجماعات الإجرامية الآن بشكل مباشر بقوة الحوسبة. تعتمد الدول هيكليًا على شركات القطاع العام والقطاع الخاص. لم تعد مكافحة الإرهاب مقتصرة على أدوات إنفاذ القانون التقليدية؛ فميدان المعركة أصبح ميدانًا رقميًا في الوقت الحالي. وأصبح التعاون بين الدول والفاعلين من القطاع الخاص في مجال الذكاء الاصطناعي نموذجًا أساسيًا في هذه المعركة. للوهلة الأولى، تبدو هذه الشراكات مفيدة للطرفين: فالسلطات العامة تحصل على أدوات تحليلات تنبؤية، والتعرف على البيانات البيومترية، ومعالجة اللغة بدقة غير مسبوقة، بينما تستفيد الشركات من العقود والوصول إلى بيانات حساسة تمكّنها من تحسين نماذجها.

إلا أن هذه الشراكة تظل غير متكافئة، فمن خلال تفويض أجزاء كاملة من الأمن الوطني، لا تكتفي الدول بتكليف مهام عملياتية فحسب، بل تتنازل عن جزء من استقلاليتها الاستراتيجية، لتصبح عملاء تابعين حتى في بسط الأمور مثل تحديثات البرمجيات أو تصحيحات الأخطاء التقنية، وهو ما يعد مشكلة هيكلية في الأنظمة الغربية، حيث ترسّخ الدولة تبعيات استراتيجية على الشركات الخاصة.

لم يعد التهديد محصورًا على وظائف أنظمة الحاسوب وحدها؛ حيث أصبح الذكاء الاصطناعي ذاته الآن هدفًا. في سبعينيات القرن الماضي، كانت القوى المتمردة تسعى للاستيلاء على السلطة أو السيطرة على التجارة غير المشروعة. أما اليوم، فإن المنظمات الإرهابية تسعى إلى تعطيل النظام نفسه، وفي هذه الحالة الذكاء الاصطناعي، وتقويضه من الداخل؛ ذلك أن استهداف قدرته الأساسية على العمل يعني ضرب صميم قدرة الدولة على الحكم.

يثير أمن مراكز بيانات الذكاء الاصطناعي سؤالًا جوهريًا حول المسؤولية. فهذه البنى التحتية تدعم وظائف الدولة الحيوية، ومع ذلك تعتمد حمايتها بشكل أساسي على جهات خاصة. يبقى الانفصال قائمًا طالما لم ينجح أي هجوم مباشر في الإضرار بأمن هذه المواقع، وبالتالي بوظائف مجتمعاتنا. ومن هنا يظهر خيار هيكلي جوهري: إما أن يبقى أمن الذكاء الاصطناعي موكولًا إلى الشركات الخاصة تحت تنظيم مشدد، أو تتولى الدولة حماية هذه البنى التحتية الاستراتيجية مباشرة.

تحتل مراكز البيانات اليوم منطقة رمادية، فهي ليست ذات سيادة كاملة ولا تجارية بحتة. ويخلق هذا الغموض فراغًا هيكليًا في المسؤولية. لقد أظهرت التجارب التاريخية مرارًا أن الجماعات المسلحة تستغل بشكل منهجي أي فراغ أمني أو مؤسسي. لكن هناك يقين واحد: يجب النظر إلى أمن الذكاء الاصطناعي كمسألة سيادية. وحتى يتم الاعتراف الكامل بهذا التحول، ستظل البنى التحتية للذكاء الاصطناعي هشة ومعرضة للخطر. ويتطلب ذلك اعترافًا سياسيًا والتزامًا مؤسسيًا. وهذا بداية فصل جديد من الناحية المنهجية لوكالات الاستخبارات المتخصصة في مكافحة الإرهاب.

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

أرسل منشورك

An error has occurred. This application may no longer respond until reloaded. Reload 🗙