في السنوات الأخيرة، أصبح الذكاء الاصطناعي أداةً فعّالة لرصد ومكافحة التطرف على الإنترنت ووسائل التواصل الاجتماعي. بدءًا من تصفية المحتوى الآلية وصولًا إلى التحليلات التنبؤية، يُعتبر الذكاء الاصطناعي أداةً واعدةً في الكشف عن التهديدات والمحتوى المتطرف رقميًا — مثل الإرهاب وخطاب الكراهية والتطرف عبر الإنترنت والمعلومات المضللة والأنشطة المتطرفة المنسقة — على نطاق واسع، والاستجابة لها بسرعة تفوق قدرات الفرق البشرية.[1]. إلا أنّ الصورة تختلف تمامًا عندما يتعلق الأمر بالمحتوى المكتوب باللغة العربية. فوفقًا لمعهد الحوار الاستراتيجي (ISD)، استغل متطرفون مثل تنظيم "داعش" الثغرات الموجودة في أدوات المراقبة والرصد المعتمدة على الذكاء الاصطناعي الخاصة باللغة العربية بين عامي 2020 و2021 عبر ما يُعرف بـ"التَمويه"؛ وهي مجموعة من الأساليب المصممة لإخفاء الطبيعة الحقيقية للمحتوى والحسابات. وتشمل هذه الأساليب استخدام ما يُعرف بلغة التمويه "ليت سبيك" أو “التلاعب بالألفاظ”؛ أي استبدال الحروف بأرقام أو رموز أو أحرف بديلة لتجنب الكشف، إلى جانب الكتابة والنصوص المتقطعة، والمزج بين لغات متعددة، واستخدام مسافات أو علامات ترقيم غير مألوفة، وإدراج مواد متطرفة داخل منشورات تبدو محايدة ظاهريًا. تُمكّن هذه التقنيات الجهات الفاعلة من تجاوز أنظمة الكشف الآلي وتضليل المراقبين البشريين ونشر الدعاية على نطاق واسع.والجدير بالذكر أنّ معهد الحوار الاستراتيجي قام برصد شبكة "غلوبال هابننغز" (Global Happenings) خلال هذه الفترة، ووثّق إنشاء حسابات جديدة على "تويتر" وصفحات على "فيسبوك” في أغسطس 2021 لتداول محتوى مؤيد للدولة الإسلامية تحت ستار وسائل الإعلام الشرعية.[2]. كما استخدمت هذه الجماعات المتطرفة منذ فترة طويلة أدوات تشفير مثل "أسرار المجاهدين" و"تشفير الجوال" و"أسرار الدردشة"، بهدف التهرب من الرصد والمراقبة الإلكترونية عبر إخفاء الاتصالات وتنسيق الأنشطة خارج المنصات الرقمية.[3]. وقد تطورت هذه التقنيات الالتفافية استجابةً لتطور أدوات التشفير المعتمدة على الذكاء الاصطناعي، مثل الشبكات العصبية التي تُنشئ شيفراتها الخاصة أو تدمج البيانات داخل نصوص ووسائط عادية، ما يجعل كشفها أكثر صعوبة ويثير مخاوف أمنية واجتماعية وأخلاقية ملحّة.
العربية ليست لغة متجانسة، بل تُشكِّل شبكةً لغويةً غنيةً من اللهجات المحلية، والتعابير العامية، والتحول اللغوي بين العربية والإنجليزية، والاستخدام الإبداعي للرموز التعبيرية والإشارات البصرية. ومع ذلك، فإن النماذج القياسية للذكاء الاصطناعي، التي تُدرَّب في الغالب على مجموعات بيانات باللغة الإنجليزية أو بالعربية الفصحى (الكلاسيكية أو الحديثة)[4]، غالبًا ما تفشل في اكتشاف المحتوى المتطرف بدقة.يؤدي ذلك إلى ارتفاع معدلات الإيجابيات الكاذبة (أي تصنيف محتوى غير ضار على أنه تهديد)، والسلبيات الكاذبة (أي الفشل في كشف التهديدات الحقيقية)[5]. هذه الفجوات تخلق معضلةً مزدوجة: فمن جهة، يتمتع المتطرفون بحرية شبه تامة في التحرك، ومن جهة أخرى، يتعرض المستخدمون العاديون لخطر الرقابة المفرطة على محتواهم.
فعلى سبيل المثال، في عام 2023، قامت الأنظمة الآلية التابعة لشركة ميتا (Meta) بحذف منشورات تحتوي على الكلمة العربية "شهيد" عند الإشارة إلى أشخاص مدرجين على قائمة "المنظمات الخطرة". وتعني كلمة "شهيد" حرفيًا "شهيد" باللغة العربية وتُستخدم بشكل شائع في السياقات الإسلامية لتكريم شخص مات في خدمة دينه أو دفاعًا عن وطنه. وعلى الرغم من أن المصطلح قد يُستعمل أحيانًا في سياقات مرتبطة بالتطرف أو العنف، فإنه يحمل أيضًا دلالات دينية وروحية ووجدانية غير عنيفة، إذ يظهر في منشورات تأبينية تُخلّد ذكرى أفراد العائلة المتوفين، أو شخصيات دينية، أو زعماء مجتمع، أو حتى في نقاشات حول أحداث تاريخية ارتبطت بالدفاع عن المعتقد أو الوطن. إلا أن شركة ميتا لم تأخذ هذا البُعد الدلالي والثقافي في الحسبان، فحذفت المحتوى دون اعتبارٍ للسياق، مما أدى إلى رقابةٍ غير مبررة طالت منشورات دينية أو تذكارية مشروعة لم تكن ُتروّج للعنف. تُبرز هذه الحالة مخاطر الاعتماد المفرط على الإشراف الآلي من دون حساسية ثقافية أو إشراف بشري مدرك للسياق[6]. وبالتالي فإن الفجوة بين ما تفترضه أنظمة المراقبة الآلية وما يقصده المستخدمون فعليًا يمكن أن تتسع بدرجة كبيرة، خاصة عندما لا تؤخذ في الاعتبار عناصر السياق، واللهجة، والاستخدام الثقافي للغة.
أوجه القصور التشغيلية
تستثمر العديد من شركات التكنولوجيا، مثل ميتا (Meta)، مواردها بشكل رئيسي في مراقبة المحتوى باللغة الإنجليزية أو بلغات أخرى، مما يؤدي إلى عدم توازنٍ في الإشراف على منصات التواصل الاجتماعي. وقد كشفت مراجعة داخلية لنظام الإشراف على المحتوى العربي في منصة فيسبوك عن تحديات كبيرة في التعامل مع مجموعة واسعة من اللهجات المنطوقة في جميع أنحاء الشرق الأوسط وشمال إفريقيا. وأشار التقرير إلى أن "اللغة العربية ليست لغة واحدة، بل عائلة لغات متعددة، كثير منها غير مفهوم متبادلًا"، موضحًا أن هذا التنوع اللغوي يشكّل عقبة أمام بناء نظام دقيق وشامل للمراقبة. كما أكد التقرير أن السياقين الاجتماعي والسياسي يختلفان من بلد إلى آخر، الأمر الذي يزيد من صعوبة الكشف الدقيق عن خطاب الكراهية والمعلومات المضللة وإزالتها من المنصات الرقمية[7]. وفي الوقت نفسه، تفتقر العديد من الجهات الحكومية في العالم العربي إلى الموارد والخبرة والأطر الإقليمية التعاونية اللازمة لدعم أنظمة المراقبة القائمة على الذكاء الاصطناعي، مما يحدّ من قدرتها على تطوير حلول فعالة ومستدامة في مواجهة المحتوى المتطرف أو الضار عبر الإنترنت.
من منظور الأمن والسياسات
تُحدث هذه الفجوات عواقب خطيرة على المستويين الأمني والسياسي. فمن المنظور الأمني، يستغل المتطرفون نقاط الضعف في قدرات الذكاء الاصطناعي لتنظيم أنشطتهم، وتجنيد الأفراد، ونشر الأيديولوجيات العنيفة عبر وسائل التواصل الاجتماعي مع مخاطر كشف أو ملاحقة محدودة. وهذا لا يُوسّع نطاق وصولهم وتأثيرهم فحسب، بل يُقوّض أيضًا الأمن العام في الفضاءين الرقمي والمادي. أما من المنظور السياسي وصنع السياسات، فإن هذه الفجوات قد تولّد إحساسًا زائفًا بالأمان لدى الحكومات والمؤسسات، إذ تعتقد أن أنظمة الذكاء الاصطناعي قادرة على مكافحة التهديدات المتطرفة بفعالية، بينما تمر الأنشطة الخطيرة دون رصد أو معالجة[8]، مما يُؤخر وضع تدابير مضادة أكثر صرامة وشمولًا، ويسمح للأنشطة الضارة بالانتشار دون رادع.
مجموعة البيانات العربية لتقييم النماذج اللغوية الضخمة
في فبراير عام 2024، قام فريق من الباحثين في قسم معالجة اللغة الطبيعية بجامعة محمد بن زايد للذكاء الاصطناعي (MBZUAI) بتطوير مجموعة بيانات معيارية جديدة تحمل اسم "تقييم أداء النماذج اللغوية الكبيرة باللغة العربية من خلال مجموعة من المهام“ (ArabicMMLU). وهي أول مجموعة بيانات عربية موحدة تهدف إلى تقييم أداء وفهم النماذج اللغوية الضخمة في اللغة العربية. صُممت هذه الورقة البحثية لسدّ الفجوة الناجمة عن نقص البيانات العربية، ولضمان قياس أكثر دقة للفهم اللغوي والاستدلال. تُقيّم أداة ArabicMMLU البعد المعرفي، أي ما يتعلمه النموذج ويحتفظ به أثناء التدريب. في السابق، كانت البيانات المتاحة لتقييم المعرفة العربية بالنماذج مقتصرة على المصادر المترجمة من الإنجليزية، مما قلل من فعاليتها، إذ قد تُدخل الترجمة أخطاءً وتُغفل الفروق الثقافية والسياقية الخاصة بالمنطقة العربية[9]. يمكن اعتبار مبادرة ArabicMMLU نموذجًا لتطوير موارد لغوية عربية أصيلة لبناء أدوات ذكاء اصطناعي متطورة ومتخصصة في سياق مكافحة التطرف العنيف، تتجاوز الترجمة، وتتفهم السياق العربي بعمق، وتساهم في سد الفجوة في رصد خطاب وأنشطة التطرف الرقمي ومكافحتها. لذلك، يجب تدريب نماذج الذكاء الاصطناعي على لهجات متنوعة، وعلى اللغة الممزوجة بين العربية والإنجليزية (code-switching)، ومواد ذات صلة ثقافية، مثل الخطاب الديني، والخطاب السياسي، والسرديات التاريخية، مما يساعد في الحد من الإيجابيات الكاذبة من خلال التمييز بين التعبير المشروع والتحريض الفعلي. كما يُعدّ دمج التوسيم والمراجعات البشرية من قبل ناطقين باللغة العربية يمتلكون وعيًا ثقافيًا وجيوسياسيًا أمرًا بالغ الأهمية لتحسين دقة النماذج وجودتها. ورغم عدم وجود حل شامل حتى الآن، فإن هذه الاستراتيجيات توفر مسارًا واضحًا وعمليًا للمضي قدمًا نحو تطوير أنظمة ذكاء اصطناعي أكثر فاعلية.
التوصيات
تتطلّب معالجة هذه التحديات نهجًا متعدد الأبعاد وواعيًا أخلاقيًا:
الاستثمار في تطوير نماذج عربية متخصصة: ينبغي العمل على تطوير نماذج ذكاء اصطناعي مخصصة للغة العربية من خلال إنشاء مجموعات بيانات ضخمة وموسومة ومراجعة بدقة، تراعي تنوّع اللهجات، واللغة العامية، والمصطلحات المرتبطة بالتطرف، وذلك لضمان أدوات مراقبة ورصد أكثر دقة وفاعلية. وعلى الرغم من قدرة الذكاء الاصطناعي على التعامل مع حجم ضخم والسرعة في كشف المحتوى، تظل الخبرة البشرية عنصرًا لا غنى عنه، إذ يقوم المحللون البشريون بمراجعة السياقات، وتفسير الإشارات الدقيقة والفروق الثقافية، وتحديث النماذج وتغذيتها باستمرار. يجب على المحللين والباحثين والمهندسين وصانعي السياسات والمنظمات غير الحكومية الاعتماد بشكل أكبر على الخبراء المتخصصين القادرين على تحديد الاتجاهات الجديدة في هذا المجال.يمكن لهذه النتائج الاستباقية أن تُسهم في تطوير قواميس محدّثة للغة التمويه “ليت سبيك” تُستخدم لتدريب أنظمة التعلّم الآلي على نطاق واسع. وعلى الرغم من أن هذا النهج يتطلّب موارد بشرية إضافية على المدى القصير، فإنه سيُسهم في المدى الطويل في تقليل حجم المحتوى المتطرف الذي ينجح في الإفلات من المراقبة والرصد.
تعزيز التعاون الإقليمي والدولي: ينبغي على الحكومات وشركات التكنولوجيا ومؤسسات البحث في العالم العربي العمل معًا لتبادل البيانات، وتطوير أفضل الممارسات، ووضع بروتوكولات موحدة لرصد المحتوى المتطرف والاستجابة له رقميًا. ويمكن الاستفادة من النماذج والمبادرات الدولية الناجحة في هذا الصدد مثل "التكنولوجيا ضد الإرهاب" و ”منصة تحليل المحتوى الإرهابي” (TCAP)، التي توفّر للمنصات التقنية الصغيرة أدوات وتنبيهات آنية للكشف عن المحتوى الإرهابي وإزالته، بما في ذلك المحتوى باللغة العربية. ويمكن للشرق الأوسط تبنّي نموذج مماثل عبر إنشاء أداة إقليمية لرصد التطرف باللغة العربية، ووضع اتفاقيات لتبادل البيانات عبر الحدود، وتأسيس شراكات استراتيجية متخصصة مع شركات التكنولوجيا الكبرى مثل ميتا وتيليجرام ويوتيوب. ومن شأن ذلك أن يُمكّن من تطوير أدوات إشراف تعتمد على الذكاء الاصطناعي مُصمَّمة ثقافيًا ولغويًا، إضافةً إلى توحيد آليات إزالة المحتوى المتطرف عبر المنصات المختلفة.
تصميم برامج تدريبية للباحثين الإقليميين ومشرفي المحتوى: من خلال مواءمة الجهود العالمية ووضع استراتيجيات خاصة بكل منطقة، يمكن للدول العربية تتبنّى نهجًا استباقيًا ومنسقًا لبناء قدراتها المحلية في مكافحة الخطاب المتطرف بفعالية أكبر.
الخلاصة
على الرغم من الدور المتزايد الذي يلعبه الذكاء الاصطناعي في مكافحة التطرف عبر الإنترنت، لا تزال هناك فجوات جوهرية، ولا سيّما في مجال مراقبة المحتوى العربي. إذ يواصل الفاعلون المتطرفون استغلال الثغرات اللغوية والتقنية والتشغيلية للتهرب من الرصد والكشف عبر الإنترنت، في حين تميل الأنظمة الآلية إلى فرض رقابة مُفرطة على التعبير المشروع بسبب نقص الفهم الثقافي والسياقي الدقيق. يتطلّب سد هذه الفجوة الاستثمار في نماذج ذكاء اصطناعي مخصصة للغة العربية، وتعزيز الإشراف البشري المتخصص، وتقوية التعاون الإقليمي في مجال المراقبة الرقمية. ومن خلال الجمع بين التكنولوجيا المتقدمة والخبرة المحلية والضمانات الأخلاقية، يُمكن للعالم العربي أن يطوّر أنظمة أكثر دقة واستجابة وإنصافًا لمواجهة التطرف الرقمي بفعالية، وحماية فضائه المعلوماتي من الاستغلال والتشويه.
بيان إخلاء المسؤولية:
الآراء والمواقف الواردة في سلسلة منشورات “آراء ورؤى” تعبّر عن وجهات النظر الشخصية للكتّاب، ولا تعكس بالضرورة السياسات أو المواقف الرسمية لمركز ربدان للأمن والدفاع أو أي من المؤسسات التابعة له أو لأي جهة حكومية. والمحتوى المنشور يهدف إلى توفير معلومات عامة ويعكس وجهات نظر شخصية حول قضايا متعلقة بالأمن والدفاع.
المراجع
AI and the Arabic language: Preserving cultural heritage and enabling future discovery. (18 Decemeber, 2024). تم الاسترداد من MBZUAI: https://mbzuai.ac.ae/news/ai-and-the-arabic-language-preserving-cultural-heritage-and-enabling-future-discovery/
Dark Motives Online: An Analysis of Overlapping Technologies Used by Cybercriminals and Terrorist Organizations. (3 May, 2016). تم الاسترداد من Trendmicro: https://www.trendmicro.com/vinfo/us/security/news/cybercrime-and-digital-threats/overlapping-technologies-cybercriminals-and-terrorist-organizations
haonan.li, sara.shatnawi, jad.doughman, abdelrahman.sadallah, aisha.alraeesi fajri.koto. (20 February, 2024). ArabicMMLU: Assessing Massive Multitask Language Understanding in Arabic. تم الاسترداد من Arxiv: https://arxiv.org/html/2402.12840v1#Sx1.SS0.SSS0.Px2
Nachaat Mohamed. (30 April, 2025). Artificial intelligence and machine learning in cybersecurity: a deep dive into state-of-the-art techniques and future paradigms. Spriger، 46. تم الاسترداد من https://link.springer.com/article/10.1007/s10115-025-02429-y
Nadeem Khan, Aymenn al-Tamimi Moustafa Ayad. (31 October, 2022). The Terror Times: The Depth and Breadth of the Islamic State Alternative News Outlet Ecosystem Online. Institute For Strategic Dialogue، 16-18. تم الاسترداد من Global Network on Extremisim and Technology.
PAO on the treatment of the term “shaheed” (شهيد). (2 July, 2024). تم الاسترداد من Meta: https://transparency.meta.com/pt-br/oversight/oversight-board-cases/shaheed-pao
Rishi Iyengar. (26 October, 2021). Facebook has language blind spots around the world that allow hate speech to flourish. تم الاسترداد من CNN: https://edition.cnn.com/2021/10/26/tech/facebook-papers-language-hate-speech-international
الذكاء الاصطناعي في مواجهة الإرهاب.. فرص وتحديات. (27 October, 2021). تم الاسترداد من مركز المعلومات ودعم اتخاذ القرار: https://www.idsc.gov.eg/Article/details/6259
باستخدام تقنيات الرصد والتحليل والتنبؤ - توظيف الذكاء الاصطناعي للحدِّ من التطرف والإرهاب. (28 March, 2024). تم الاسترداد من Islamic Military Counter Terrorism Coalation: https://www.imctc.org/ar/eLibrary/Articles/Pages/article28032024.aspx
[1] (الذكاء الاصطناعي في مواجهة الإرهاب.. فرص وتحديات, 2021)
[2] (Moustafa Ayad, 2022)
[3] (Dark Motives Online: An Analysis of Overlapping Technologies Used by Cybercriminals and Terrorist Organizations, 2016)
[4] (AI and the Arabic language: Preserving cultural heritage and enabling future discovery, 2024)
[5] (Mohamed, 2025)
[6] (PAO on the treatment of the term “shaheed” (شهيد), 2024)
[7] (Iyengar, 2021)
[8] (باستخدام تقنيات الرصد والتحليل والتنبؤ - توظيف الذكاء الاصطناعي للحدِّ من التطرف والإرهاب, 2024)
[9] (fajri.koto, 2024)


