في الوقت الذي يسارع فيه العالم إلى تسخير قدرات الذكاء الاصطناعي، بدأت الجماعات المسلحة بدورها في اختبار استخدام هذه التكنولوجيا، حتى وإن لم تتضح لديها بعد السبل المثلى لاستغلالها.
وحذّر خبراء في الأمن القومي وأجهزة الاستخبارات من أن الذكاء الاصطناعي قد يتحول أداة بالغة الخطورة في أيدي التنظيمات المتطرفة؛ لما يتيحه من إمكانات لتجنيد عناصر جدد، وإنتاج صور ومقاطع فيديو مزيفة واقعية للغاية (ديب فيك)، فضلاً عن تعزيز قدراتها على شن الهجمات السيبرانية.
وفي منشور كُتب باللغة الإنجليزية على موقع إلكتروني مؤيد لتنظيم «داعش» الشهر الماضي، دعا أحد المستخدمين أنصار التنظيم إلى إدماج الذكاء الاصطناعي في عملياتهم. وكتب: «من أفضل ما يميز الذكاء الاصطناعي سهولة استخدامه». وأضاف: «بعض أجهزة الاستخبارات تخشى أن يسهم الذكاء الاصطناعي في عمليات التجنيد… فحوّلوا كوابيسهم واقعاً»، حسب تقرير لـ«أسوشييتد برس»، الاثنين.

ويرى خبراء أميركيون في الأمن القومي أن تنظيم «داعش»، الذي كان قد سيطر في السابق على مساحات واسعة من العراق وسوريا قبل أن يتحول شبكة لا مركزية من جماعات مسلحة تتقاسم آيديولوجيا عنيفة، أدرك منذ سنوات قوة وسائل التواصل الاجتماعي بصفتها أداة فعَّالة للتجنيد ونشر المعلومات المضللة. ومن هذا المنطلق، لا يبدو مستغرباً أن يختبر التنظيم اليوم إمكانات الذكاء الاصطناعي.
وبالنسبة للجماعات المتطرفة ضعيفة الموارد أو المفككة تنظيمياً، بل وحتى للأفراد سيئي النوايا ممن يمتلكون اتصالاً بالإنترنت، فإن الذكاء الاصطناعي يتيح إنتاج كميات هائلة من الدعاية أو المحتوى المزيف على نطاق واسع، بما يوسّع دائرة التأثير ويعزز النفوذ.
وقال جون لاليبيرت، الباحث السابق في مجال الثغرات لدى وكالة الأمن القومي الأميركية، والرئيس التنفيذي حالياً لشركة «كلير فيكتور» المتخصصة في الأمن السيبراني: «الذكاء الاصطناعي يجعل تنفيذ الكثير من الأمور أسهل بكثير لأي خصم. فحتى مجموعة صغيرة تفتقر إلى المال يمكنها، بفضل الذكاء الاصطناعي، أن تُحدث أثراً ملموساً».
كيف تختبر الجماعات المتطرفة الذكاء الاصطناعي؟
بدأت الجماعات المسلحة استخدام الذكاء الاصطناعي مع اتساع إتاحة برامج مثل «تشات جي بي تي» (ChatGPT). وعلى مدى السنوات اللاحقة، لجأت بشكل متزايد إلى أدوات الذكاء الاصطناعي التوليدي لإنتاج صور ومقاطع فيديو تبدو واقعية للغاية.
وعند ربط هذا المحتوى المزيف بخوارزميات منصات التواصل الاجتماعي، يصبح الذكاء الاصطناعي أداة فعَّالة لتجنيد مؤيدين جدد، وإرباك الخصوم أو بث الخوف في نفوسهم، ونشر الدعاية على نطاق لم يكن متصوراً قبل بضع سنوات فقط.

وقبل عامين، نشرت هذه الجماعات صوراً مزيفة عن الحرب بين إسرائيل وحركة «حماس»، تُظهر رُضّعاً ملطخين بالدماء ومتروكين داخل مبانٍ مدمّرة. وأثارت هذه الصور موجة من الغضب واستقطاباً واسعاً، في حين حجبت فظائع الحرب الحقيقية. وقد استُخدمت تلك الصور في الشرق الأوسط من قِبل جماعات عنيفة لتجنيد عناصر جديدة، كما استغلتها جماعات معادية للسامية في الولايات المتحدة وأماكن أخرى.
وتكرر مشهد مشابه العام الماضي، عقب هجوم تبناه أحد فروع تنظيم «داعش» وأسفر عن مقتل نحو 140 شخصاً في قاعة حفلات موسيقية في روسيا. ففي الأيام التي تلت الهجوم، انتشرت على نطاق واسع مقاطع دعائية صُنعت باستخدام الذكاء الاصطناعي عبر المنتديات ومواقع التواصل الاجتماعي، في محاولة لاستقطاب مجندين جدد.
كما أن تنظيم «داعش» أنشأ تسجيلات صوتية مزيفة لقادته وهم يتلون نصوصاً دينية، واستخدم الذكاء الاصطناعي لترجمة رسائله بسرعة إلى لغات متعددة، وفقاً لباحثين في «مجموعة سايت إنتليجنس»، المتخصصة في تتبع أنشطة التنظيمات المتطرفة ودراسة تطور استخدام «داعش» للتقنيات الذكاء الاصطناعي.
طموحات تفوق القدرات… حتى الآن
ويقول ماركوس فاولر، العميل السابق في وكالة الاستخبارات المركزية الأميركية (سي آي إيه)، والرئيس التنفيذي الحالي لشركة «دارك تريس فيدرال» للأمن السيبراني التي تعمل مع الحكومة الأميركية، إن هذه الجماعات لا تزال متأخرة تقنياً مقارنة بدول مثل الصين، وروسيا أو إيران، وإن الاستخدامات الأكثر تطوراً للذكاء الاصطناعي ما زالت تُعد «طموحات مستقبلية» بالنسبة لها.
غير أن فاولر حذَّر من أن المخاطر كبيرة للغاية ولا يمكن تجاهلها، مرجّحاً أن تتصاعد مع الانتشار المتزايد لتقنيات ذكاء اصطناعي قوية ومنخفضة التكلفة، على حد قوله.
ويشير خبراء إلى أن قراصنة الإنترنت يستخدمون بالفعل الصوت والصورة الاصطناعيين في حملات التصيّد الإلكتروني، حيث ينتحلون خلالها صفة مسؤولين حكوميين أو مديري شركات بهدف الوصول إلى شبكات حساسة. كما يمكن للذكاء الاصطناعي كتابة شيفرات خبيثة أو أتمتة بعض جوانب الهجمات السيبرانية.

وما يثير قلقاً أكبر هو احتمال سعي الجماعات المسلحة إلى استخدام الذكاء الاصطناعي للمساعدة في إنتاج أسلحة بيولوجية أو كيميائية، لتعويض نقص الخبرات التقنية لديها. وقد أُدرج هذا الخطر ضمن التقييم المحدَّث للتهديدات الداخلية الصادر عن وزارة الأمن الداخلي الأميركية في وقت سابق من هذا العام.
وقال فاولر: «دخل تنظيم (داعش) مبكراً إلى منصة (تويتر)/إكس ونجح في توظيف وسائل التواصل الاجتماعي لصالحه. وهم دائماً يبحثون عن الأداة التالية لإضافتها إلى ترسانتهم».
مواجهة تهديد متنامٍ
وفي واشنطن، طرح مشرّعون عدداً من المقترحات، مؤكدين وجود حاجة مُلِحَّة إلى التحرك. وقال السيناتور الديمقراطي عن ولاية فيرجينيا، مارك وارنر، وهو كبير الديمقراطيين في لجنة الاستخبارات بمجلس الشيوخ، إن على الولايات المتحدة تسهيل تبادل المعلومات بين مطوري تقنيات الذكاء الاصطناعي بشأن كيفية إساءة استخدام منتجاتهم من قِبل جهات خبيثة، سواء كانت جماعات متطرفة أو قراصنة إجراميين أو جواسيس أجانب.
وأضاف وارنر: «منذ أواخر عام 2022، ومع الإطلاق العلني لتطبيق (ChatGPT)، كان واضحاً أن الانبهار العام بالذكاء الاصطناعي التوليدي والتجريب الواسع له سينتقل أيضاً إلى أطراف خبيثة متعددة».
وخلال جلسة استماع حديثة حول التهديدات المتطرفة، علم مشرّعون في مجلس النواب الأميركي أن تنظيمي «داعش» و«القاعدة» نظَّما ورش تدريب لمساعدة أنصارهما على تعلّم استخدام الذكاء الاصطناعي.
ويقضي تشريع أقرَّه مجلس النواب الأميركي الشهر الماضي بإلزام مسؤولي الأمن الداخلي بإجراء تقييم سنوي للمخاطر التي يشكّلها الذكاء الاصطناعي عند استخدامه من قِبل مثل هذه الجماعات.
وقال النائب الجمهوري عن ولاية تكساس، أوغست بفلوغر، وهو راعي مشروع القانون، إن الحماية من الاستخدام الخبيث للذكاء الاصطناعي لا تختلف عن الاستعداد للهجمات التقليدية، مضيفاً: «يجب أن تواكب سياساتنا وقدراتنا تهديدات الغد».
