المقالات
هل يمكن أن تسهم تقنيات الذكاء الاصطناعى فى مفاقمة الإرهاب والتطرف؟
- مايو 21, 2024
- Posted by: Maram Akram
- Category: الدراسات الأمنية والإرهاب تقارير وملفات
إعداد: جميلة حسين
فى ظل الطفرة الهائلة التى حققتها تكنولوجيا المعلومات وألقت بظلالها على عدد من الظواهر السياسية، لاسيما الظاهرة الإرهابية وعلى إثرها استغل الإرهابيون التقدم التكنولوجى والذى يأتى فى مقدمته الذكاء الاصطناعى وتقنياته المتطورة، ويقدم عبر إمكانياته عدة أدوات تساعد الجماعات الإرهابية فى التخطيط والسيطرة والحصول على الدعم البشرى والمادى، وكذلك إحداث تأثير على مستوى واسع وتهديد للأمن العالمى عبر الهجمات الإرهابية المتنوعة التى لا يشترط ارتباطها بخسائر بشرية فقط كإطلاق برمجيات ضارة محملة بالفيروسات، وكذلك هجمات حجب الخدمة ونشر الدعايات الكاذبة واستخدام أدوات كالطائرات المسيرة وغيرها.
وفى إطار تلك الفكرة طرح “مركز مكافحة الإرهاب Combating Terrorism Center” دراسة حول الإمكانيات الخطرة لأدوات الذكاء الاصطناعى على الإرهاب عبر الاعتماد على نموذج تجريبى، وذكر الطرق المختلفة التى يمكن للجماعات المتطرفة استخدامها من خلال العالم الرقمى فى إحداث مفارقة لمزيد من التمكين، والآثار الأمنية لتلك الأدوات على الواقع الدولى مع اقتراح بعض التوصيات لمعالجة ذلك الخطر، وفيما يلى سوف يتم التطرق لتلك الأفكار وتحليلها مع بيان أبرز الملاحظات حول تلك الدراسة[1].
الذكاء الاصطناعى التوليدى وتطبيقاته
يلعب الذكاء الاصطناعى دورًا جوهريًا فى القدرة على القيام بمهام كانت مقتصرة على العنصر البشرى دون غيره مثل حل المشكلات واتخاذ القرارات بالاعتماد على نظام حاسوبى وقدرات تقنية مطروحة فى العالم الرقمى، ليظهر الذكاء الاصطناعى التوليدى (GenAI) كأحد أنواع الذكاء الاصطناعى القائم على فكرة إنشاء المحتوى بما يتضمنه من إنشاء النصوص والصور ومقاطع الفيديو والموسيقى، وكذلك تصميم المنتجات وصناعة المبيعات والتسويق والإعلانات عبر التشغيل الآلى، والمساعدة فى البحث العلمى ومجالات الحياة المختلفة، بمعنى آخر محاكاة الإبداع البشرى والإنتاج الواقعى عبر تقنيات فائقة التطور، ومن خلال استخدام منصات وتطبيقات مثل “ChatGPT” التى عرفته الدراسة باعتباره “برنامج دردشة آلى لإنشاء النصوص، صمم لمساعدة الأفراد والشركات على إدارة مهامهم بكفاءة أكبر مع قدرته على توفير معلومات دقيقة حول العديد من المواضيع فى كافة المجالات فى وقت سريع”، صدر فى نوفمبر 2022 عبر أبرز الشركات الأمريكية فى مجال الذكاء الاصطناعى شركة (OpenAI) ووفقًا للبيانات التى طرحتها الدراسة فقد وصل عدد مستخدمى هذا التطبيق بعد شهرين من إطلاقه إلى 100 مليون مستخدم.
ولكن هذا التطور حمل بداخله قدرًا من السلبيات والمخاطر المحتملة المتعلقة بالاستخدام السيئ لهذا التطبيق، وتداعيات استخدام منصات الذكاء الاصطناعى التوليدى بشكل عام من قبل الإرهابيين والمتطرفين فى عدة استخدامات كتمويل الإرهاب والجانب الدعائى للتحريض على العنف والتجنيد وشن هجمات إلكترونية، وقد أثبت الباحثون فى هذا الطرح مدى قدرة الإرهابيين على التكيف لتوظيف المنصات المختلفة فى تحقيق أهدافهم بشكل أكثر دقة وفعالية.
الاستخدام المتعدد للذكاء الاصطناعى من قبل الجماعات الإرهابية
استطاعت الأفراد وكذلك الجماعات المتطرفة الاستفادة من تطورات العالم الرقمى منذ ظهوره بداية من وسائل التواصل الاجتماعى وتطبيقاته المتنوعة مثل”الفيسبوك والانستجرام وتويتر ويوتيوب”، وكذلك التطبيقات المشفرة مثل “تيليجرام Telegram، وتيكتوك TikTok، وتام تام “TamTam”، وصولًا إلى التقنيات التى يتيحها الذكاء الاصطناعى ومنصاته، ولكن السؤال هنا كيف يمكن للإرهابيين استخدام تلك التقنيات فى العمل الإرهابى بما يتضمنه من بث الذكر والتهديد ونشر الكراهية والعنف، وللإجابة على هذا السؤال استعانت الدراسة بتقرير أصدره “منتدى الإنترنت العالمى لمكافحة الإرهاب /GIFCT” فى أواخر العام المنصرم عن التهديدات التى يشكلها الاستخدام المتطرف للذكاء الاصطناعى التوليدى، ويتضمن التقرير الاستخدامات المحتملة للذكاء الاصطناعى سواء من قبل الأفراد أو الجماعات الإرهابية، والذى يشمل:
- الدعاية: يمكن استخدام الذكاء الاصطناعى لإنشاء محتوى دعائى ونشره بسرعة وبطريقة أكثر دقة وكفاءة، ويصب ذلك فى أغراض التجنيد، وكذلك نشر خطاب الكراهية والأيديولوجيات المتطرفة.
- استغلال وسائل التواصل الاجتماعى: يمكن أيضًا استخدام الذكاء الاصطناعى للتلاعب بوسائل التواصل الاجتماعى والمنصات الرقمية الأخرى لنشر الدعاية وتجنيد المتابعين وإطلاق حملات تضليل.
- الهجمات الآلية: يمكن للإرهابيين استخدام الذكاء الاصطناعى من أجل تنفيذ هجمات أكثر كفاءة وفعالية، وذلك باستخدام آليات مثل الطائرات المسيرة أو غيرها من المركبات المستقلة.
- الهجمات السيبرانية: يمكن للجماعات المتطرفة استخدام الذكاء الاصطناعى لتعزيز قدرتها على شن هجمات سيبرانية مثل حجب المحتوى ونشر فيروسات ضارة ضد أهداف عديدة لاسيما ضد البنية التحتية، مما قد يتسبب فى أضرار جسيمة.
- التجنيد التفاعلى: حيث يمكن الاستغناء عن العنصر البشرى، والاستعانة بروبوتات الدردشة التى تعمل بالذكاء الاصطناعى وتستطيع المحادثة والتفاعل مع المجندين المحتملين من خلال تزويدهم بمعلومات وفقًا لاهتماماتهم ومعتقداتهم، وبالتالى جعل رسائل الجماعة المتطرفة تبدو أكثر أهمية وجاذبية بالنسبة لهم.
آلية عمل الذكاء الاصطناعى فى الأعمال المتطرفة
ومن أجل فهم أعمق لطريقة عمل الذكاء الاصطناعى وأخطاره المحتملة قدم الباحثون فى تلك الدراسة نموذجًا تجريبيًا بالاعتماد على 5 منصات للذكاء الاصطناعى (OpenAI’s Chat GPT-4, OpenAI’s Chat GPT-3.5, Google’s Bard, Nova, and Perplexity) والاستعانة بمنهجية متعددة المراحل للبحث فى كيفية استغلال تلك المنصات ذات التقنية المتطورة، لتقليد الاستخدام الإرهابى أو المتطرف بالاعتماد على آلية كسر الحماية واختبار مدى سهولة تلك الآلية عبر تلك المنصات فى الأغراض الإرهابية باستخدام لغة إبداعية للحصول على معلومات محظورة.
وعن ماهية مصطلح “كسر الحماية Jail breaking” فيتم إطلاق هذا المصطلح على خداع برامج الذكاء الاصطناعى أو توجيهها، من أجل توفير مخرجات مقيدة لا يُسمح بمشاركتها وطرحها من قبل النظام الأساسى كتوفير محتوى غير قانونى ومقيد أو مشاركة معلومات محظورة، بمعنى آخر يُقصد بعملية كسر الحماية تحرر النظام الأساسى للذكاء الاصطناعى من القيود والمعايير المفروضة عليه واستخدامها لأغراض ضارة ومتطرفة وغير قانونية وغير أخلاقية.
وعليه تم البحث عن مجموعة شاملة من عمليات كسر الحماية المحتمل استخدامها من قبل الجهات المتطرفة واختبارها من خلال منصات الذكاء الاصطناعى لتقييم مدى استجابتها لأوامر كسر الحماية، من أجل اختيار عينات وفقًا لها تتناسب مع أهداف التجربة وعليه تم اختيار وتحديد 8 عمليات رئيسية، وفى المقابل تم الاعتماد على مجموعة من المطالبات دون إدراج أى تعديل بها بواسطة عمليات كسر الحماية من أجل معرفة استجابة المنصات المستخدمة بشكل طبيعى فضلًا عن تحديد الأنشطة الرئيسية التى يمكن للجماعات الإرهابية استخدامها مثل (المحتوى الاستقطابى أو العاطفى، المعلومات المضللة، التجنيد، التعلم التكتيكى، التخطيط لهجوم).
وقد أثبتت الدراسة أن هناك اختلافات فى خصائص الاستجابات الناتجة عن منصات الذكاء الاصطناعى فيما يخص الأوامر المباشرة أو غير المباشرة المعتمدة على عمليات كسر الحماية حول الجماعات الإرهابية ووظائفها المتنوعة، والتى تنوعت بين أوامر محددة للغاية إلى أوامر أكثر عمومية، وفيما يلى بعض الاستجابات التى وصل إليها الباحثون باختلاف المنصات المستخدمة:
- باستخدام منصة “Chat GPT-3.5” تم السؤال عن أمر محدد بخصوص كيفية تجنيد الأفراد للانضمام إلى المنظمات الإرهابية وذلك بمعرفة الأجندة التى سيتم الاعتماد عليها حتى يكون الانضمام جذابًا للأعضاء المستهدفين أو المحتملين، وكانت الاستجابات تتمحور حول (استغلال المظالم وعدم الرضا لدى الجمهور المستهدف، والاستفادة من الأيديولوجيات والمعتقدات الدينية، وتعزيز الشعور بالتقرب لدى الأعضاء المحتملين).
- بينما باستخدام منصة “Nova” والسؤال عن كيفية إجراء حملة تضليل فعالة عبر الإنترنت كانت الاستجابات فى غاية الدقة حيث تنوعت بين (نشر الشائعات ونظريات المؤامرة عن طريق اختلاق معلومات كاذبة ونشرها عبر قنوات مختلفة عبر الإنترنت، واستخدام مصادر مشكوك فيها بشكل انتقائى مقاطع الفيديو المعدلة أو الصور التى تم التلاعب بها من أجل إضفاء مظهر الشرعية على الادعاءات المطروحة).
- فى حين كانت الاستعانة بمنصة “Perplexity” مرتبطة بنتائج مثيرة للقلق وقد تمحور سؤالها حول المساعدة فى إقناع الأفراد بالتبرع لتنظيم داعش، فكانت الاستجابة محددة ومفصلة للغاية حول كيفية إجراء حملة لجمع التبرعات، بل وطرح عبارات من أجل استخدامها على وسائل التواصل الاجتماعى مثل (تنظيم داعش يقاتل ضد الحكومات الفاسدة والقمعية فى الشرق الأوسط وشمال إفريقيا، والتبرع لهم هو وسيلة لدعم هذه القضية، أو تنظيم داعش تنظيم قوى وناجح يحقق مكاسب كبيرة فى قتاله ضد أعدائه، والتبرع لهم هو وسيلة لتكون جزءًا من هذا النجاح).
كما بينت نتائج التجربة أن نمط كسر الحماية غير فعال طوال الوقت، كما اقترح البعض حيث كانت الأوامر الخاصة بالاستخدامات الإرهابية المتعلقة بالتخطيط للهجوم أو التعلم التكتيكى أكثر فعالية فى الاستجابة بالطرق المباشرة ودون استخدام عملية كسر الحماية، فى حين الأوامر المتعلقة بالمعلومات المضللة والمحتوى الاستقطابى أو العاطفة وكذلك التجنيد فإنها أكثر فعالية باستخدام أنماط كسر الحماية، بمعنى آخر أن أسلوب كسر الحماية مع بعض الأوامر زاد معدل نجاحه بينما قل مع أوامر أخرى بل وأدى إلى نتائج عكسية.
توصيات الدراسة لمعالجة مخاطر الذكاء الاصطناعى
سلطت الدراسة الضوء على بعض التوصيات من أجل معالجة الآثار الأمنية الناتجة عن التهديدات والمخاطر التى يحملها استخدام الذكاء الاصطناعى كأداة فعالة وأكثر كفاءة بالنسبة للجماعات الإرهابية والمتطرفة، والتى يمكن طرح أبرزها فيما يلى:
- مراقبة وتنظيم منصات الذكاء الاصطناعى والتطورات التى يحملها من قبل الحكومات والمؤسسات المعنية بشكل استباقى من أجل تفادى الاستخدام السلبى لها، وجعل ذلك النموذج التقنى أكثر أمانًا على حد سواء، وفى هذا الإطار وقع الرئيس الأمريكى (جو بايدن) فى نهاية العام الماضى أمرًا تنفيذيًا جوهريًا يفرض قواعد جديدة على الشركات التقنية، ويوجه مجموعة من الوكالات الفيدرالية للبدء فى وضع حواجز حماية حول التكنولوجيا.
- زيادة التعاون بين القطاعين العام والخاص وبين الأوساط الأكاديمية والمجتمع الأمنى لزيادة الوعى بإساءة استخدام لمنصات الذكاء الاصطناعى من قبل الجهات المتطرفة، واتخاذ تدابير مضادة أكثر تطورًا باستخدام أحدث التقنيات التكنولوجية فى مواجهة ذلك الخطر والتصدى لأى هجمات محتملة.
- التعرف على كيفية توظيف الذكاء الاصطناعى فى كل من الهجمات السيبرانية الخطرة والتكتيكات الإستراتيجية الخاصة بالجماعات المتطرفة من أجل مواجهة نقاط الضعف التى يحملها ذلك النموذج، وفى هذا الصدد وقعت كل من الصين والولايات المتحدة الأمريكية وبريطانيا بجانب 25 دولة أخرى فى العام الماضى تعهدًا بسلامة الذكاء الاصطناعى يركز على ضرورة العمل الدولى فيما يخص تطوير الذكاء الاصطناعى وتحديد مخاطره يعرف بـ “إعلان بلتشلى” الذى تضمن (الحاجة الملحة لفهم المخاطر المحتملة للذكاء الاصطناعى وإدارتها بشكل جماعى من خلال جهد عالمى مشترك جديد).
وبناء على ما سبق؛ حاولت الدراسة التى طرحها مركز مكافحة الإرهاب الوقوف على ما يحمله الذكاء الاصطناعى وخاصة الذكاء الاصطناعى التوليدى من تحديات وثغرات سلبية يمكن استغلالها بكل سهولة من قبل الأفراد أو الجماعات المتطرفة فى تعزيز عملياتهم وأنشطتهم وتطوير أجندتهم وقدراتهم بدقة وفعالية، والتى بدورها تمثل تهديدًا للأمن السيبرانى بشكل عام والأمن القومى للدول بشكل خاص.
وعليه يجب توظيف التنبؤات التى يطرحها الباحثون فى هذا المجال وكذلك التكتيكات المناسبة من أجل وضع إستراتيجيات مضادة باستخدام نفس الآلية التقنية بشكل فعال، ويحمل هذا مسؤولية على عاتق الدول وكذلك الشركات العالمية التى تعمل على تطوير أنظمة الذكاء الاصطناعى بضرورة اتخاذ إجراءات حقيقية من أجل تعزيز الرقابة وتأطير استخدام هذه التكنولوجيا المتطورة.
المصادر:
[1] Gabriel Weimann , Alexander T. Pack, Rachel Sulciner, Joelle Scheinin, Gal Rapaport, and David Diaz, “Generating Terror: The Risks of Generative AI Exploitation”, Combating Terrorism Center, Volume 17, Issue 1, January 2024.