تكافح وكالات مكافحة الإرهاب للحفاظ على الميزة وإحباط الهجمات مع تسهيل الوصول إلى الأدوات الرقمية
الغارديان | بن ماكوتش
لقد وصفت سلطات مكافحة الإرهاب، منذ سنوات، مواكبة المنظمات الإرهابية واستخدامها للأدوات الرقمية وتطبيقات وسائل التواصل الاجتماعي بأنها لعبة ” Whac-a-Mole” . لقد استغلت الجماعات الإرهابية الجهادية مثل تنظيم الدولة الإسلامية وسلفه تنظيم القاعدة، أو حتى الجماعة النازية الجديدة القاعدة ، الأدوات الرقمية لتجنيد وتمويل سراً عبر العملات المشفرة، وتنزيل الأسلحة للطباعة ثلاثية الأبعاد ونشر الحرف اليدوية لأتباعها، كل ذلك في حين تركت وكالات إنفاذ القانون والاستخبارات تلعب دور اللحاق بالركب. مع مرور الوقت، تطورت أساليب إحباط الهجمات والحفاظ على الميزة التكنولوجية على هذه الأنواع من الجماعات الإرهابية، مع توفر المزيد والمزيد من الموارد مفتوحة المصدر. والآن، مع ظهور الذكاء الاصطناعي – سواء في الأفق باعتباره تكنولوجيا سريعة التطور أو في الوقت الحاضر كتطبيقات مجانية يمكن الوصول إليها – فإن الوكالات تكافح. أفادت مصادر مطلعة على جهود الحكومة الأمريكية لمكافحة الإرهاب لصحيفة الغارديان أن العديد من الأجهزة الأمنية تشعر بقلق بالغ إزاء كيفية مساهمة الذكاء الاصطناعي في زيادة كفاءة الجماعات المعادية في تخطيطها وعملياتها. ورفض مكتب التحقيقات الفيدرالي التعليق على هذه القصة. وقال آدم هادلي، مؤسس ومدير تنفيذي لمنظمة Tech Against Terrorism ، وهي منظمة مراقبة مكافحة الإرهاب عبر الإنترنت، والتي تدعمها المديرية التنفيذية للجنة مكافحة الإرهاب التابعة للأمم المتحدة : “توقع بحثنا بالضبط ما نلاحظه: الإرهابيون ينشرون الذكاء الاصطناعي لتسريع الأنشطة القائمة بدلاً من إحداث ثورة في قدراتهم التشغيلية “. “تتضمن المخاطر المستقبلية قيام الإرهابيين باستغلال الذكاء الاصطناعي لتطوير التطبيقات والمواقع الإلكترونية بسرعة، على الرغم من أن الذكاء الاصطناعي التوليدي يعمل في الأساس على تضخيم التهديدات التي تشكلها التقنيات الحالية بدلاً من خلق فئات تهديد جديدة تمامًا.” حتى الآن، بدأت جماعات مثل داعش وكيانات أخرى مجاورة باستخدام الذكاء الاصطناعي، وتحديدًا روبوت الدردشة ChatGPT من OpenAI، لتضخيم دعاية التوظيف عبر الوسائط المتعددة بطرق جديدة وواسعة النطاق. وكما هو الحال مع التهديد الوشيك الذي يُشكله بقلب القوى العاملة الحديثة رأسًا على عقب في عشرات القطاعات الوظيفية، والذي يُتوقع أن يُثري بعضًا من أغنى أغنياء العالم، فإن الذكاء الاصطناعي سيُعقّد قضايا السلامة العامة الجديدة. قال مصطفى عياد، المدير التنفيذي لأفريقيا والشرق الأوسط وآسيا في معهد الحوار الاستراتيجي: “يمكنك الآن تحويل نشرة أخبار تنظيم الدولة الإسلامية ( داعش) إلى مادة صوتية، كما لو كانت نشرة إخبارية”. وأضاف: “وهو ما رأيناه يفعله مؤيدو التنظيم، وكذلك مجموعات الدعم، بالإضافة إلى مجموعات الصور التي ينتجونها مركزيًا”. تابع أياد، مرددًا كلام هادلي: “الكثير مما يفعله الذكاء الاصطناعي يُمكّن ما هو موجود بالفعل. كما أنه يدعم قدراتهم في مجال الدعاية والنشر – وهذا جزء أساسي من ذلك”. لا يُخفي تنظيم داعش شغفه بالذكاء الاصطناعي، وقد أقرّ الآن علنًا بفرصة الاستفادة مما يُقدّمه حاليًا، حتى أنه قدّم “دليلًا لأدوات الذكاء الاصطناعي ومخاطره” لأنصاره عبر قناة مشفرة. في إحدى أحدث مجلاته الدعائية، بيّن التنظيم مستقبل الذكاء الاصطناعي وكيف ينبغي له أن يتبنّاه كجزء من عملياته. «بالنسبة لكل فرد، بغض النظر عن مجاله أو خبرته، أصبح فهم الفروق الدقيقة للذكاء الاصطناعي أمرًا لا غنى عنه»، هكذا ورد في مقال. «[الذكاء الاصطناعي] ليس مجرد تقنية، بل أصبح قوةً تُشكّل مسار الحرب». في المجلة نفسها، يشرح كاتب في IS أن خدمات الذكاء الاصطناعي يمكن أن تكون «مستشارين رقميين» و«مساعدين بحثيين» لأي عضو. عبر غرفة دردشة نشطة يستخدمها تنظيم داعش للتواصل مع أتباعه ومجنديه، بدأ المستخدمون بمناقشة الطرق العديدة التي يمكن أن يكون الذكاء الاصطناعي من خلالها موردًا، لكن البعض أبدى حذرًا. سأل أحد المستخدمين عما إذا كان من الآمن استخدام ChatGPT “لكيفية صنع المتفجرات”، لكنه لم يكن متأكدًا مما إذا كانت الوكالات تراقبه – وهو ما أصبح أحد مخاوف الخصوصية الأوسع نطاقًا المحيطة ببوت الدردشة منذ إنشائه. هل هناك خيارات أخرى؟ سأل أحد مؤيدي داعش عبر الإنترنت في غرفة الدردشة نفسها. “الخيار الآمن”. لكن مستخدمًا آخر وجد طريقةً أقل وضوحًا لتجنب إطلاق الإنذارات في حال مراقبته: وذلك بنشر المخططات والتعليمات حول كيفية إنشاء “نموذج أولي بسيط للمركبة عن بُعد وفقًا لـ chatgpt”. أصبح صدم الشاحنات أسلوبًا مفضلًا لدى داعش في الهجمات الأخيرة التي شملت أتباعًا وعملاء على حد سواء. في مارس/آذار، نشر حساب مرتبط بالتنظيم فيديو لصنع قنابل باستخدام الذكاء الاصطناعي، مع صورة رمزية، لوصفة يمكن صنعها باستخدام أدوات منزلية. وكانت الجماعات اليمينية المتطرفة مهتمة أيضًا بالذكاء الاصطناعي، حيث نصح أحد أتباعها بكيفية إنشاء ميمات مضللة، بينما نظر آخرون إلى الذكاء الاصطناعي لإنشاء رسومات ودعاية لأدولف هتلر . وقال أياد إن بعض هذه الأدوات التي تعمل بالذكاء الاصطناعي كانت أيضًا “نعمة” للجماعات الإرهابية وأمنها التشغيلي – تقنيات للتواصل بشكل آمن دون أعين متطفلة – مثل أجهزة تعديل الصوت المشفرة التي يمكنها إخفاء الصوت، والتي “يمكن أن تساعدهم بشكل أكبر في إخفاء وتعزيز أمنهم التشغيلي” وتجارتهم اليومية. لطالما كانت الجماعات الإرهابية في طليعة تعظيم وتبني المساحات الرقمية لنموها، والذكاء الاصطناعي هو أحدث مثال على ذلك. في يونيو 2014 ، قام تنظيم الدولة الإسلامية، الذي لا يزال يكتسب شهرة عالمية، بنشر صور ورسائل حية على تويتر لعمليات الإعدام الجماعية التي قام بها لأكثر من 1000 رجل أثناء اقتحامه الموصل، مما تسبب في فرار جنود الجيش العراقي خوفًا. بعد التأسيس النهائي لما يسمى بالخلافة وعملياتها الإلكترونية المتزايدة، كان ما تلا ذلك جهدًا متضافرًا ومنسقًا عبر الحكومة ووادي السيليكون لقمع جميع حسابات تنظيم الدولة الإسلامية على الإنترنت. منذ ذلك الحين، حددت وكالات الاستخبارات الغربية التشفير وتطبيقات الرسائل النصية المشفرة والمواقع التي يمكن العثور فيها على أسلحة مطبوعة ثلاثية الأبعاد، من بين أمور أخرى، كمساحات للشرطة والمراقبة. ولكن التخفيضات الأخيرة في عمليات مكافحة الإرهاب عبر حكومات العالم، بما في ذلك بعض التخفيضات التي أجراها دوج في الولايات المتحدة ، أدت إلى تدهور الجهود المبذولة. قال هادلي: “تكمن نقطة الضعف الأكثر إلحاحًا في تدهور البنية التحتية لمكافحة الإرهاب. فقد تراجعت المعايير بشكل ملحوظ مع تراجع تركيز المنصات والحكومات على هذا المجال”. وأوضح هادلي كيف يتزامن هذا التدهور مع “تطور المحتوى المدعوم بالذكاء الاصطناعي”، وحث شركات مثل Meta وOpenAI على “تعزيز الآليات الحالية بما في ذلك مشاركة التجزئة وقدرات الكشف التقليدية” والعمل على تطوير المزيد من “إدارة المحتوى” المحيطة بالذكاء الاصطناعي. وأضاف أن “نقطة ضعفنا لا تتمثل في قدرات الذكاء الاصطناعي الجديدة، بل في ضعف قدرتنا على الصمود في مواجهة الأنشطة الإرهابية القائمة عبر الإنترنت”
المصدر : الغارديان