
أبو ظبي، الإمارات العربية المتحدة (أخبار إنمائية) — حذّر تقرير جديد صادر عن مركز الفكر الدولي "هداية" من أن الذكاء الاصطناعي التوليدي يحمل في طيّاته تهديدات متصاعدة وفرصًا واعدة في الوقت ذاته، فيما يتعلق بالجهود العالمية الرامية إلى التصدي للتطرف العنيف والإرهاب.
وحمل التقرير عنوان "الذكاء الاصطناعي في مواجهة التطرف"، ويستند إلى مراجعة شاملة لـ52 دراسة وخمس جلسات نقاش جمعت بين خبراء من مجالات الأمن والتكنولوجيا والأوساط الأكاديمية والمجتمع المدني. ويُعد هذا التقرير من أكثر التحليلات العلنية تفصيلًا حتى اليوم بشأن الكيفية التي يُعيد بها الذكاء الاصطناعي التوليدي تشكيل مشهد التهديدات، إلى جانب قدرته على دعم جهود الوقاية والمكافحة.
ويشير التقرير إلى أن استخدام الجماعات المتطرفة للذكاء الاصطناعي التوليدي لا يزال في مراحله التجريبية إلى حد كبير، غير أن القلق بشأنه يتزايد. وتشمل أبرز المخاطر القدرة على إنتاج دعاية ذات جودة عالية بعدة لغات، وصناعة وسائط مزيفة (deepfakes)، واستخدام روبوتات المحادثة (chatbots) في عمليات الاستقطاب والتجنيد.
وفي إحدى الحالات التي سُلط الضوء عليها في المملكة المتحدة، أقام أحد المهاجمين علاقة أحادية الجانب مع روبوت محادثة ذكي، بدا وكأنه يؤكد له شرعية نواياه العنيفة.
كما يلفت التقرير النظر إلى المخاوف المتعلقة بالمعلومات المضللة، وتقنيات إخفاء الصوت، والتلاعب بالهويات، لا سيما أن الذكاء الاصطناعي يمكن أن يقوّض الثقة في وسائل الإعلام والمؤسسات العامة. وقد حذّر الخبراء من احتمال استخدام الذكاء الاصطناعي لإغراق منصات التواصل بمحتوى مشفّر يحمل رسائل متطرفة، أو التلاعب ببيئات تدريب النماذج الأخرى، بل وحتى إعادة تجسيد شخصيات إرهابية معروفة للمساهمة في عمليات التجنيد.
وتجرى أيضًا تجارب على استخدام الذكاء الاصطناعي في هجمات إلكترونية، وتكتيكات الطائرات المسيّرة، ونشر أدلة صناعة المتفجرات. وعلى الرغم من أن معظم المتطرفين لا يملكون مهارات برمجية متقدمة، إلا أن سهولة الوصول إلى الأدوات التوليدية قد تُسهم في خفض عتبة سوء الاستخدام.
في المقابل، يسلّط التقرير الضوء على إمكانيات واعدة يمكن توظيف الذكاء الاصطناعي فيها لخدمة جهود مكافحة التطرف. من بينها رصد مؤشرات التطرّف المبكر من خلال تحليل سلوك المستخدمين على الإنترنت، واستخدام روبوتات المحادثة لأغراض التوعية والإحالة الأولية نحو برامج فك الارتباط، وتحسين عمليات مراقبة المحتوى باستخدام تقنيات التعلم الآلي ومعالجة اللغة الطبيعية لاكتشاف خطابات الكراهية والدعاية المتطرفة.
كما يمكن للذكاء الاصطناعي أن يقدّم دعمًا قابلًا للتوسّع لمنظمات المجتمع المدني التي تفتقر إلى الموارد، لا سيما تلك العاملة في مجال الوقاية. ومن الاستخدامات المقترحة كذلك توجيه الأفراد المعرّضين للخطر نحو محتوى بديل إيجابي أو موارد داعمة. ومع ذلك، يشدّد الخبراء على ضرورة الإشراف البشري المستمر، محذّرين من أن النماذج التوليدية يمكن "اختراقها" بسهولة إذا لم تكن محاطة بضوابط أخلاقية صارمة.
ويناقش التقرير أيضًا مجموعة من التحديات الجوهرية. أولها أن أنظمة الذكاء الاصطناعي كثيرًا ما تعيد إنتاج الانحيازات الاجتماعية الموجودة في بيانات التدريب، ما قد يؤدي إلى نتائج غير عادلة، لا سيما بحق الفئات المهمّشة. كما أن اللغات والثقافات غير الغربية غالبًا ما تكون مستبعدة أو غير مدعومة بما فيه الكفاية ضمن هذه الأنظمة.
ويُثير التقرير أيضًا مسألة غياب الشفافية في كيفية تطوير وتطبيق هذه النماذج، إذ تعتمد العديد من الشركات التقنية على أنظمة غير واضحة أو تلجأ إلى التعاقد الخارجي في عمليات الإشراف، ما يصعّب من فرض معايير أخلاقية واضحة أو مساءلة فعّالة.
وتشمل التحديات الأخرى مخاطر انتهاك الخصوصية المرتبطة باستخدام الذكاء الاصطناعي في تطبيقات المراقبة، والهواجس البيئية الناتجة عن استهلاكه العالي للطاقة، فضلًا عن تفاقم الفجوة الرقمية، خاصة فيما يتعلق بفهم الذكاء الاصطناعي في المناطق الريفية والمهمّشة. ومع ذلك، يرى بعض الخبراء أن الذكاء الاصطناعي قد يسهم أيضًا في سد فجوات المعرفة، خصوصًا من خلال تحسين أدوات الترجمة لخدمة المجتمعات اللغوية غير المُمثّلة بالشكل الكافي.
ومن أجل المضي قدمًا، يدعو التقرير إلى تطوير الذكاء الاصطناعي بأسلوب أخلاقي وشامل، وتعزيز التعاون بين مختلف القطاعات، وتوسيع نطاق البحوث. كما يُوصي بضرورة إبقاء الإنسان في دائرة اتخاذ القرار، ودمج الذكاء الاصطناعي في حملات التوعية الرقمية، ودعم منظمات المجتمع المدني لتمكينها من استخدام هذه الأدوات بفعالية.
ويختتم التقرير بالتأكيد على أن الذكاء الاصطناعي التوليدي يحمل إمكانات غير مسبوقة في مجال الوقاية من العنف، لكنه يتطلب إدارة حذرة، وشفافية كاملة، والتزامًا راسخًا بحقوق الإنسان.




