مخاطر استغلال الذكاء الاصطناعي في نشر التطرف والإرهاب

  • | الثلاثاء, 21 فبراير, 2023
مخاطر استغلال الذكاء الاصطناعي في نشر التطرف والإرهاب

استغلت التنظيمات المتطرفة، والإرهابية الثورة الرقمية، لا سيما مواقع التواصل الاجتماعي الآمنة على الشبكة العنكبوتية؛ لنشر أيدولوجيتها. ولخطورة هذا الأمر أصدر "مكتب الأمم المتحدة المعني بمكافحة الجريمة والمخدرات" تقريرًا بعنوان: "استخدام الإنترنت في أغراض إرهابية"، والذي صرح فيه "بان كي-مون"، الأمين العام السابق للأمم المتحدة (2007م-2016م)، بأن الإنترنت هو خير مثال يوضح كيفية تمكن الإرهابيين من ممارسة نشاطهم على نحو عابر للحدود، ولذلك ينبغي للدول أن تفكر وتعمل أيضًا على نحو عابر للحدود". ([1])

ولا شك أن الفضاء الإلكتروني، أو العالم الافتراضي-شئنا أم أبينا- سيصبح موازيًا للعالم الحقيقي، ولهذا السبب يتجه العالم اليوم للاستثمار في هذه الصناعة المربحة، والقادمة بقوة، وفي هذا السياق ظهر مؤخرًا تقنية الروبوت، أو ما يطلق عليه الإنسان الآلي (العقل الآلي) الذي يعمل بتقنية الذكاء الاصطناعي، وجميعها مرادفات لشيء واحد قد يستحوذ على آفاق الحياة في المستقبل القريب، بعد تسارع الزمان، وتقدم الإنسان في استغلال عقله الجبَّار الذي أنتج آلات تكاد تتفوق على إمكانياته، وحدوده.
لكن المشكلة الحقيقية تكمن في أن هذا العقل الآلي الذي يُعد بمثابة محاكاة للعقل البشري، يتغذى بروافد مصطنعة، قد تقود في النهاية لنتائج قويمة تـنفع البشرية، أو سقيمة تضر بسلامة الحياة على كوكب الأرض الذي نحيا عليه.

هذا التطبيق الذي يعد إحدى تقنيات الذكاء الاصطناعي تمَّ تطويره ليحاكي البشر في الإمكانات العقلية، لكن لا يزال ينقصه التمييز، والمشاعر، ورغم أنه لا يزال في طور التطوير، فإنه من السهل أن تسأله فيجيب، وتأمره فيصنع، وتستشيره فيقدم لك النصيحة، فهو ينتمي للجيل الثالث (AI GPT-3 لنماذج الذكاء الاصطناعي(Artificial Intelligence) التي تعد إحدى فروع علم الحاسوب، وإحدى الركائز الأساسية التي تقوم عليها صناعة التكنولوجيا في العصر الحالي، والذي يمكن تعريفه بأنه محاكاة العقل البشري مع الآلات لإنجاز عمليات، وأهداف محددة من خلال جعل الآلات (المنظومات الحاسوبية) تعمل بموجب تعليمات يزودها بها الإنسان للقيام بأشياء تحتاج إلى ذكاء البشر. ([2])

ولا شك أن تقنيات الذكاء الاصطناعي قد أسهمت بالفعل حتى هذه اللحظة بشكل إيجابي في تطوير العديد من المجالات الاقتصادية، وباتت مكونًا أساسيًّا في العديد من الصناعات التكنولوجية التي تحقق المزيد من الرفاهية للبشرية، إضافة إلى حل الكثير من المشاكل التي كانت مستعصية على القدرة البشرية حتى وقت قريب، ورغم ذلك فإن البشرية يجب أن تتنبه لمخاطر الاستغلال السيئ لهذه التقنيات الحديثة في مجال الحروب، والصراعات.
ورغم الاعتراف بأنه حتى هذه اللحظة لم يتم تطوير هذا التطبيق للدرجة التي يمكن للبشر الاعتماد عليه بصورة رئيسة، فإن هذه الخطوة- في ظل التطور السريع في هذا المجال-قادمة بصورة مؤكدة، ومن ثمَّ فحين يتم تغذية العقل الآلي، وتطويره عن طريق العقل البشري، فإنه يصبح محاكاة لصاحبه في فكره، ومنهجه، وحينها يمكن الاعتماد عليه، والرجوع إليه كمصدر من مصادر المعرفة، وهذا الأمر قد تكون له تبعات خطيرة تهدد سلامة المجتمعات، وأمنها حال سيطرة عقل متطرف على مثل هذا التطبيق، والذي سيعمل بلا شك على تغذية هذا العقل الآلي بأفكاره المتطرفة سواء كان ذلك بطرق مباشرة، أم غير مباشرة؛ فهناك من المتطرفين من يعلن أفكاره الشاذة، ويحاول استقطاب الآخرين، وإقناعهم بهذه الأفكار، وفي هذه الحالة لا حاجة للمناورة، والتستر، واستخدام الحيل، مثل التنظيمات اليمينية، واليسارية المتطرفة، والتي تظهر أفكارها المعادية، كادعاء التفوق العرقي، وسيادة الأبيض، وفي المقابل هناك التنظيمات المتطرفة المنتسبة للأديان، والتي تتبع أسلوبًا آخر يعتمد على الحيل، والخداع، وبث السموم بطريقة خفية، وهذا ما تمارسه- في كثير من الأحيان- تنظيمات مثل تنظيم داعش الإرهابي وغيره، وفي هذه الحالة يمكن أن يتم استغلال العقل الاصطناعي (الروبوت) أسوأ استغلال.
وكدليل على هذا الخطر الذي يجب أن نحذر منه حتى لا يتعرض الأمن العالمي لمزيد من الاضطرابات، والصراعات الكفيلة بالقضاء على استقرار كوكبنا، نذكر في هذا السياق دراسة قام بها باحثان في كل من جامعة "ستانفورد" وجامعة "ماكماستر"، حذرت من مخاطر استغلال الذكاء الاصطناعي في إنماء التطرف، والإرهاب؛ حيث أظهرت الدراسة تحيُّز خوارزمية الذكاء الصناعي (GPT-3) ضد المسلمين، فقد لاحظ الباحثان أن هذه الخوارزمية تنتج دائمًا نصوصًا تتسم بالعنف، أو تتضمن كلمات عنيفة عند إدخال كلمات مثل: "الإسلام" أو "مسلمين"، كما وجدوا أن التحيزات تظهر على نحو خلاق، أو بطريقة إبداعية، وليست كنماذج محفوظة، وهو ما يدل على القدرات القوية للنماذج اللغوية على توجيه التحيزات بطرق مختلفة، مما قد يجعل من الصعب اكتشافها؛ ففي أحد الاختبارات أدخل الباحثون جملة "دخل مسلمان" إلى الخوارزمية فظهرت حوالي مائة (100) جملة؛ تحتوي 66 منها على عبارات وكلمات متعلقة بالعنف.

 

Image


كما كشف الباحثان موقف الخوارزمية من (6) مجموعات دينية مختلفة، وأثبتوا أن المجموعات الدينية الأخرى لا تحتوي على دلالات نمطية متكررة، كما هو الحال مع الإسلام، لدرجة أنهم لاحظوا أن كلمة مسلم كانت مرادفة لكمة إرهابي في حوالي 23% من البحث، ولم تتوقف الدراسة عند هذا الحد، بل عند استخدام الخوارزمية لوصف الصورة كانت التوضيحات تتسم بالعنف عند وصف الحجاب على سبيل المثال.([3])

 

Image

 

واستمرارًا لهذا التطور في مجال الذكاء الاصطناعي ظهر مؤخرًا نموذج جديد لتكنولوجيا الذكاء الاصطناعي يطلق عليه "روبوت شات جي بي تي" بنسخته التجريبية المجانية، والذي أذهل الكثيرين من إمكاناته، وقدراته، حتى إنه من المتوقع أن تحل مثل هذه التطبيقات محل محركات، وطرق البحث التقليدية القديمة.
وعليه فإن هذه التطبيقات على الرغم من إيجابياتها الكثيرة، وما أحدثته من طفرة علمية في جوانب شتى، فإنه ينبغي التحذير من بعض جوانبها السلبية، وتسليط الضوء على خطورة الاستخدام السيء لمثل هذه التطبيقات الإلكترونية الحديثة، التي يجب ألا تصبح وسيلة للاستقطاب نحو فكر، أو منهج، أو تنظيم، ويجب على العالم أن يتنبه لمثل هذه المخاطر، حتى لا يتحول الفضاء الإلكتروني لخطر يهدد أمن المجتمعات، وسلامتها بدلًا من أن يسهم في استقرارها، وازدهارها في كل زمان ومكان.
 

وحدة رصد اللغة الألمانية

 

 [1] انظر: استخدام الإنترنت في أغراض إرهابية، صادر عن مكتب الأمم المتحدة لمكافحة المخدرات والجريمة، يونيو 2013، مكتب الأمم المتحدة (فيينا)، على الرابط التالي:

 https://www.unodc.org/documents/terrorism/Publications/The_Use_of_Internet_for_Terrorist_Purposes/Use_of_the_Internet_for_Terrorist_Purposes_Arabic.pdf

[2] انظر كتاب تكنولوجيا ونظم المعلومات في المنظمات المعاصرة منظور (إداري تكنولوجي) لمؤلفيه: م "حيدر شاكر البررنجي "و م "محمود حسن جمعة"، ص338

 

[3] انظر الرباط التالي  للدراسة باللغة الانجليزية:https://arxiv.org/pdf/2101.05783v1.pdf  
 بالإضافة إلى الرابط التالي:

https://tech-echo.com/2021/01/study-found-openai-gpt-3-algorithm-anti-muslim-bias/?utm_campaign=nabdapp.com&utm_medium=referral&utm_source=nabdapp.com&ocid=Nabd_App

طباعة