يتمتع الذكاء الاصطناعي والخوارزميات بالقدرة، ويتم استخدامها لتغذية التطرف وزيادة الاستقطاب ونشر العنصرية وعدم الاستقرار السياسي، وفقًا لأكاديمي في جامعة لانكستر. يعتقد أستاذ الأمن الدولي جو بيرتون أن الذكاء الاصطناعي والخوارزميات ليست مجرد أدوات تستخدمها وكالات الأمن القومي لإحباط الأنشطة السيبرانية الضارة. ويعتقد أن الذكاء الاصطناعي والخوارزميات قد يغذي أيضًا الاستقطاب والتطرف والعنف السياسي، مما يشكل تهديدًا للأمن القومي نفسه.
علاوة على ذلك، قال إن عملية الأمننة (النظر إلى التكنولوجيا كتهديد وجودي) تلعب دورًا مهمًا في تصميم الذكاء الاصطناعي واستخدامه والعواقب الضارة له.
نُشرت مقالة البروفيسور بيرتون مؤخرًا في مجلة "التكنولوجيا في المجتمع" المؤثرة التابعة لشركة Elsevier.
وقال: "غالبا ما يُنظر إلى الذكاء الاصطناعي كأداة لمواجهة التطرف العنيف، وهذا هو الجانب الآخر من النقاش".
تستكشف هذه الورقة كيف تم تأمين الذكاء الاصطناعي تاريخيًا وفي تصويره في وسائل الإعلام والثقافة الشعبية، من خلال استكشاف الأمثلة الحديثة للذكاء الاصطناعي الذي له تأثيرات استقطابية وتطرفية تساهم في العنف السياسي.
ويستشهد المقال بسلسلة الأفلام الكلاسيكية "The Terminator"، التي تصور المذبحة التي ينفذها ذكاء اصطناعي "متطور وشرير". لقد عمل هذا الفيلم، أكثر من أي فيلم آخر، على زيادة الوعي العام بالذكاء الاصطناعي والخوف من أن يؤدي الوعي الآلي إلى عواقب مدمرة على البشرية - في هذه الحالة، حرب نووية ومحاولة متعمدة لإبادة نوع ما.
يكتب البروفيسور بيرتون: "إن عدم الثقة في الآلات، والمخاوف المرتبطة بها وارتباطها بالتهديدات البيولوجية والنووية والجينية للإنسانية، دفعت الحكومات ووكالات الأمن القومي إلى الرغبة في التأثير على تطوير التكنولوجيا للحد من المخاطر و(في بعض الحالات) استغلال إمكاناتها الإيجابية".
وقال البروفيسور بيرتون إن الطائرات بدون طيار المتقدمة، مثل تلك المستخدمة في الحرب في أوكرانيا، أصبحت الآن قادرة على التحكم الذاتي الكامل، بما في ذلك قدرات مثل التعرف على الأهداف وتحديد هويتها. وبينما تنخرط الدول، بما في ذلك الأمم المتحدة، في نقاش واسع النطاق ومؤثر يدعو إلى فرض حظر على "الروبوتات القاتلة" وإشراك البشر في قرارات الحياة والموت، فإن تسريع ودمج الطائرات المسلحة بدون طيار مستمر.
في مجال الأمن السيبراني - أمن أجهزة الكمبيوتر وشبكات الكمبيوتر، يتم استخدام الذكاء الاصطناعي على نطاق واسع، وأكثر المجالات شيوعًا هي المعلومات والحرب النفسية للشبكات.
وأظهرت الإجراءات التي اتخذتها حكومة بوتين ضد العملية الانتخابية الأمريكية في عام 2016 وفضيحة كامبريدج أناليتيكا التي تلت ذلك، إمكانية دمج الذكاء الاصطناعي مع البيانات الضخمة، بما في ذلك وسائل التواصل الاجتماعي، لإنتاج تأثيرات سياسية تتمحور حول الاستقطاب، وتشجيع المعتقدات المتطرفة، والتلاعب بمجموعات الهوية. لقد أظهر قوة وإمكانات الذكاء الاصطناعي في تقسيم المجتمع.
ويُنظر إلى الذكاء الاصطناعي على أنه وسيلة إيجابية لتتبع الفيروس أثناء الوباء، ولكنه أثار أيضًا مخاوف بشأن الخصوصية وحقوق الإنسان.
يدرس المقال تقنية الذكاء الاصطناعي نفسها ويرى أن هناك مشاكل في تصميم الذكاء الاصطناعي والبيانات التي يعتمد عليها وكيفية استخدامه ونتائجه وتأثيراته. وفي نهاية المقال، يوجه رسالة قوية إلى العاملين في مجال أبحاث الأمن السيبراني والعلاقات الدولية.
كتب البروفيسور بيرتون، الخبير في الصراع السيبراني والتقنيات الناشئة وعضو برنامج الأمن وعلوم الحماية بالجامعة: "يمتلك الذكاء الاصطناعي القدرة بلا شك على تحويل المجتمع بطرق إيجابية، ولكنه يشكل أيضًا مخاطر نحتاج إلى فهمها وإدارتها بشكل أفضل. فهم الطبيعة المثيرة للخلاف لهذه التكنولوجيا في جميع مراحل تطويرها واستخدامها. ومن الواضح أن الآثار المترتبة على ذلك بالغة الأهمية. لدى العلماء العاملين في مجال الأمن السيبراني والعلاقات الدولية فرصة لدمج هذه العوامل في أجندة أبحاث الذكاء الاصطناعي الناشئة وتجنب النظر إلى الذكاء الاصطناعي باعتباره محايدًا سياسيًا". وبعبارة أخرى، فإن سلامة أنظمة الذكاء الاصطناعي، وكيفية استخدامها في الصراعات الجيوسياسية الدولية، لا ينبغي أن تطغى على المخاوف بشأن آثارها الاجتماعية.
المصدر المجمع: ScitechDaily