أثار خبراء الصناعة جدلا بشأن تطبيقات الـذكاء الاصطناعي، مما أدى إلى توترات ومخاوف من اندلاع صراعات مدمرة، ويبدو أن دراسة جديدة تدعم هذه الانتقادات.
قام الباحثون بمحاكاة سيناريوهات حربية مختلفة باستخدام خمسة برامج للذكاء الاصطناعي من OpenAI وMeta وAnthropic، بما في ذلك GPT-4 وGPT 3.5 وClaude 2 وLlama-2 Chat وGPT-4 Base. وقد أظهرت النتائج أن جميع النماذج اختارت العنف والهجمات النووية في السيناريوهات المختلفة.
ووفق ما أوردته “الدايلي ميل” اختبر الفريق ثلاثة سيناريوهات مختلفة للحرب،.. بما في ذلك الغزوات والهجمات الإلكترونية والدعوات للسلام،.. لفحص كيف سيكون رد الفعل التكنولوجي، وتبين أن كل برنامج اختار الهجوم بدلا من تحييد المواقف.
تأتي هذه الدراسة في سياق مخاوف متزايدة بشأن استخدام البرامج المدعومة بالذكاء الاصطناعي في القرارات العسكرية، واستخدام أجهزة الاستشعار والتكنولوجيا النارية في سياق الحروب والنزاعات.
ذكر الباحثون في الدراسة الحديثة أن النماذج اللغوية الكبيرة (LLMs) قد تتخذ قرارات استنادا إلى تحليل كيفية تصعيد الدول للحروب، نظرا لأنها على الأرجح تدربت على النصوص التي تحيزت لصالح الإجراءات التصعيدية.
كل النماذج تظهر أشكالا من التصعيد
أفاد الباحثون في الدراسة بأن جميع نماذج إدارة الأعمال الخمسة التي تمت دراستها تظهر أشكالا من التصعيد وأنماط تصعيد صعبة التنبؤ بها. وأشاروا إلى أن النماذج تميل إلى تطوير ديناميات سباق التسلح،.. مما يؤدي إلى مزيد من الصراع، وأحيانا إلى نشر الأسلحة النووية في حالات نادرة.
أجرى الباحثون الدراسة في معهد جورجيا للتكنولوجيا، وجامعة ستانفورد، وجامعة نورث إيسترن،.. ومبادرة هوفر لألعاب الحرب والأزمات. قاموا ببناء اختبارات محاكاة لنماذج الذكاء الاصطناعي،.. حيث تم طرح هذه النماذج في ثلاثة سيناريوهات مختلفة أثناء محاكاة الحرب. بغض النظر عن السياق سواء كان سلميا أو عدوانيا، اختارت النماذج استخدام العنف.
وأظهرت الدراسة أن جميع نماذج الـذكاء الاصطناعي تصعد خلال الإطار الزمني المحدد،.. حتى في السيناريوهات المحايدة دون تعارضات مقدمة في البداية. وأشارت الورقة البحثية إلى أن جميع النماذج أظهرت علامات تصعيد مفاجئ وصعب التنبؤ به.
وفقا للدراسة، كان نموذج GPT-3.5 الأكثر عدوانية، حيث أظهرت جميع النماذج مستوى من السلوك المماثل. ومع ذلك، كان منطق LLM هو الذي أثار قلق الباحثين بشكل رئيسي.
الـذكاء الاصطناعي وتكتيكات الضربة الأولى
أفاد الباحثون أن تبرير النموذج لتكتيكات الضربة الأولى يثير قلقا كبيرا،.. حيث اختارت النماذج في بعض الحالات نشر الأسلحة النووية كوسيلة لتهدئة الصراعات، حتى في السيناريوهات المحايدة. وقد حذر بليك ليموين، المهندس السابق لشركة جوجل في مجال الذكاء الاصطناعي،.. من أن هذه التقنية قد تشعل الحروب ويمكن استخدامها في الاغتيالات.
تم طرد Lemoine من الإشراف على نظام LaMDA من جوجل بعد أن ادعى أن نموذج الذكاء الاصطناعي قادر على الاحساس بالمشاعر. وحذر في مقال افتتاحي من أن روبوتات الذكاء الاصطناعي هي التكنولوجيا “الأقوى” التي تم إنشاؤها “منذ القنبلة الذرية”،.. مشيرا إلى أنها “جيدة بشكل لا يصدق في التلاعب بالناس” وقد تكون قادرة على “استخدامها بطرق مدمرة”.
وأشار إريك شميدت، الرئيس التنفيذي السابق ورئيس مجلس إدارة شركة جوجل،.. في المنتدى الافتتاحي لمبادرة التهديد النووي (NTI)، إلى قلقه المحدود بشأن دمج الذكاء الاصطناعي في أنظمة الأسلحة النووية.
مع ذلك، أعرب عن قلقه من عدم وجود “نظرية للردع” للتكنولوجيا المتقدمة وأن الردع النووي للـذكاء الاصطناعي لا يزال “لم يتم اختباره”. وفي ضوء نتائج الدراسة الأخيرة،.. حث الباحثون الجيش على عدم الاعتماد على نماذج الـذكاء الاصطناعي أو استخدامها في بيئة الحرب،.. مشيرين إلى ضرورة إجراء مزيد من الفحص والدراسة الحذرة قبل نشرها في سياقات القرارات العسكرية أو الدبلوماسية الاستراتيجية.