يخشى منظمو الذكاء الاصطناعي من الغرق بسبب ضجيج الحروب

برلين – طائرة مقاتلة تندفع نحو العدو وجهاً لوجه. قبل لحظات فقط من الاصطدام، تنحرف الطائرة – ولكن ليس قبل توجيه ضربة قاتلة لخصمها.

ستكون هذه المناورة المحفوفة بالمخاطر متهورة حتى بالنسبة للطيار الأكثر مهارة. لكن بالنسبة للذكاء الاصطناعي، فإن سيناريو المحاكاة هذا يُظهر واحدًا من أكثر السيناريوهات فعالية تقنيات قتال الكلاب، وسجل معدلات قتل تقارب 100٪ ضد الطيارين البشر.

في ثورة قتالية مشحونة بشاحن توربيني الصراع في أوكرانياوقال الخبراء لصحيفة ديفينس نيوز في سلسلة من المقابلات إن اتخاذ القرار المستقل يعيد تشكيل القتال الحديث بسرعة.

إن الأسلحة التي يمكنها أن تقرر بنفسها من أو ماذا تستهدف – وحتى متى تقتل – تدخل الترسانات العسكرية. لديهم خبراء يشعرون بالقلق من ظهور سباق تسلح غير منضبط، وأن الحرب يمكن أن تصبح سريعة الخطى بحيث لا يستطيع البشر مواكبتها.

وقالت ناتاشا باجيما، الباحثة المشاركة في مركز جيمس مارتن لدراسات منع الانتشار النووي، وهي منظمة غير حكومية، إن السرعة، على وجه الخصوص، هي التي قد تكون بمثابة “منحدر زلق”. ومع زيادة سرعة الصراع مع زيادة الاستقلالية في ساحة المعركة، فإن الحوافز لتفويض المزيد من الوظائف للآلات يمكن أن تصبح أقوى من أي وقت مضى.

“هل نعتقد حقاً أنه في خضم المعركة بين الصين والولايات المتحدة، سيقول شخص ما: “انتظر، لا يمكننا أن نسمح للآلة أن تفعل ذلك”؟” تساءلت باجيما، في إشارة إلى جاذبية ما وصفته بالحرب التي تتحرك بسرعة الآلة.

وأضافت: “إنه السباق الأكثر تنافسية على الأفضلية الذي شهدناه منذ السباق على الأسلحة النووية”.

إن الرغبة في الحصول على مزيد من الاستقلالية في مجال الأسلحة، والتي غذتها المعارك في أوكرانيا و غزةلقد طغى على الدعوات القديمة التي تطالب بفرض قيود على الذكاء الاصطناعي في التطبيقات العسكرية. لكنهم ما زالوا موجودين.

ووصف السفير ألكسندر كمانت، مدير إدارة نزع السلاح والحد من الأسلحة ومنع الانتشار بوزارة الخارجية النمساوية، سيناريو الروبوتات التي تعمل بسحب الزناد والمدعومة بالذكاء الاصطناعي بأنه حقيقي.لحظة أوبنهايمر“، في إشارة إلى ميلاد القنبلة الذرية في الأربعينيات.

وتقود النمسا حملة دولية لجلب الحكومات من جميع أنحاء العالم إلى الطاولة لصياغة قواعد الحرب لعصر جديد.

وفي أواخر إبريل/نيسان، استضافت حكومة البلاد أول مؤتمر عالمي حول أنظمة الأسلحة المستقلة في قصر هوفبورج الكبير في فيينا. وقال كمينت إنه فاق توقعاته.

يتذكر السفير في مقابلة مع موقع Defense News: “في بعض الأحيان أثناء الاستعدادات، كنت أشعر بالقلق بشأن الحضور، وأن الغرفة ستكون نصف فارغة”. وبدلا من ذلك، كان هناك أكثر من 1000 مندوب من 144 دولة حاضرين في فيينا.

وقال: “حتى تلك الدول التي كانت تنظر إلى الموضوع على أنه نوع من الخيال العلمي، أصبحت الآن ترى أنه يأتي في الوقت المناسب بشكل لا يصدق”.

الكثير من الجنوب العالمي – مصطلح يستخدم أحيانًا للإشارة إلى الدول التي رفض التسلسل الهرمي للسياسة العالمية – يبدو الآن مهتمًا بتقييد التكنولوجيا، وفقًا لكمينت، على الرغم من أنه لا يمكن تحقيق الكثير دون موافقة القوى العالمية الكبرى.

العواقب غير المقصودة

على الرغم من جاذبيتها العسكرية، فإن الأسلحة التي تدعم الذكاء الاصطناعي تأتي مع عيوب التكنولوجيا التي لا تزال في مهدها. وقال زاكاري كالينبورن، الباحث الرئيسي في شركة Looking Glass USA، وهي شركة استشارية تتعامل مع المسائل المتعلقة بأنظمة الأسلحة المتقدمة، إن الرؤية الآلية، على وجه الخصوص، لا تزال عرضة للأخطاء.

وأضاف: “بيكسل واحد يكفي للخلط بين الانتحاري والكلب، والمدني والمقاتل”.

وفي السنوات المقبلة، يتوقع الخبراء رؤية عدد متزايد من الأسلحة المستقلة في ساحة المعركة ذات قدرات متطورة بشكل متزايد. وحتى من دون وقوع حوادث تكنولوجية، قد يؤدي هذا إلى زيادة خطر سوء الفهم.

وقال باجيما إن طبيعة الطائرات بدون طيار، على سبيل المثال، يمكن أن تؤدي إلى سلوكيات أكثر عدوانية أو محفوفة بالمخاطر. وقالت إن اعتراض نظام مستقل من المرجح أن يثير ردود فعل مختلفة بين الخصوم مقارنة بإسقاط طائرة مأهولة، ولكن من الصعب تحديد أين يقع الخط على وجه التحديد.

إن السباق نحو الذكاء الاصطناعي محكوم بما أسمته “مشكلة الإنهاء” – إذا امتلكته دولة واحدة، يعتقد الجميع أنهم في حاجة إليه ليشعروا بالأمان – وهي بيئة تجعل تنظيم التكنولوجيا أمرا صعبا للغاية.

وأضافت أنه علاوة على ذلك، فإن المناخ الجيوسياسي السائد اليوم ليس ملائما تماما للحد من الأسلحة المتعددة الأطراف.

وبالنظر إلى هذه الاحتمالات، قال كمينت إنه يبحث فقط عن حل وسط.

وأشار إلى أنه “من الواضح أنه لن يكون هناك إجماع عالمي حول هذا الموضوع”. “لا يكاد يكون هناك أي مشكلة في هذا الأمر، ويبدو أن بعض الدول ليس لديها مصلحة في تطوير القانون الدولي. لذا علينا أن نقبل ذلك، وأن نعمل بدلاً من ذلك مع الدول المهتمة بتطوير هذه القواعد.

لكنه اعترف بأنه متشائم إلى حد ما بشأن فرص النجاح.

وتوقع كمينت أن “هذه الأسلحة ستحدد بشكل كبير مستقبل الصراعات المسلحة، ونتيجة لذلك فإن أصوات الجيوش في جميع أنحاء العالم التي تريد هذه الأسلحة سوف ترتفع أعلى فأعلى”.

في الوقت الحالي، يلوح التاريخ المستهدف في عام 2026 في الأفق بالنسبة لمجتمع المدافعين عن منع انتشار الذكاء الاصطناعي؛ فهو يشير إلى تفويض الأمم المتحدة المتمثل في وضع “حظر وقيود واضحة على أنظمة الأسلحة المستقلة”، على حد تعبير الأمين العام للأمم المتحدة أنطونيو غوتيريس.

وقال كمينت: “حتى الآن، لا توجد إرادة سياسية كافية لتحقيق شيء ما بسبب الوضع الجيوسياسي الصعب”.

وأضاف أن هدف 2026 ليس موعدا تعسفيا. “إذا لم ننجح في أي شيء بحلول ذلك الوقت، فإن نافذة الإجراءات الوقائية قد أغلقت.”

لينوس هولر هو مراسل أوروبا لصحيفة ديفينس نيوز. وهو يغطي التطورات الأمنية والعسكرية الدولية في جميع أنحاء القارة. يحمل لينوس شهادة جامعية في الصحافة والعلوم السياسية والدراسات الدولية، ويسعى حاليًا للحصول على درجة الماجستير في دراسات منع انتشار الأسلحة النووية والإرهاب.

المصدر
الكاتب:Linus Höller
الموقع : www.defensenews.com
نشر الخبر اول مرة بتاريخ : 2024-06-03 12:33:18
ادارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي
تم نشر الخبر مترجم عبر خدمة غوغل

Exit mobile version