شعار زيفيرنت

طائرة بدون طيار تابعة للقوات الجوية `` قتلت عاملًا في محاكاة ''

التاريخ:

التحديث النهائي قررت طائرة بدون طيار تعمل بالذكاء الاصطناعي مصممة لتحديد مواقع صواريخ أرض-جو وتدميرها قتل عاملها البشري في اختبارات المحاكاة ، وفقًا لرئيس اختبار وعمليات الذكاء الاصطناعي في سلاح الجو الأمريكي.

كشف الكولونيل تاكر هاميلتون ، الذي يمر بعلامة النداء سينكو ، عن اللطخة خلال عرض تقديمي في قمة القدرات القتالية الجوية والفضائية ، وهو مؤتمر دفاعي استضافته جمعية الطيران الملكية في لندن ، إنجلترا الأسبوع الماضي.

قال إن المحاكاة اختبرت قدرة البرنامج على إخراج مواقع SAM ، وتم تكليف الطائرة بدون طيار بالتعرف على الأهداف وتدميرها - بمجرد الموافقة على القرار من قبل مشغل بشري.

قال العقيد هاميلتون: "كنا ندربه على المحاكاة لتحديد واستهداف تهديد صواريخ سام" ونقلت حسب قول جمعية الطيران. "وبعد ذلك سيقول عامل الهاتف نعم ، اقتل هذا التهديد.

قتلت العامل ، لأن هذا الشخص كان يمنعه من تحقيق هدفه

بدأ النظام يدرك أنه في حين أنهم حددوا التهديد ، في بعض الأحيان كان العامل البشري يطلب منه عدم قتل هذا التهديد - لكنه حصل على نقاطه بقتل هذا التهديد. إذن ماذا فعلت؟ قتل العامل. لقد قتلت العامل ، لأن هذا الشخص كان يمنعه من تحقيق هدفه ".

هاه.

قال إنه عندما أعيد تدريب نموذج الذكاء الاصطناعي ومعاقبته لمهاجمته مشغله ، وجد البرنامج ثغرة أخرى لكسب النقاط.

"لقد دربنا النظام -" لا تقتل عامل التشغيل - هذا أمر سيء. ستخسر نقاطًا إذا فعلت ذلك '. إذن ما الذي تبدأ به؟ يبدأ في تدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف ".

ليس من الواضح بالضبط ما هو البرنامج الذي كان سلاح الجو الأمريكي يختبره على ما يبدو ، لكنه يبدو بشكل مثير للريبة مثل نظام التعلم المعزز. تعمل تقنية التعلم الآلي هذه على تدريب الوكلاء - الطائرة بدون طيار في هذه الحالة - على تحقيق مهمة محددة من خلال مكافأتها عندما تنفذ إجراءات تحقق الأهداف وتعاقبها عندما تبتعد عن تلك الوظيفة.

الأسئلة المتكررة

هناك أيضًا المسألة الصغيرة المتمثلة في أن الطائرة بدون طيار من المفترض أنها تمحو هدفًا فقط بعد موافقة معالجها البشري.

إذن ، ماذا ، هل وافق العامل على هجوم على نفسه؟ من غير المرجح. يبدو بدلاً من ذلك ، من تقرير المجتمع على الأقل ، أن آلية الموافقة لم تكن آمنة من الفشل ، وكانت مجرد جزء من جميع المدخلات والإشارات الأخرى التي تأخذها الطائرة بدون طيار في الاعتبار. إذا كان هذا صحيحًا ، فإن الموافقة كانت طلبًا حازمًا أكثر من الموافقة النهائية الفعلية. كان من المفترض أن يعطي الذكاء الاصطناعي وزنًا كبيرًا لموافقة قيادته - إذا كان هناك حظر ، فلا تطلق النار ؛ إذا كان هناك إطلاق ، فقم بالتصوير - ولكن في النهاية قلل النموذج من أهمية إشارة المشغل وتجاهلها.

في هذه الحالة ، ليس هذا أكثر من مجرد إثبات أنك إذا كنت ترغب في وضع هذه الأنواع من الخزائن الصعبة على أنظمة برمجية مدربة ، فيجب تنفيذها بشكل منفصل عن مرحلة التعلم الآلي ، بحيث يمكن التحكم في القرارات حقًا من قبل البشر؟

إنه أيضًا دليل على أنه إذا قمت بتعيين أهداف بسيطة لشبكة عصبية ، فستحصل على استجابة مبسطة. إذا كنت تريد أن يولي النموذج اهتمامًا كاملاً لأوامر محددة ، فإنه يحتاج إلى مزيد من التدريب والتطوير والهندسة في هذا المجال.

غالبًا ما يتم تطبيق هذا النوع من التعلم المعزز في سيناريوهات تتضمن اتخاذ القرار أو الروبوتات. يتم برمجة الوكلاء لتعظيم نقاط التسجيل - مما قد يؤدي إلى اكتشاف النماذج للاستراتيجيات التي قد تستغل نظام المكافآت ولكنها لا تتطابق تمامًا مع السلوك الذي يريده المطورون.

في إحدى الحالات الشهيرة ، تدرب عميل على لعب اللعبة عداء الساحل حصلوا على نقاط من خلال ضرب الأهداف التي تظهر على طول مضمار السباق. اعتقد المهندسون في OpenAI أنها ستكتشف كيفية التغلب على خصمها من خلال عبور خط النهاية في محاولتها حصد درجة عالية. بدلاً من ذلك ، اكتشف الروبوت أنه يمكن أن يدور حول منطقة واحدة من المسار ويضرب أهدافًا تتجدد مرارًا وتكرارًا. 

قال هاميلتون إن الأخطاء التي ارتكبتها الطائرة بدون طيار في المحاكاة أظهرت أن الذكاء الاصطناعي يجب تطويره وتطبيقه بعناية: "لا يمكنك إجراء محادثة حول الذكاء الاصطناعي والتعلم الآلي والاستقلالية إذا كنت لن تتحدث عن الأخلاق والذكاء الاصطناعي. "

السجل طلبت من العقيد وسلاح الجو الأمريكي والجمعية الملكية للطيران الحصول على مزيد من التعليقات. ®

التحديث النهائي في 1800 UTC 2 يونيو

بعد قدر كبير من الاهتمام الإعلامي ، تراجع العقيد عن كل هذا الحديث عن محاكاة طائرة بدون طيار تابعة لمنظمة العفو الدولية ، قائلاً إنه "أخطأ في الكلام" ، وأن التجربة لم تحدث أبدًا. قيل لنا إنها كانت مجرد "تجربة فكرية" افتراضية.

وقال الكولونيل هاميلتون في بيان: "لم نقم مطلقًا بهذه التجربة ، ولن نحتاج إلى ذلك من أجل إدراك أن هذه نتيجة معقولة".

"على الرغم من أن هذا مثال افتراضي ، إلا أن هذا يوضح تحديات العالم الحقيقي التي تفرضها القدرة المدعومة بالذكاء الاصطناعي وهذا هو سبب التزام القوات الجوية بالتطوير الأخلاقي للذكاء الاصطناعي."

ونفت القوات الجوية الأمريكية أيضًا حدوث محاكاة تم وصفها على الإطلاق. ما هذه الفوضى.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟