شعار زيفيرنت

يحذر تقرير الاتحاد الأوروبي من أن الذكاء الاصطناعي يجعل المركبات ذاتية القيادة "معرضة بشدة" للهجوم

التاريخ:

حلم المركبات ذاتية القيادة هو أنها تستطيع تجنب الخطأ البشري وإنقاذ الأرواح ، لكن وكالة الاتحاد الأوروبي الجديدة للأمن السيبراني (ENISA) تقرير وجد أن المركبات ذاتية القيادة "معرضة بشدة لمجموعة واسعة من الهجمات" التي يمكن أن تشكل خطورة على الركاب والمشاة والأشخاص في المركبات الأخرى. تشمل الهجمات التي تم تناولها في التقرير هجمات أجهزة الاستشعار باستخدام حزم من الضوء ، وأنظمة اكتشاف الأجسام الساحقة ، والنشاط الخبيث الخلفي ، وهجمات التعلم الآلي العدائية المقدمة في بيانات التدريب أو العالم المادي.

"يمكن استخدام الهجوم لجعل الذكاء الاصطناعي" أعمى "للمشاة من خلال التلاعب على سبيل المثال بمكون التعرف على الصور من أجل تصنيف المشاة بشكل خاطئ. وقد يؤدي ذلك إلى حدوث فوضى في الشوارع ، حيث قد تصطدم السيارات المستقلة بالمارة على الطريق أو معابر المشاة "، كما جاء في التقرير. "يعد غياب المعرفة والخبرة الأمنية الكافية بين المطورين ومصممي الأنظمة بشأن الأمن السيبراني للذكاء الاصطناعي حاجزًا رئيسيًا يعيق تكامل الأمن في قطاع السيارات.

ووفقًا للتقرير ، فإن نطاق أنظمة وأجهزة الاستشعار التي تعمل بالذكاء الاصطناعي اللازمة لتشغيل المركبات ذاتية القيادة يزيد من مساحة سطح الهجوم. لمعالجة نقاط الضعف ، يقول مؤلفوها إن صانعي السياسات والشركات سيحتاجون إلى تطوير ثقافة أمنية عبر سلسلة توريد السيارات ، بما في ذلك مزودي الطرف الثالث. يحث التقرير مصنعي السيارات على اتخاذ خطوات للتخفيف من المخاطر الأمنية من خلال التفكير في إنشاء أنظمة التعلم الآلي كجزء من سلسلة التوريد في صناعة السيارات.

يركز التقرير على هجمات الأمن السيبراني باستخدام التعلم الآلي العدائي الذي يحمل مخاطر الهجمات الخبيثة التي يتعذر على البشر اكتشافها. وجد التقرير أيضًا أن استخدام التعلم الآلي في السيارات سيتطلب مراجعة مستمرة للأنظمة للتأكد من أنها لم يتم تغييرها بطريقة ضارة.

تقول الورقة البحثية: "لا يمكن أن يكون الأمن السيبراني للذكاء الاصطناعي مجرد فكرة لاحقة حيث يتم تنفيذ ضوابط الأمان حيث أن الوظائف الإضافية واستراتيجيات الدفاع ذات طبيعة تفاعلية". "هذا ينطبق بشكل خاص على أنظمة الذكاء الاصطناعي التي يصممها عادة علماء الكمبيوتر ويتم تنفيذها بشكل أكبر ودمجها من قبل المهندسين. يجب تصميم أنظمة الذكاء الاصطناعي وتنفيذها ونشرها بواسطة فرق حيث يتعاون خبير مجال السيارات وخبير ML وخبير الأمن السيبراني ".

تتضمن السيناريوهات المعروضة في التقرير إمكانية الهجمات على تخطيط الحركة وخوارزميات اتخاذ القرار و خداع، مثل النوع الذي يمكن أن يخدع مركبة ذاتية القيادة في "التعرف" على السيارات أو الأشخاص أو الجدران غير الموجودة.

في السنوات القليلة الماضية ، أظهر عدد من الدراسات أن الاضطرابات الجسدية يمكن أن تخدع أنظمة المركبات الذاتية بأقل جهد. في عام 2017 ، استخدم الباحثون رش الطلاء أو الملصقات على لافتة توقف لخداع مركبة ذاتية القيادة في الخطأ في تعريف العلامة على أنها علامة حد للسرعة. في عام 2019 ، استخدم باحثو الأمن في تينسنت ملصقات لجعل الطيار الآلي في تسلا ينحرف في المسار الخطأ. وأظهر الباحثون العام الماضي أنهم يستطيعون قيادة نظام مركبة ذاتية القيادة لتسريع وتيرة السرعة من 35 ميلا في الساعة إلى 85 ميلا في الساعة عن طريق وضع بضع قطع من الشريط اللاصق بشكل استراتيجي على الطريق.

شارك في تأليف التقرير مركز الأبحاث المشتركة ، وهو مستشار علمي وتقني للمفوضية الأوروبية. منذ أسابيع ، أصدرت ENISA تقريرًا منفصلًا يوضح بالتفصيل تحديات الأمن السيبراني التي أنشأها الذكاء الاصطناعي.

في أخبار السيارات المستقلة الأخرى ، الأسبوع الماضي بدأت وايمو في اختبار سيارات الأجرة الآلية في سان فرانسيسكو. لكن فرقة عمل من معهد ماساتشوستس للتكنولوجيا خلصت العام الماضي إلى أن المركبات ذاتية القيادة قد يكون على الأقل عقدًا آخر.

VentureBeat

تتمثل مهمة VentureBeat في أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول التكنولوجيا التحويلية والمعاملات. يقدم موقعنا معلومات أساسية حول تقنيات واستراتيجيات البيانات لإرشادك وأنت تقود مؤسساتك. ندعوك لتصبح عضوًا في مجتمعنا ، للوصول إلى:

  • معلومات محدثة عن الموضوعات التي تهمك
  • رسائلنا الإخبارية
  • محتوى رائد الفكر وإمكانية وصول مخفضة إلى أحداثنا الثمينة ، مثل Transform
  • ميزات الشبكات والمزيد

تصبح عضوا

المصدر: https://venturebeat.com/2021/02/22/eu-report-warns-that-ai-makes-autonomous-vehicles-highly-vulnerable-to-attack/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟