شعار زيفيرنت

تنطبق مشكلة الترولي بلا شك على السيارات ذاتية التحكم 

التاريخ:

يقول لانس إليوت إن المعضلة الأخلاقية التي تطرحها مشكلة الترولي ، وهي الاختيار بين مسارين يؤدي كل منهما إلى نتيجة رهيبة ، ستواجه السيارات ذاتية القيادة بالذكاء الاصطناعي. (مصدر الصورة: Getty Images) 

بواسطة لانس إليوت ، من الداخل منظمة العفو الدولية الاتجاهات  

تعتبر مشكلة عربة الترولي الشهيرة أو ربما سيئة السمعة واحدة من أكثر الموضوعات إثارة للجدل والقتال المباشر في مجال السيارات ذاتية القيادة بالذكاء الاصطناعي. إذا ذكرت مشكلة الترولي لأي مطّلع على الصناعة ، فمن المحتمل أن تحصل على أحد تفاعلين. إحدى الإجابات هي من أولئك الذين يعتبرون أنفسهم معلمين على دراية وسوف يستبعدون على الفور مشكلة العربة على أنها افتراضية تمامًا ومنفرجة ، وينظرون إليك بشيء من الشك كما لو كنت قد وقعت بسذاجة في نوع من الاحتيال أو الخداع. قد يقر الآخرون على مضض بأنه موضوع مثير للاهتمام للمناقشة ، وربما يستحق التفكير بجدية ، ولكن بخلاف ذلك ليس له صلة خاصة بأي أمور عملية يومية تتعلق بالسيارات ذاتية القيادة.   

أود أن أرى ما إذا كان بإمكاننا إعطاء الأمر الاعتبار الجاد والواجب المناسب. 

سيدرك القراء المتحمسون أنني غطيت هذا الموضوع في الأصل في عام 2017 ، ولكن يبدو أنه من المجدي إعطاء الموضوع بعض الهواء النقي الإضافي وإحيائه ، والقيام بذلك مع رؤى إضافية ومواءمة إلى حد ما مع تعليق أكثر قوة كرد فعل صارم على مختلف الانتشار. التقليل من أهمية مشكلة الترولي. لمقالتي السابقة ، انظر الرابط هنا: https://www.aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/ 

لجعلنا جميعًا في نفس الصفحة ، يستلزم المكان الذي نبدأ منه توضيح ما تتكون منه مشكلة العربة.   

تبين أنها تجربة فكرية محفزة أخلاقياً تعود إلى أوائل القرن العشرين. على هذا النحو ، كان الموضوع موجودًا منذ فترة طويلة وأصبح مؤخرًا مرتبطًا بشكل عام بظهور السيارات ذاتية القيادة. باختصار ، تخيل أن عربة تسير على القضبان وهناك شوكة في الأمام. إذا استمرت العربة في مسارها الحالي ، للأسف هناك شخص ما عالق على القضبان على طول الطريق ، وسوف يركضون ويقتلون. أنت تقف بجوار مفتاح يسمح لك بإعادة توجيه العربة إلى مسار السكة الحديدية المتشعبة وبالتالي تجنب قتل الشخص. 

من المفترض ، من الواضح ، أنك ستستدعي التبديل.   

ولكن هناك منعطف شنيع ، وهو أن المسار المتشعب لديه أيضًا شخص متشابك فيه ، وبتحويل العربة ، ستقتل ذلك الشخص بدلاً من ذلك. 

هذه واحدة من تلك المواقف غير المربحة. 

أيًا كان خيارك ، فإن الشخص سيُقتل. 

قد تميل إلى القول إنك لست مضطرًا لاتخاذ قرار ، وبالتالي يمكنك أن تتجنب الأمر برمته بسهولة. ليس حقًا ، نظرًا لأنك بعدم القيام بأي شيء ، فأنت "توافق" أساسًا على قتل الشخص الذي يكون في الطريق الصحيح. لا يمكنك على ما يبدو تجنب مسؤوليتك عن طريق هز كتفيك واختيار عدم القيام بأي شيء ، بدلاً من ذلك ، فأنت متشابك بشكل لا ينفصم في الموقف.   

بالنظر إلى هذا الإعداد الأولي لمشكلة الترولي باعتباره خسارة خاسرة مع وجود شخص واحد على المحك في اختيارك لأي من الخيارين ، فإنه لا يثير بشكل خاص معضلة أخلاقية نظرًا لأن كل نتيجة يتم اعتبارها كما هي.   

عادة ما يتم تغيير الأمر بطرق مختلفة لمحاولة معرفة كيفية الاستجابة لظروف أكثر تحديًا من الناحية الأخلاقية. 

على سبيل المثال ، افترض أنه يمكنك تمييز أن المسار المستقيم يحتوي على طفل ، بينما يحتوي المسار المتشعب على شخص بالغ. 

ماذا الان؟ 

حسنًا ، قد تحاول تبرير استخدام المفتاح لجعل العربة تسير على المسار مع الشخص البالغ ، وذلك وفقًا لمنطق أن الشخص البالغ قد عاش بالفعل جزءًا جوهريًا من حياته ، في حين أن الطفل لا يزال في بداية حياتهم وربما يجب أن تُمنح فرصة لوجود أطول. 

كيف يبدو لك ذلك؟ 

البعض يشتريها والبعض الآخر لا. 

قد يجادل البعض بأن كل شخص له "قيمة" معيشية متساوية وأنه من غير المناسب الحكم مسبقًا على أن الطفل يجب أن يعيش بينما يموت الشخص البالغ.   

قد يجادل البعض بأن الشخص البالغ يجب أن يكون هو الشخص الذي يبقى على قيد الحياة لأنهم أظهروا بالفعل أنه يمكنهم البقاء على قيد الحياة لفترة أطول من الطفل.   

هنا شكل آخر.   

كلاهما بالغان ، وواحد على المسار المتشعب هو أينشتاين. 

هل يغير هذا وجهة نظرك حول الطريقة التي توجه بها العربة؟ 

قد يقول البعض أن إبعاد العربة عن آينشتاين هو الخيار "الصحيح" ، حيث ينقذه ويسمح له بالعيش ويقدم حتمًا الرؤى الهائلة التي كان مقدرًا له أن يقدمها (نفترض في هذا السيناريو أنها لحظة راشد أصغر سناً -in-time ، أينشتاين).   

ليس بهذه السرعة ، كما قد يقول البعض ، ويتساءلون عما إذا كان الشخص البالغ الآخر ، الشخص الموجود مباشرة ، ربما يكون شخصًا مقدر له أن يكون عظيماً بنفس القدر أو ربما يقدم مساهمات ملحوظة أكثر في المجتمع (من يعرف؟) .   

على أي حال ، أعتقد أنه يمكنك رؤية كيف يمكن افتراض المعضلات الأخلاقية بسهولة باستخدام نموذج مشكلة الترولي.   

عادةً ما تتضمن المتغيرات الشائعة عدد الأشخاص العالقين على المسارات. على سبيل المثال ، افترض أن هناك شخصين محاصرين على المسار المستقيم ، بينما شخص واحد فقط محشور على المسار المتشعب.   

قد يقول البعض أن هذا "سهل" أجاب البديل حيث يُفترض أن الجانب الخاص بشخصين يتم تجنيبه من إنقاذ شخص واحد فقط. وبهذا المعنى ، فأنت على استعداد لاعتبار أن الحياة مضافة إلى حد ما ، وكلما زاد عددها ، كان هذا الخيار الخاص أكثر ملاءمة من الناحية الأخلاقية.   

لن يتفق الجميع مع هذا المنطق. 

على أي حال ، لقد وضعنا الآن على الطاولة هنا جوهر مشكلة الترولي. 

أدرك أن رد فعلك الأولي على الأرجح هو أنها فكرة مثيرة للاهتمام ومثيرة للتفكير ولكنها تبدو مجردة بشكل مفرط ولا تقدم أي فائدة عملية. 

يعترض البعض ويشير إلى أنهم لا يتصورون أنفسهم قادمين على الإطلاق على عربة ، وربما يجدون أنفسهم في هذا النوع من المخلل المنفرج. 

تبديل التروس.   

هرع رجل إطفاء إلى مبنى محترق. هناك رجل في المبنى يخرج من النافذة ويتصاعد من حوله دخان لاذع ويصرخ لينقذ. ماذا يجب أن يفعل رجل الإطفاء؟ 

حسنًا ، بالطبع ، نأمل أن يسعى رجل الإطفاء لإنقاذ الرجل. لكن انتظر ، هناك صوت طفل يصرخ بلا حسيب ولا رقيب عالق في غرفة نوم داخل المبنى المحترق. يجب على رجل الإطفاء أن يختار أيهما يحاول الإنقاذ ، والذي لن يكون لرجل الإطفاء الوقت لإنقاذهما. إذا اختار رجل الإطفاء إنقاذ الطفل ، فسوف يموت الرجل في النار. إذا اختار رجل الإطفاء إنقاذ الرجل ، فسوف يستسلم الطفل للنار.  

هل هذا يبدو مألوفا؟ 

النقطة المهمة هي أن هناك سيناريوهات محتملة ذات صلة بالحياة الواقعية تعرض المعلمات الأساسية والمقدمة الشاملة لمشكلة عربة الترولي.   

قم بإزالة العربة من المشكلة كما هو مذكور وإلقاء نظرة على الهيكل أو العناصر التي تدعم الظروف (لا يزال بإمكاننا الإشارة إلى الأمر على أنه مشكلة عربة الترولي من أجل الرجوع إليها ، ومع ذلك قم بإزالة العربة مع الاحتفاظ بالأساسيات الأساسية).   

لدينا هذا: 

  • هناك ظروف مؤلمة ذات طبيعة حياة أو موت (أشبه بالموت أو الموت) 
  • جميع النتائج مروعة (حتى خيار عدم القيام بأي شيء) وتؤدي إلى الوفاة 
  • الوقت قصير وهناك حاجة ملحة وفورية 
  • الخيارات محدودة للغاية ، والاختيار الإجباري مطلوب 

قد تحاول أن تجادل بأنه لا يوجد "خيار قسري" نظرًا لوجود خيار عدم القيام بأي شيء متاح دائمًا في هذه السيناريوهات ، لكننا سنفترض أن الشخص الذي يواجه المأزق على دراية بما يحدث ويدرك إنهم يتخذون قرارًا حتى لو اختاروا عدم فعل أي شيء.   

من الواضح ، إذا كان الشخص الذي يواجه الاختيار غير مدرك لعواقب عدم القيام بأي شيء ، فربما يمكن القول إنه لم يكن مدركًا لحقيقة أنه اتخذ خيارًا ضمنيًا. وبالمثل ، شخص ما يسيء الفهم قد يعتقد الموقف خطأً أنه لا يتعين عليهم اتخاذ قرار. 

افترض أن الشخص المعني يدرك تمامًا أمر عدم القيام بأي شيء ويجب عليه اختيار عدم القيام بأي شيء أو عدم القيام بأي شيء (أؤكد على هذا بسبب الجانب الذي يفكر فيه الأشخاص في بعض الأحيان في مشكلة الترولي سيحاولون الخروج من الإعداد عن طريق بالقول إن عدم فعل أي شيء هو الخيار "الصحيح" لأنهم تجنبوا اتخاذ أي قرار ؛ واختيار "لا تفعل شيئًا" يعتبر في الواقع قرارًا في هذا الإعداد). 

جانبا ، في حالة المبنى المحترق ، إذا لم يفعل رجل الإطفاء شيئًا ، فمن المفترض أن يموت كل من الرجل والطفل ، لذلك هذا نوعًا ما حالة جيدة من مشكلة الترولي كما قُدمت ، وبالتالي ، ربما يكون من الواضح أكثر أن رجل الإطفاء سيختار بالتأكيد. إنها تختلف عن مشكلة الترولي الكلاسيكية من حيث أن رجل الإطفاء لديه الفرصة للإشارة دائمًا ، لاحقًا ، إلى أن عدم القيام بأي شيء كان بالتأكيد أسوأ من الاختيار ، بغض النظر عن الخيار الواضح الذي تم اختياره في النهاية. 

نقطة أخرى ، هذا ليس بشكل خاص ما يسمى بسيناريو اختيار هوبسون ، والذي يتم تشبيهه أحيانًا بشكل مضلل بمشكلة الترولي. 

يعتمد اختيار هوبسون على قصة تاريخية لمالك حصان أخبر أولئك الذين يريدون حصانًا أنه يمكنهم اختيار الحصان الأقرب إلى باب الحظيرة أو عدم اصطحاب حصان على الإطلاق. على هذا النحو ، فإن الاتجاه الصعودي هو أخذ الحصان على النحو المعروض ، بينما الجانب السلبي هو أنك ينتهي بك الأمر دون الحصول على حصان. هذا هو سيناريو اتخاذ القرار بأسلوب خذها أو اتركها ، وبالتأكيد ليس مثل مشكلة الترولي. 

مع كل الخلفية التي تمهد الطريق ، يمكننا بعد ذلك التفكير في كيف يبدو أن هذه مشكلة تتعلق بالسيارات ذاتية القيادة.   

سيكون التركيز على السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي ، والتي تستحق الوضوح فيما يتعلق بما تعنيه هذه الصياغة. 

لإطار عملي حول السيارات ذاتية الذكاء AI ، انظر الرابط هنا: https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/ 

لماذا هذا جهد هائل ، انظر شرح هنا: https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/   

لمزيد من المعلومات حول المستويات كنوع من مقياس Richter ، انظر مناقشتي هنا: https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/ 

للحصول على جدل حول تشعب المستويات ، راجع توضيحي هنا: https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/   

دور السيارات ذاتية القيادة المستندة إلى الذكاء الاصطناعي 

السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بمفردها ولا توجد أي مساعدة بشرية أثناء مهمة القيادة. 

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة تعتبر عادةً في المستوى 2 أو المستوى 3. وتوصف السيارات التي تشارك في مهمة القيادة بأنها كونها شبه مستقلة، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية الآلية التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).   

لا توجد حتى الآن سيارة حقيقية ذاتية القيادة في المستوى 5 ، والتي لا نعرف حتى الآن ما إذا كان ذلك ممكنًا ، ولا كم من الوقت سيستغرق الوصول إلى هناك. 

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجيًا الحصول على بعض الجر من خلال إجراء تجارب على الطرق العامة الضيقة والانتقائية للغاية ، على الرغم من وجود جدل حول ما إذا كان ينبغي السماح بهذا الاختبار في حد ذاته (نحن جميعًا خنازير غينيا الحياة أو الموت في تجربة التي تجري على الطرق السريعة والممرات الفرعية ، يشير البعض).   

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فلن يختلف اعتماد هذه الأنواع من السيارات بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك ليس هناك الكثير جديد في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).   

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة. 

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.   

لماذا يتم تجنب القيادة عن بعد أو تشغيل السيارات ذاتية القيادة بشكل عام ، راجع توضيحي هنا: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/ 

لنتوخى الحذر من الأخبار المزيفة حول السيارات ذاتية القيادة ، راجع نصائحي هنا: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/ 

الآثار الأخلاقية لأنظمة القيادة بالذكاء الاصطناعي كبيرة ، انظر إشارتي هنا: https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/ 

كن على دراية بمزالق تطبيع الانحراف عندما يتعلق الأمر بالسيارات ذاتية القيادة ، إليك دعوتي للتسلح: https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/   

السيارات ذاتية القيادة ومشكلة الترولي   

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة. سيكون جميع الركاب من الركاب. 

تقوم منظمة العفو الدولية بالقيادة.   

إليكم السؤال المحير: هل يتعين على الذكاء الاصطناعي في السيارات ذاتية القيادة أن يتخذ قرارات تتعلق بمشكلة الترولي أثناء قيادة السيارة ذاتية القيادة؟ 

كان رد فعل بعض المطلعين أن هذه فكرة غير معقولة وخاطئة تمامًا ، ووصف الأمر برمته بأنه باطل وأنه ليس له أي تأثير على السيارات ذاتية القيادة. 

حقا؟ 

ابدأ بالفرضية الأولى التي يتم تقديمها عادةً ، وهي أنه لا يوجد شيء مثل مشكلة الترولي في فعل قيادة السيارة.   

بالنسبة لأي شخص يحاول استخدام حجة "لا يحدث أبدًا" (لأي شيء تقريبًا) ، فإنهم يجدون أنفسهم على أرضية مهتزة ومسامية إلى حد ما ، لأن كل ما يتطلبه الأمر هو إظهار الوجود لإثبات أن "أبدًا" هي عبارة غير صحيحة.   

يمكنني بسهولة تقديم دليل الوجود هذا.   

اطلع على الأخبار المتعلقة بحوادث السيارات ، ومن خلال القيام بذلك ، إليك مثال على عنوان إخباري حديث: "السائق الذي اصطدم بالمارة على الرصيف كان ينحرف لتجنب الاصطدام". إليك رابط القصة: https://www.mlive.com/news/grand-rapids/2020/05/driver-who-hit-pedestrians-on-sidewalk-was-veering-to-avoid-crash.html   

أشارت التقارير الواقعية إلى أن سائقًا واجه شاحنة بيك أب توقفت أمامه بشكل غير متوقع ، ووجد نفسه مضطرًا إلى اختيار ما إذا كان سيصطدم بالمركبة الأخرى أو يحاول الابتعاد عن السيارة ، على الرغم من لقد أدرك أيضًا على ما يبدو أن هناك مشاة قريبين وأن انحرافه سيأخذه إلى المشاة. 

 التي تختار؟ 

أثق في أنه يمكنك رؤية أن هذا يشبه إلى حد كبير مشكلة الترولي. 

إذا اختار ألا يفعل شيئًا ، فمن المفترض أنه سيصطدم بالمركبة الأخرى. إذا انحرف بعيدًا ، فمن المحتمل أن يصطدم بالمارة. من المؤكد أن كلا الخيارين سيئ للغاية ، ولكن كان لا بد من اتخاذ خيار.   

قد يقول البعض منكم أن هذا ليس خيار حياة أو موت ، وبالفعل لحسن الحظ لم يُقتل المشاة على الرغم من إصابتهم (على الأقل كما ورد في التقرير) ، لكنني أعتقد أنك تقاتل قليلاً لمحاولة رفض مشكلة الترولي. 

يمكن القول بسهولة أن الموت كان على المحك. 

سيوافق أي شخص يتمتع بعقلية متفتحة على أنه كان هناك خيار مروع يتعين اتخاذه ، يتضمن ظروفًا قاسية ، وخيارات محدودة ، تنطوي على عامل استعجال زمني ، ومتوافق مع مشكلة الترولي بشكل عام (باستثناء العربة).   

على هذا النحو ، بالنسبة لأولئك الذين يعيشون في معسكر "لا يحدث أبدًا" ، هذا مثال واحد ، من بين العديد ، حيث لا تكون الكلمة خاطئة بشكل صارخ. 

إنه يحدث.   

من المثير للاهتمام محاولة قياس عدد المرات التي يحدث فيها هذا النوع من اتخاذ القرار أثناء قيادة السيارة. في الولايات المتحدة وحدها ، هناك 3.2 تريليون ميل يتم قطعها كل عام ، ويقوم بذلك حوالي 225 مليون سائق مرخص ، والنتيجة هي حوالي 40,000 حالة وفاة و 2.3 مليون إصابة بسبب حوادث السيارات سنويًا.   

لا نعرف عدد الحوادث التي تضمنت سيناريو مشكلة الترولي ، ولكننا نعلم أنه حدث بالفعل (كما يتضح من التقارير الإخبارية). 

في هذا الجانب من إعداد التقارير ، من المثير للاهتمام أنه على ما يبدو ، يجب أن نكون حذرين في تفسير أي من القصص وتغطية حوادث السيارات ، بسبب التحيز المقترح من خلال هذه التقارير.   

تشير دراسة نوقشت في مجلة كولومبيا للصحافة إلى ذلك في كثير من الأحيان السائق من قبل المراسلين الإخباريين ، بدلاً من الاستشهاد بالضحايا الذين تضرروا من فعل القيادة (هذا يمكن تفسيره منطقياً ، حيث يصعب الوصول إلى الضحايا لأنهم في المستشفى وربما يكونون عاجزين ، أو للأسف ، ماتوا وبالتالي غير قادر على تفسير ما حدث). إليك رابط الدراسة: https://www.cjr.org/analysis/when-covering-car-crashes-be-careful-not-to-blame-the-victim.php   

قد تتعرف على هذا النوع من الانتباه الانتقائي باعتباره تحيز البقاء ، وهو نوع من التحيز اليومي نميل فيه إلى التركيز على ما هو متاح بسهولة أكبر وإهمال أو التقليل من أهمية ما هو أقل توفرًا أو ظاهرًا. 

لقيادة السيارة والإبلاغ عن حوادث السيارات ، علينا أن ننتبه لهذا الجانب. 

قد تكون هناك حالات تنطوي على مشكلة العربة التي قد لا يدرك المشاركون الناجون حدوثها ، أو يحجمون عن قول ذلك ، وما إلى ذلك. وبهذا المعنى ، قد يكون السبب هو عدم الإبلاغ عن مشكلة العربة في حوادث السيارات.   

لكي نكون منصفين ، يمكننا أيضًا التشكيك في صحة أولئك الذين يقدمون ادعاءً يرقى إلى مستوى مشكلة عربة وتوخي الحذر في افتراض أنه لمجرد أن أحدهم يقول ذلك ، فقد لا يكون كذلك. وبهذا المعنى ، يمكننا أن نضع في اعتبارنا احتمال الإفراط في الإبلاغ. 

إجمالاً ، مع ذلك ، يمكننا بشكل معقول رفض الادعاء بأن مشكلة الترولي لا توجد أثناء قيادة السيارة. أكثر تأكيدا ، يمكننا أن نقبل بشكل معقول ونقر بأن مشكلة العربة موجودة أثناء قيادة السيارة. 

هناك ، قلت ذلك ، وأنا متأكد من أن بعض النقاد غاضبون.   

لماذا يتم تجنب القيادة عن بعد أو تشغيل السيارات ذاتية القيادة بشكل عام ، راجع توضيحي هنا: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/   

لنتوخى الحذر من الأخبار المزيفة حول السيارات ذاتية القيادة ، راجع نصائحي هنا: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/   

الآثار الأخلاقية لأنظمة القيادة بالذكاء الاصطناعي كبيرة ، انظر إشارتي هنا: https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/ 

كن على دراية بمزالق تطبيع الانحراف عندما يتعلق الأمر بالسيارات ذاتية القيادة ، إليك دعوتي للتسلح: https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/   

السيارات ذاتية القيادة والتعامل مع مشكلة الترولي

على أي حال ، مع وجود ذلك تحت حزامنا ، نأمل أن نتفق على أن السائقين البشريين يمكنهم مواجهة مشكلة الترولي.   

ولكن هل هذا ما يعاني منه السائقون البشريون فقط؟   

يمكن للمرء أن يؤكد أن نظام القيادة القائم على الذكاء الاصطناعي ، والذي من المفترض أن يقود سيارة والقيام بذلك بنفس القدرة أو قدرة أفضل من السائقين البشريين ، يمكن أن يواجه مشاكل الترولي. 

دعونا نتعامل مع هذا بعناية.   

أولاً ، لاحظ أن هذا لا يشير إلى أن أنظمة القيادة بالذكاء الاصطناعي هي وحدها التي ستواجه مشكلة الترولي ، وهو الارتباك الموجود أحيانًا.   

يدعي البعض أن مشكلة الترولي لن تحدث إلا للسيارات ذاتية القيادة ، ولكن نأمل أن يكون واضحًا أن هذا شيء يواجه السائقين البشريين ، ونحن نوسع هذا الجانب المعروف لما نفترض أن السيارات ذاتية القيادة ستواجهه أيضًا.   

ثانيًا ، يجادل البعض بأنه سيكون لدينا سيارات ذاتية القيادة تعتمد على الذكاء الاصطناعي فقط وحصريًا على طرقنا ، وعلى هذا النحو ، ستتواصل هذه المركبات وتنسيق إلكترونيًا عبر V2X ، وذلك بطريقة من شأنها تجنب أي فرصة لعربة الترولي. تنشأ المشكلة. 

ربما يكون الأمر كذلك ، لكن هذا مستقبل شبيه بالطوباوية لا نعلم أنه سيحدث ، وفي الوقت نفسه ، هناك لا جدال فيه سيكون مزيجًا من السيارات التي يقودها الإنسان والسيارات التي يقودها الذكاء الاصطناعي ، على الأرجح لفترة طويلة قادمة ، على الأقل لعقود ، ولا نعرف أيضًا ما إذا كان الناس سيتخلون عن "حقهم" المتصور (إنه امتياز ). 

هذه نقطة مهمة يغفلها العديد من مؤيدي الترولي أبدًا.   

إليك كيف يدخلون أنفسهم في الزاوية. 

غالبًا ما تتمثَّل في أن السيارة ذاتية القيادة القائمة على الذكاء الاصطناعي "من الواضح" أن تصميمها سيئًا أو أنها في الأساس مهمة رديئة قام بها مطورو الذكاء الاصطناعي إذا وجدت السيارة نفسها بالصدفة وسط مشكلة الترولي. 

عادة ، ترتبط هذه الادعاءات أيضًا بالاعتقاد بأنه لن يكون لدينا أي وفيات نتيجة للسيارات ذاتية القيادة. 

كما حذرت عدة مرات ، صفر وفيات هو صفر فرصة. انظر تحليلي على هذا الرابط هنا: https://www.aitrends.com/ai-insider/self-driving-cars-zero-fatalities-zero-chance/ 

 إنه هدف نبيل وطموح يثلج الصدر ، لكنه مع ذلك إنشاء توقعات خاطئة ومضللة.   

تكمن المشكلة في أنه إذا انطلق أحد المشاة إلى الشارع ولم يكن هناك تحذير مسبق من الحدث ، وفي هذه الأثناء كانت السيارة ذاتية القيادة تنزل في الشارع بسرعة ربما تصل إلى 35 ميلاً في الساعة ، فلا يمكن التغلب على فيزياء التوقف في الوقت المناسب ببساطة لأن الذكاء الاصطناعي يقود السيارة.   

الرد المعتاد هو أن الذكاء الاصطناعي سيكون كذلك دائما اكتشف المشاة مسبقًا ، ولكن هذا خطأ يشير إلى أن المستشعرات ستكون قادرة دائمًا وبشكل مثالي على اكتشاف مثل هذه الأمور ، وأنه سيتم دائمًا القيام بذلك بشكل كافٍ في الوقت المتقدم بحيث يمكن للسيارة ذاتية القيادة تجنب المشاة. 

أجرؤ على القول إن الطفل الذي ينفد من بين سيارتين متوقفتين لن يقدم مثل هذه الفرصة.   

نحن مرة أخرى في دليل الوجود ، مما يعني أنه ستكون هناك ظروف بغض النظر عن مدى جودة الذكاء الاصطناعي ، ومدى جودة المستشعرات ، ستظل هناك حالات من عدم قدرة الذكاء الاصطناعي على تجنب وقوع حادث سيارة.   

وبالمثل ، يمكن للمرء أن يجادل في نفس السياق بأن مشكلة الترولي ستواجهها بالفعل السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي ، تلك الموجودة في شوارعنا العامة ، والسفر بين السائقين البشر ، والقيادة بالقرب من المشاة. 

يمكن أن يحدث التقرير الإخباري عن السائق البشري الذي تم قطعه بواسطة شاحنة صغيرة تمامًا لسيارة ذاتية القيادة.   

هذا يبدو غير قابل للنقاش.   

إذا كنت تعتقد الآن أن مشكلة الترولي يمكن أن تحدث ويمكن أن تحدث أيضًا في حالة السيارات ذاتية القيادة بالذكاء الاصطناعي ، فإن الجانب التالي هو ما سيفعله الذكاء الاصطناعي. 

لنفترض أن الذكاء الاصطناعي محشور على الفرامل ، ويصطدم مباشرة بشاحنة البيك أب تلك.   

هل فكرت منظمة العفو الدولية في خيارات أخرى؟ 

هل كان الذكاء الاصطناعي يفكر في الانحراف إلى جانب الطريق وأعلى على الرصيف (وفي المشاة)؟ 

إذا كنت صانع سيارات أو صانع سيارات ذاتي القيادة ، فأنت بحاجة إلى أن تكون شديد الحذر بشأن ما ستكون إجابتك.   

سأخبرك لماذا.   

قد تقول إن الذكاء الاصطناعي تمت برمجته فقط للقيام بكل ما هو واضح ، وهو الضغط على الفرامل ومحاولة التباطؤ. 

يمكننا على الأرجح أن نفترض أن الذكاء الاصطناعي كان ماهرًا بما يكفي لحساب أنه على الرغم من الكبح ، فإنه سيصطدم بشاحنة البيك أب. 

لذلك ، "علمت" أن حادث سيارة كان وشيكًا.   

ولكن إذا كنت تقول أيضًا إن الذكاء الاصطناعي لم يفكر في الخيارات الأخرى ، بما في ذلك الصعود على الرصيف ، فمن المؤكد أن هذا يظهر أن الذكاء الاصطناعي كان يقوم بعمل غير ملائم في قيادة السيارة ، وكنا نتوقع أن يحاول سائق بشري وتقييم البدائل لتجنب حوادث السير.   

بهذا المعنى ، يُفترض أن الذكاء الاصطناعي معيب وربما لا ينبغي أن يكون على طرقنا العامة.   

أنت تفتح أيضًا مسؤوليتك القانونية على نطاق واسع ، والتي ذكرتها مرارًا وتكرارًا هي شيء سيكون في النهاية تعرضًا كبيرًا لشركات صناعة السيارات وشركات صناعة السيارات ذاتية القيادة. بمجرد انتشار السيارات ذاتية القيادة ، وبمجرد تعرضها لحوادث السيارات ، وهو ما سيحدث ، ستبدأ الدعاوى القضائية ، وهناك محامون يستعدون بالفعل لملاحقة صانعي القيادة الذاتية الممولين بمليارات الدولارات الذين يملكون جيوبًا ضخمة. التكنولوجيا والسيارات ذاتية القيادة. 

في هذه الأثناء ، قد يقول البعض منكم أن الذكاء الاصطناعي قد أخذ في الاعتبار بدائل أخرى ، دافعًا عن متانة نظام الذكاء الاصطناعي الخاص بك ، بما في ذلك أنه فكر في الصعود على الرصيف ، لكنه بعد ذلك حسب أن المشاة قد يتعرضون للضرب ولذلك اختار البقاء في المسار وبدلاً من ذلك اصطدمت بشاحنة البيك أب.   

توقف ، لقد اعترفت للتو أن الذكاء الاصطناعي كان متورطًا في سيناريو مشكلة الترولي.   

مرحبًا بك في الحظيرة.   

وفي الختام   

عندما يواجه سائق بشري مشكلة في عربة الترولي ، فمن المفترض أنه يأخذ في الاعتبار موته المحتمل أو إصابته ، الأمر الذي يختلف بالتالي عن مشكلة الترولي الكلاسيكية لأن الشخص الذي يرمي المفتاح لمسارات العربة لا يتعرض للخطر بشكل مباشر (قد يعاني من عواقب عاطفية ، أو ربما تداعيات قانونية ، ولكن ليس الأذى الجسدي).   

يمكننا أن نفترض بشكل معقول أن الذكاء الاصطناعي للسيارة ذاتية القيادة لا يهتم بسلامتها (لا أريد الانتقاص من هذه المناقشة الواردة هنا وأخذنا إلى الظل ، لكن البعض يجادل بأننا قد ننسب يومًا ما حقوق الإنسان إلى AI).   

على أي حال ، قد يكون هناك ركاب في السيارة ذاتية القيادة ، مما يقدم عنصرًا ثالثًا في الاعتبار لمشكلة الترولي.   

هذا يشبه إضافة مسار ثالث وشوكة أخرى.   

على الرغم من أن المضاعفات تمتد إلى حد ما إلى ما وراء مشكلة الترولي التقليدية حيث يجب أن يأخذ الذكاء الاصطناعي الآن في الاعتبار احتمال مشترك محتمل أو مستوى عدم يقين ، بما في ذلك الجانب الذي يتضمن في حالة الشاحنة الصغيرة الموت أو الإصابة المحتملة للشاحنة- يصل السائق و  ركاب السيارة ذاتية القيادة ، مقابل الموت أو الإصابة المحتملة للمشاة و  ركاب السيارة ذاتية القيادة. 

ربما هذه هي مشكلة الترولي على المنشطات. 

حان وقت الختام. 

بالنسبة لأولئك الذين ينكرون وجود مشكلة الترولي في حالة السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي ، فإن وجهة نظرك في الرأس ليست قصر نظر فحسب ، بل ستكون أسهل الأهداف القانونية للدعاوى القضائية. 

لما ذلك؟  

نظرًا لأنه كان أمرًا معروفًا ومناقشًا كثيرًا أن مشكلة الترولي موجودة ، لكنك لم تفعل شيئًا حيالها واختبأت وراء التأكيد على أنها غير موجودة. 

حظا جيدا في ذلك. 

بالنسبة لأولئك الذين هم من أصحاب الأرض النادرة ، فأنت تقر بأن مشكلة الترولي موجودة في السيارات ذاتية القيادة ، لكنك تجادل بأنها نادرة ، مشكلة متطورة ، قضية زاوية. 

أخبر الأشخاص الذين قتلوا عندما تصطدم سيارتك الحقيقية ذاتية القيادة القائمة على الذكاء الاصطناعي بشخص ما ، ففعل ذلك في تلك الحالة "النادرة" التي ستظهر بلا منازع في النهاية.   

مرة أخرى ، لن يحمل أي ماء قانوني. 

ثم هناك أصحاب الأرض الذين يدركون مشكلة الترولي ، ويأسفون لأنك مشغول جدًا الآن لدرجة أنها تحتل مرتبة منخفضة في قائمة الأولويات ، وتتعهد أنك في يوم من الأيام ، عندما يسمح الوقت ، تعامل مع. 

هناك فرق بسيط بين النادر الأرض والالتفاف على الأرض ، وفي كلتا الحالتين ، سيكون لديهم بعض الشرح إلى هيئة محلفين وقاضٍ عندما يحين الوقت.   

إليك ما يجب أن يفعله صانعو السيارات وشركات التكنولوجيا ذاتية القيادة: 

  • طوّر إستراتيجية معقولة وواضحة حول مشكلة العربة 
  • قم بصياغة خطة قابلة للتطبيق تتطلب تطوير الذكاء الاصطناعي للتعامل مع مشكلة العربة 
  • قم بإجراء الاختبارات المناسبة للذكاء الاصطناعي للتأكد من التعامل مع مشكلة الترولي 
  • الطرح عندما تكون جاهزة لذلك ، وإمكانيات الذكاء الاصطناعي ومراقبة الاستخدام 
  • اضبط الذكاء الاصطناعي وحسّنه قدر المستطاع لتحسين التعامل مع مشاكل الترولي بشكل متزايد 

نأمل أن توقظ هذه المناقشة مؤيدي الأرض المسطحة ، وتدفع النادر إلى الأمام الأرض وحثهم على إيلاء الاهتمام المناسب والمناسب لمشكلة الترولي وإعداد أنظمة القيادة بالذكاء الاصطناعي بشكل كافٍ للتعامل مع مسائل الحياة أو الموت هذه.   

إنها مشكلة حقيقية لها عواقب حقيقية.  

حقوق النشر 2020 د. لانس إليوت  

تم نشر هذا المحتوى في الأصل على AI Trends. 

[إد. ملاحظة: للراغبين في تحليل أعمال الدكتور إليوت المستمرة حول ظهور السيارات ذاتية القيادة ، راجع عمود فوربس على الإنترنت: https://forbes.com/sites/lanceeliot/] 

http://ai-selfdriving-cars.libsyn.com/website

المصدر: https://www.aitrends.com/ai-insider/the-trolley-problem-undeniably-applies-to-ai-autonomous-cars/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة