제퍼넷 로고

AI 자율 주행 차를위한 설명 가능한 AI (XAI)를 향한 바위 길 

시간

자율 주행 차를 조종하는 AI 시스템은 호기심 많은 승객들에게 경로에 대한 설명을 제공해야합니다. (크레딧 : 게티 이미지) 

AI 트렌드 인사이자 Lance Eliot  

우리의 삶은 설명으로 가득 차 있습니다. 어깨가 아파서 주치의를 만나러갑니다. 의사는 팔을 쉬고 무거운 물건을 들지 말라고 말합니다. 또한 처방전이 제공됩니다. 당신은 즉시 왜 약을 복용해야하는지 의아해하며 의심 할 여지없이 의학적 진단과 전반적인 예후가 무엇인지 아는 데 관심이 있습니다. 

그래서 당신은 설명을 요청합니다. 

어떤 의미에서, 당신은 적어도 당신이 얻을 수있는 설명의 본질과 관련하여 Pandora의 상자를 조금 열었습니다. 예를 들어, 의사는 어깨 해부학에 대한 길고 전문 용어로 가득 찬 표시를 덜덜 거리고 처방 된 약물의 화학적 특성에 깊이 빠져들 수 있습니다. 그것은 아마도 당신이 찾고 있던 설명이 아닐 것입니다.   

예전에는 의사들이 환자가 설명을 요구하는 것을 기대하지 않았습니다. 의사가 말한 모든 것은 신성하다고 간주되었습니다. 설명을 요구하는 바로 그 신경은 존경받는 의학적 의견의 진실성에 의문을 제기하는 것과 같습니다. 어떤 의사들은 그들이 지시 한대로 (질문이 허용되지 않음) 간단하게하라고 불평하거나 어깨가 도움이 필요한 것처럼 다소 멍청한 말을 할 수도 있으며 이것이 최선의 조치입니다. 기간, 이야기의 끝.   

오늘날 의사들은 실행 가능한 설명의 필요성을 알고 있습니다. 의과 대학에서 진행되는 특수 "침상"교육이 있습니다. 병원에는 자체 교육 과정이 있습니다. 다가오는 의사는 환자와 상호 작용하는 방식에 따라 등급이 매겨집니다. 등등.   

그것은 확실히 환자와의 상호 작용을 개선하는 문을 열었지만 설명 문제를 반드시 완전히 해결하는 것은 아닙니다. 

설명을 가장 잘 제공하는 방법을 아는 것은 예술이자 과학입니다. 설명을 제공 할 설명자가 있고 설명을받을 사람이 있다는 것을 고려해야합니다. 

설명은 모든 모양과 크기로 제공됩니다. 

설명을 원하는 사람은 사용 가능한 모든 종소리와 휘파람을 포함하는 완전히 정교한 설명을 원할 수 있습니다. 설명하는 사람은 적절한 설명이 짧고 달콤하다고 생각할 수 있습니다. 거기에 우리 눈앞에서 설명 불일치 양조가 있습니다. 

설명자는 명확한 설명을하고 설명에 만족할 수 있습니다. 한편 설명을받은 사람은 전적으로 불만족 스럽다. 이 시점에서 설명을받은 사람은 잠재적으로 치아를 긁고 이것이 그들이 얻을 수있는 전부라고 생각할 수 있습니다. 그들은 조용히 걸어 나가서 화를 내며 시청과 싸우지 않기로 선택하고 제공된 최소한의 설명에 동의 할 수 있습니다. 

아마도 설명을받은 사람이 좀 더 정교한 버전을 원한다고 결정했을 것입니다. 그들은 자신의 입장을 고수하고 더 심층적 인 설명을 요청할 수 있습니다. 이제 우리는 설명자가 무엇을 할 것인지 고려해야합니다. 설명자는 설명이 충분하다고 생각하고 추가 설명을 제공 할 필요가 없다고 생각할 수 있습니다.   

설명자는 초기 설명이 허용되지 않는 이유에 대해 혼란 스러울 수 있습니다. 설명을받은 사람이 말을 듣지 않았거나 말의 의미를 이해하지 못했을 수 있습니다. 따라서이 시점에서 설명자는 원래 설명을받은 사람이 실제로 말한 내용을 이해했는지 확인하기 위해 방금 제공된 동일한 설명을 반복하기로 결정할 수 있습니다.   

이것이 곧 통제 불능이 될 것이라고 예상 할 수 있습니다. 

이“정교한”설명을받는 사람은 주의 동일한 설명이 거의 그대로 반복됩니다. 모욕입니다! 설명을받은 사람은 이제 설명자가 자신을 깎아 내리고 있다고 생각합니다. 이 사람은 자신의 혀를 잡고 설명을 얻기 위해 포기하거나 설명이 얼마나 터무니 없는지에 대한 모욕을 시도합니다.   

그것은 지저분한 일로 이어질 수 있습니다.   

설명자와 설명 제공 사이에 섬세한 춤이 있으며, 설명을받는 사람과 원하는 설명의 본질이 있습니다.   

우리는 일반적으로 이러한 차이점 당연히. Y설명자는 누군가가 어떤 종류의 설명을하고 싶은지 묻는 것을 거의 볼 수 없습니다. 대신, 설명자는 그 사람이 유용하다고 생각하는 설명의 모양을 시작합니다. 설명을 서두르면 이점이있을 수 있지만 설명을받는 사람과 설명을받는 사람을 모두 쓰러 뜨리는보기 흉한 언어 눈사태가 시작될 수도 있습니다.   

어떤 사람들은 설명자가 다른 사람이 찾고있는 설명의 유형에 대해 문의하는 것으로 시작해야한다고 제안합니다. 여기에는 상대방이 어떤 배경을 가지고 있는지 묻는 것이 포함될 수 있습니다.의학적 진단의 경우, 다른 사람이 의학 용어와 의학 분야에 익숙한 지 여부. 한 번에 설명을해야하는지 아니면 한 입 크기로 나누어야하는지에 대한 부드러운 질문도있을 수 있습니다. 기타.   

그런 종류의 게임 전 포메이션의 어려움은 때때로 리시버가 그 건틀릿을 통과하고 싶지 않다는 것입니다. 그들은 단지 설명을 원하거나 그렇게 말합니다. 서문을 작성하려고하면 수신자가 짜증을 낼 수 있으며 설명이 의도적으로 지연되는 것처럼 느낄 것입니다. 이것은 설명을 늦추기 위해 사실이나 다른 악의적 인 근거에서 숨어있을 수도 있습니다. 

모두 말하면, 우리는 하나를 요청할 때 설명을 얻을 것으로 기대하며 사전에 방대한 체크리스트를 거칠 필요가 없습니다.   

이 모든 것에 대한 또 다른 비틀기는 설명 중에 발생할 수있는 대화 형 대화를 수반합니다.   

설명의 방식이 반드시 처음부터 끝까지 한 번의 호흡 방식으로 수행되는 것은 아닙니다. 대신 설명하는 동안 수신자가 중단하고 설명을 요청하거나 질문이 발생할 가능성이 더 큽니다. 이것은 확실히 합리적인 측면입니다. 설명이 잘못 되었다면 왜 계속해서 진행해야하는지 대신 수신자가 설명의 방향과 스타일을 조정하거나 재구성 할 수 있습니다.   

예를 들어, 귀하가 의료 전문가이고 아픈 어깨에 대해 의사를 만나러 갔다고 가정 해보십시오. 진단을하는 의사가 환자가 동료 의료 전문가라는 사실을 깨닫지 못한다고 상상해보십시오. 이 경우 제공되는 설명은 추정되는 비 의료 지식 기반을 겨냥하고 잠재적으로 단순한 방식으로 진행될 수 있습니다 (의학적 조언과 관련하여). 설명을받는 사람은 의심 할 여지없이 약에 대해 알고 있다는 것을 중단하고 명확히 할 것이며 그에 따라 설명을 재조정해야합니다.   

설명이 좋거나 나쁘다고 평가 될 수 있다고 믿고 싶을 수 있습니다. 그러한 관점을 취할 수는 있지만 일반적인 개념은 설명과 그 아름다움이 보는 사람의 눈에 있다는 것입니다. 한 사람이 선호하는 설명은 다른 사람에게 비참하거나 끔찍한 설명 일 수 있습니다. 즉, 설명을 평가하고 서로 비교하기위한 근거는 여전히 약간 있습니다. 

그 트위스트에 트위스트를 추가 할 수 있습니다. 당신이 설명을 받고 그것이 좋은 것이라고 믿는다 고 가정 해보자. 나중에 그 문제에 관해 다른 것을 배우고 설명이 불완전하다는 것을 알게됩니다. 더 나쁜 것은 주어진 상황에 대한 잘못된 인상을주기 위해 의도적으로 왜곡 된 설명 일 수 있다는 것입니다. 요컨대 설명은 의도적으로 거짓을 만드는 데 사용될 수 있습니다. 

그래서 설명을 얻는 것이 문제로 가득 차있는 이유입니다. 우리는 종종 우리가 설명을 요청하고 그럴듯 해 보인다면, 이것은 문제가 잘 해결되어 있고 그 이상이라는 것을 증명한다고 가정합니다. 문제는 설명이 설계 나 우연에 의해 왜곡 될 수 있으며, 우리를 당면한 진실성 또는 진실성에 대한 잘못된 감각으로 이끌 수 있다는 것입니다. 

설명에 대한 또 다른 각도는 설명을 요청하는 것과 요청되지 않은 경우 설명을 제공하는 것입니다. 설명자는 당신이 원한다고 가정하기 때문에 바로 설명 할 수 있지만 당신 계속해서 만족합니다. 이때 설명을 방해하면 설명자가 당황 할 수 있습니다.   

왜이 모든 것이 설명에 대해 이야기합니까? AI 때문입니다.   

일상적인 컴퓨터 시스템에서 인공 지능 (AI)의 사용이 증가함에 따라 컴퓨터가 선택을하고 우리 인간이 그러한 결정에 따라 살아야하는 경로로 우리를 이끌고 있습니다. 주택 융자를 신청하고 AI 기반 알고리즘이 당신을 거절한다면, 당신이 알 수있는 것은 대출을받지 못했다는 것입니다. 대출이 거부 된 이유를 알 수 없습니다.   

아마도 대출을 제공하는 사람과상의했다면 왜 거절 당했는지 설명해달라고 요청할 수 있었을 것입니다.   

항상 그런 것은 아니며 인간이 문제를 설명 할 의지 나 능력이 없을 수도 있습니다. 대출을 제공하는 사람은 어깨를 으쓱하고 왜 거절 당했는지 모른다고 말하거나 회사 정책에 따라 설명을 할 수 없다고 말할 수 있습니다. 

Ergo, 나는 인간이 루프에 있다고해서 반드시 설명을 얻을 것이라고 제안하는 것이 아닙니다. 또한 앞에서 반복적으로 강조했듯이 설명은 다소 미약하고 전혀 쓸모가 없을 수 있습니다.    

어쨌든 요즘에는 AI 시스템이 무엇을하고 있는지에 대한 설명을 제공하도록 프로그래밍해야하는 큰 헐 라발 루가 있습니다.   

이것을 Explainable AI (XAI)라고합니다. 

XAI는 관심 분야로 빠르게 성장하고 있습니다. AI 시스템을 사용하는 사람들은 설명을받을 것을 기대하고 요구할 것입니다. AI 시스템의 수가 빠르게 증가하고 있기 때문에 AI가 무엇을했는지 또는 무엇을하고 있는지에 대한 기계 제작 설명을 갖는 것에 대한 큰 욕구가있을 것입니다.   

문제는 AI가 종종 신비스럽고 설명을 쉽게 생성 할 수 없다는 것입니다.   

머신 러닝 (ML)과 딥 러닝 (DL)의 사용을 예로 들어 보겠습니다. 이들은 데이터를 검사하고 수학적 패턴을 찾아내는 계산 패턴 매칭 알고리즘입니다. 때로는 내부 계산 측면이 복잡하고 인간이 이해할 수있는 논리 기반 방식으로 설명되지 않는 경우가 있습니다. 

이는 AI가 본질적으로 설명을 제공하도록 설정되어 있지 않음을 의미합니다. 이 경우 일반적으로 XAI 구성 요소에 추가하려는 시도가 있습니다. 이 XAI는 AI를 조사하고 일어난 일을 확인하려고 시도하거나 AI와는 별도로 자리 잡고 수학적으로 수수께끼의 메커니즘 내에서 발생한 것으로 가정 된 내용을 기반으로 설명을 제공하도록 사전 프로그래밍되었습니다. 

어떤 사람들은 AI가 고 안되는 모든 핵심에 XAI를 구축해야한다고 주장합니다. 따라서 AI에 대한 설명을 생성하는 것에 대해 나중에 생각하기보다는 기초부터 AI의 디자인에 설명을 생성하는 성향을 포함해야합니다.   

그 모든 기술적 숙고 속에 설명을 구성하는 다른 측면이 있습니다. 설명이 작동하는 방식과 설명자 및 설명을받는 사람에 따른 가변성에 대한 이전 의견을 다시 살펴보면 프로그래밍 방식으로 설명을 생성하는 것이 얼마나 어려운지 쉽게 알 수 있습니다.   

가장 저렴한 방법은 미리 준비된 설명을 갖는 것입니다. 대출이 거부 된 이유에 대한 XNUMX 가지 설명과 함께 대출 부여 시스템이 설정되었을 수 있습니다. 대출을 거절하면 그 다섯 가지 설명 중 하나가 표시됩니다. 상호 작용이 없습니다. 설명이 특히 당신에게 적합하거나 적합하다는 특별한 모양은 없습니다. 

그것들은 구멍에 대한 설명입니다. 

더 강력하고 존경할만한 XAI 기능은 실시간으로 설명을 생성하는 것으로 구성되며 당면한 특정 상황을 기반으로 수행됩니다. 또한 XAI는 설명을받는 사람에게 어떤 풍미 나 설명 스타일이 적합한 지 확인하려고합니다. 

  

그리고이 설명자 기능은 설명을받는 사람과 유창하게 상호 작용할 수 있어야합니다. 수신자는 설명을 중단하고 설명자 또는 XAI가 다른 측면으로 이동하거나 사람이 나타내는 내용에 따라 설명을 재구성하도록 할 수 있어야합니다.   

물론 이는 인간 설명자가 고려해야하는 것과 동일한 유형의 고려 사항입니다. 이것은 우수한 XAI를 수행하는 것이 생각보다 어렵다는 사실을 나타냅니다. 말하자면, 인간 설명자가 할 수있는 일을 시뮬레이션하거나 모방 할 수 있으려면 XAI 내에서 AI를 사용해야 할 것입니다 (우리가 아는 바와 같이 모든 인간이 설명 제공).   

기어를 바꾸면 특히 XAI를 사용할 수있는 영역이나 응용 프로그램이 무엇인지 궁금 할 것입니다.   

이러한 노력의 한 분야는 자율 주행 차 (AV)를 수반합니다. 우리는 점차 자율적 인 형태의 모빌리티를 가지게 될 것이며, 모두를위한 모빌리티 만트라를 향해 노력하고 있습니다. 자율 주행 차, 자율 주행 트럭, 자율 주행 오토바이, 자율 주행 잠수정, 자율 주행 드론, 자율 주행 비행기 등이있다.   

처음에는 AV에 XAI가 필요한 이유에 대해 당황 할 수 있습니다. 자율 주행 차를 사용하여 XAI가 AV의 핵심 요소가 될 방법을 보여줄 수 있습니다.   

문제는 이것입니다. Explainable AI (XAI)는 어떤면에서 AV의 출현에 중요하고 자율 주행 자동차의 출현을 통해 보여줄까요? 

자율 주행 차가 의미하는 바를 명확히 한 다음 XAI AV 토론으로 더 뛰어들 수 있습니다.   

AI 자율 주행 차에 대한 내 프레임 워크는 다음 링크를 참조하십시오. https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/   

이것이 문샷 노력 인 이유는 여기에있는 설명을 참조하십시오. https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/   

리히터 척도의 유형으로서의 레벨에 대한 자세한 내용은 여기에서 내 토론을 참조하십시오. https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/   

레벨을 분기하는 것에 대한 논쟁은 여기 내 설명을 참조하십시오. https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/ 

자율 주행 차의 수준 이해 

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.   

이러한 무인 차량은 레벨 4 및 레벨 5로 간주되는 반면, 인간 운전자가 운전 노력을 공동 공유해야하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 운전 작업을 공동 공유하는 자동차는 준 -자율적이며 일반적으로 ADAS (Advanced Driver-Assistance Systems)라고하는 다양한 자동 추가 기능을 포함합니다.   

레벨 5에는 아직 진정한 자율 주행 차가 없으며, 이것이 달성 될 수 있는지, 그리고 도착하는 데 걸리는 시간도 아직 알지 못합니다. 

한편, 레벨 4의 노력은이 테스트가 허용되어야하는지에 대한 논란이 있지만 매우 좁고 선택적인 공공 도로 시험을 통해 점차 견인력을 얻으려고 노력하고 있습니다 (우리는 실험이 진행되는 동안 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일부는 다투고 있습니다). 

반자동 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다. 잠시 후, 다음 사항이 일반적으로 적용됩니다.  

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다. 

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다. 

자율 주행 자동차의 원격 조종 또는 운전이 일반적으로 회피되는 이유는 여기에있는 설명을 참조하십시오. https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/   

자율 주행 차에 대한 가짜 뉴스에주의하려면 다음 팁을 참조하십시오. https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/ 

AI 구동 시스템의 윤리적 의미는 중요합니다. https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/ 

자율 주행 차와 관련하여 이탈이 정상화되는 함정에주의하십시오. https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/ 

자율 주행 차와 XAI   

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다. 모든 탑승자는 승객이됩니다.; 티그는 AI가 운전을하고 있습니다. 

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.   

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까? 

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.   

이제 적절하게 무대를 마련 했으므로 XAI에 대한이 주제에 대해 다루게 될 수많은 측면을 살펴볼 시간입니다.   

첫째, 기존의 자율 주행 차 시험 중 상당수는 XAI와 비슷한 모양이 거의 없다는 점을 명심하십시오. 최초의 믿음은 사람들이 자율 주행 차를 타고 목적지를 제공하고 그 지역에 조용히 휘젓는다는 것이 었습니다. AI 구동 시스템과 상호 작용할 필요가 없습니다. 설명이나 XAI 기능이 필요하지 않습니다.   

우리는 당신이 라이드 쉐어링을 사용하고 운전석에 인간 운전자가있을 때 일어나는 일을 고려함으로써 그 가정을 재검토 할 수 있습니다.   

확실히 Uber 또는 Lyft 차량에 타는 경우가 있으며 여행 내내 돌처럼 침묵하는 경우가 있습니다. 이미 차량 요청 앱을 통해 목적지를 제공했을 가능성이 있습니다. 운전하는 사람은 의도적으로 운전을하고 표면적으로는 목적지로 가고 있습니다. 채팅 할 필요가 없습니다. 스마트 폰에서 비디오 게임을하고 차량에 다른 사람이없는 것처럼 행동 할 수 있습니다.   

완벽하게 괜찮습니다.   

운전하는 동안 갑자기 운전자가 예상치 못한 경로 나 비정상적인 경로를 선택한다고 상상해보십시오. 목적지까지의 정상적인 경로가 변경된 이유를 운전자에게 물어볼 수 있습니다. 그들은 인간 운전자의 설명을 촉구 할 것입니다. 

I운전자가 설명을하지 않거나 어설픈 설명을 할 수 있습니다. 인간은 그렇게합니다. 이론적으로 제대로 수행 된 XAI는 목표에 대한 설명을 제공하지만 어려울 수 있습니다. 운전자가 주요 고속도로에서 공사가 진행 중이라고 말하고 긴 지연을 피하기 위해 대체 코스가 착수되고 있다고 말할 수 있습니다. 

그 설명에 만족하실 것입니다. 다른 한편으로, 아마도 당신은 그 지역에 살고 있고 진행되는 공사의 성격에 대해 궁금 할 것입니다. 따라서 운전자에게 공사에 대한 자세한 내용을 문의하십시오. 어떤 의미에서 설명자와 상호 작용하고 추가 뉘앙스 또는 패싯 제공된 설명에 대해. 

자, 자율 주행 차 사고 모자를 쓰고 승객이 XAI에서 원하는 것이 무엇인지 생각해보십시오. 자율 주행 차가 당신을 집으로 데려다줍니다. 사용되는 정상적인 경로는 AI 구동 시스템에서 예기치 않게 우회됩니다. 주행 여정이 예상 된 순회에서 변경되는 이유를 AI에 물어볼 수 있습니다. 기존의 자율 주행 차 시험 중 상당수는 AI가이 문제를 설명하도록하는 직접적인 수단이 없으며 대신 자율 주행 차를 감독하는 차량 운영자의 원격 에이전트와 연결해야합니다. 

본질적으로 XAI를 구축하기보다 문제는 원격 사람에게 전달되어 무슨 일이 일어나고 있는지 설명합니다. 이것은 특별히 확장 할 수없는 것입니다. 다시 말해, 도로에 수십만 대의 자율 주행 차가있는 경우 라이더가 가장 간단한 질문에 대해 항상 원격 에이전트에게 연락해야한다는 생각은 엄청난 인건비와 물류 악몽이 될 것입니다.   

AI 구동 시스템과 함께 존재하는 최전선 XAI가 있어야합니다.   

자연어 처리 (NLP) 인터페이스가 Alexa 또는 Siri와 유사한 AI 구동 시스템과 결합되어 있다고 가정합니다. 승객은 NLP와 상호 작용하고 목적지를 중간에 변경하도록 요청하거나 패스트 푸드 식당 드라이브 스루를 통과하도록 요청하는 등의 일반적인 작업에 대해 논의 할 수 있습니다.   

또한 승객은 설명을 요청할 수 있습니다.   

AI 구동 시스템이 갑자기 브레이크를 밟아야한다고 가정합니다. 자율 주행 차의 라이더는 특히 매혹적인 고양이 비디오를보고 있었지만 도로 상황을 인식하지 못했을 것입니다. 가혹한 제동 동작으로 인해 튀어 나온 후 승객은 AI 구동 시스템이 왜 그렇게 갑작스럽고 거친 주행 동작을했는지 걱정스럽게 물을 수 있습니다. 

AI가 그러한 설명을 즉시 제공하기를 원할 것입니다. 설명을 얻을 수있는 유일한 방법이 원격 에이전트를 찾는 것과 관련이 있다면 그게 어떤 것인지 상상해보십시오. 자율 주행 차 안에는 급진적 인 조치를 취했지만 왜 그렇게했는지는 모릅니다. 버튼을 누르거나 어떻게 든 원격 에이전트에 대한 통화를 활성화해야합니다. 참여하는 데 몇 분 정도 걸릴 수 있습니다.   

원격 에이전트를 사용할 수있게되면 (즉시 사용할 수 있다고 가정), 모든 자율 주행 자동차 중 가장 위대한 차량에 오신 것을 환영하는 것과 같은 일반적인 통조림 연설로 대화를 시작할 수 있습니다. 그동안 당신은 여전히 ​​즐겁게 운전하는이 자율 주행 차 안에 앉아 있었지만 왜 갑자기 브레이크를 밟았는지 전혀 모릅니다. 

여기서 요점은 원격 작업자와 논의 할 때 많은 시간과 운전 측면이 발생할 수 있다는 것입니다. 그 시간 동안 당신은 AI 구동 시스템이 다음에 미친 짓을할지에 대해 의아해하고 걱정하며 걱정합니다.   

XAI가 있었다면 방금 일어난 일을 XAI에게 물어볼 수 있었을 것입니다. XAI는 보도에 자율 주행 차를 향해 달리고있는 개가 눈에 띄는 거리 내에있는 것처럼 즉시 설명 할 수 있습니다. AI 구동 시스템은 빠른 제동 동작을 선택했습니다. 개는 아이디어를 얻고 안전하게 훔쳐갔습니다.   

적시에 설명하고 승객에게 위안과 안도를 제공하여 좌석에 다시 앉고 유쾌한 새끼 고양이와 사랑스러운 강아지에 대한 비디오를 더 많이 볼 수 있도록합니다.   

ODD에 대한 자세한 내용은이 링크의 내 표시를 참조하십시오. https://www.aitrends.com/ai-insider/amalgamating-of-operational-design-domains-odds-for-ai-self-driving-cars/ 

오프로드 자율 주행 차 주제에 대한 자세한 내용은 다음과 같습니다. https://www.aitrends.com/ai-insider/off-roading-as-a-challenging-use-case-for-ai-autonomous-cars/ 

자율 주행 자동차 제조업체에 최고 안전 책임자가 있어야한다고 촉구했습니다. 여기에 특종이 있습니다. https://www.aitrends.com/ai-insider/chief-safety-officers-needed-in-ai-the-case-of-ai-self-driving-cars/ 

소송이 점차 자율 주행 자동차 산업의 중요한 부분이 될 것으로 예상됩니다. 여기에 대한 자세한 설명을 참조하십시오. https://aitrends.com/selfdrivingcars/self-driving-car-lawsuits-bonanza-ahead/   

결론   

차를 탈 때 발생할 수있는 상황이 많고 이에 대한 설명이 필요할 수 있습니다. 차가 갑자기 정지합니다. 차는 다소 강하게 커브를 잡습니다. 차는 여유로운 오차없이 인접한 차선으로 방향을 전환합니다. 차는 당신이 예상하지 못했던 길을 택합니다. 끝없는 가능성이 존재합니다.   

이 경우 실제로 XAI가 자율 주행 차에 특히 유용하다면, 왜 아직 특히 제자리에 있지 않은지 궁금 할 것입니다.   

물론, A 지점에서 B 지점까지 안전하게 자동차를 운전할 수있는 AI를 고안해야한다는 강력한 압력을 받고있는 AI 개발자들에게 기계 생성 설명을 제공하는 측면은 우선 순위 목록에서 상당히 낮습니다. 그들은 그것이 소위 엣지 또는 코너 케이스라고 열렬히 주장 할 것입니다. 충분히 자율 주행 차를 달성 한 햇살이 얻어 졌을 때가 될 수있다. 

모든 종류의 AV를 타고있는 인간은 설명을 원할 것입니다. 비용 효율적이고 즉시 사용 가능한 설명 제공 수단은 자율 조종을 수행하는 AI 시스템에 XAI를 구현하는 것입니다.   

자율 주행 차 안에 있고 급하게 곡예 운전을하고 있다면, 같은 방식으로 무슨 일이 일어나고 있는지 물어 보는 것을 주저 할 수 있고, 운전자가주의를 산만하게 할까봐 걱정할 수도 있다고 가정합니다. 그것은 바퀴에서 뭔가 거친 일을하고 있었다.   

아마도 잘 개발 된 XAI는 AI 구동 시스템에 부담을주지 않을 것이므로 XAI와의 긴 대화에 자유롭게 참여할 수 있습니다. 실제로 자율 주행 차가 얻을 수있는 가장 가능성있는 질문은 AI 구동 시스템이 어떻게 작동 하는가하는 것입니다. XAI는 그런 종류의 질문에 대처할 준비가되어 있어야합니다. 

XAI가 처리하기를 기대하지 말아야 할 한 가지는 운전과 관련된 문제 일 것입니다. 예를 들어, XAI에게 삶의 의미를 설명 해달라고 요청하는 것은 AI의 급여 등급을 초과하는 경계를 벗어난 것으로 주장 될 수 있습니다.   

적어도 AI가 지각력이 될 때까지는 분명히 물어볼 수 있습니다. 

Lance Eliot 박사  http://ai-selfdriving-cars.libsyn.com/website 

코인 스마트. 유로파 최고의 비트 코인-보르 스
출처 : https://www.aitrends.com/ai-insider/the-rocky-road-toward-explainable-ai-xai-for-ai-autonomous-cars/

spot_img

최신 인텔리전스

spot_img