ゼファーネットのロゴ

内部告発者に拍車をかける一部のAI自動運転車メーカーでの疑わしい慣行 

日付:

自動運転車の努力がスケジュールのプレッシャーに対応するために手抜きをしているように見え、ダブルチェックとトリプルチェックをスキップしているため、内部告発者が発生する可能性があります。 (クレジット:ゲッティイメージズ)  

AIトレンドインサイダー、ランスエリオット 

いくつかのレストランや飲食店に一口食べに行くときは、キッチンを見るべきではないという古いことわざがあります。 食べ物がどのように調理されているかを見ると、胃が悪くなるかもしれません。  

このルールは、あらゆる種類の製品を製造するほぼすべてのエンティティに適用できます。 トースターの製造に欠陥があり、使用時に発火する可能性がある場合を想像してみてください。 トースターを前もって出してくれる会社で働いていたインサイダーがいることを歓迎します。   

複雑な製品は、特にインサイダーが前に出てくれることを望んでいる例です。 たとえば、あなたの車は非常に複雑な製品です。 何千ものコンポーネントが含まれています。 自動車業界には、自動車生産に関する深刻な内部問題を明らかにするのに役立つインサイダーのいくつかの注目すべき事例がありました。   

とにかく、特に危険な場合は、内部の誰かが声を上げて舞台裏の問題を修正しようとするとよいでしょう。 

発言するそのようなインサイダーは、通常、 内部通報者. 

1960年代と1970年代のラルフ・ネーダーが、活動家の努力の中で内部告発者のキャッチフレーズを広めるのに役立ったことを漠然と知っているかもしれません。 その時点まで、内部の問題について話すという考えは嫌われていました。 従業員は一般的に、雇用主に非常に忠実であり、順番を変えて発言しないことを敢えて期待されていました。 実際、今日に至るまで、内部告発者は追放され、彼らの努力のためにネズミまたは密告者としてラベル付けされることがあります。   

明確にするために、すべての内部告発者が彼らが報告することについて正しいわけではありません。 内部告発者が問題として認識していることについて誤解される場合があります。 彼らは物事を誤解するかもしれません。 彼らは懸念を過度に膨らませる可能性があります。 内部告発者が彼らの目的において完璧であるとぼんやりと仮定することはできません。 内部告発者は、個人的な偏見を抱き、何らかの形のねじれた復讐を求めているか、他の見苦しい動機を念頭に置いている場合があります。   

しかし、それはまた、内部告発者が単に内部告発者として行動したという理由だけで、不満として公理的に汚染されるべきであることを意味するものではありません。 どういたしまして。   

内部告発者のルートに行くことは、多くの点で困難で破滅的である可能性があります。 人は一種の裏切り者としてリストされ、どこへ行っても、人生の他のことをしようとしても、永遠に傷つけられる可能性があります。 内部告発者になることを決定するには、個人的な倫理規定の感覚と、情報提供者またはおとぎ話として知られる可能性とのバランスをとろうとする、かなりの思考が必要です。   

私たちは、個人的な費用にもかかわらず、正しいことをすることを選択し、他の方法では日の目を見ることができなかったであろう実質的な問題を暴露した内部告発者に感謝することができます。 そして、そのような多くの場合、これらのタイプの実証的な問題は、製品を使用している人々に危害を加えるためにすでに不可欠であったか、将来そうなる可能性があります。 内部告発者は一連の出来事を開始することができ、最終的にはこれらの不快な、または完全に嘆かわしい結果を削減または削減しました。   

内部告発者はどのようにして前に出て、いわば本質的に内部告発をしますか?   

内部告発者が不利であると信じる内部の問題を知らせるには、通常XNUMXつの方法があります。 

XNUMXつのアプローチは、いわゆる内部報告内部告発者になることです。これは一般に、内部告発を行う人が、彼らが働いている事業体の範囲内でこれを行うことを意味します。彼らは上司またはマネージャーに懸念をもたらす可能性があります。 おそらく、会社は、書面で安全上の懸念を提出することを伴う正式な内部告発プロセスを持っています。 等々。 

もうXNUMXつのアプローチは、外部開示の内部告発者です。 これは、インサイダーである、またはインサイダーであった人が、彼らが当惑していると感じる内部の側面について外部に話すことを選ぶときです。 その人は何が起こっているかについて記者に話すかもしれません。 その人は、サードパーティの消費者保護団体と話をすることを決定するかもしれません。 等。 

先ほど、自動車や自動車業界にはさまざまな内部告発者がいると述べました。 

米国では、車両安全法(VSA)が、車両に関する考慮事項の文脈における内部告発および内部告発に関する包括的なガイドラインとして機能します。 内部告発者とは正確に何であるかについて与えられた正式なVSAの定義は次のとおりです。「「内部告発者」という用語は、自動車に関する元の情報を長官に自発的に提供する自動車メーカー、部品サプライヤー、またはディーラーの従業員または請負業者を意味します。欠陥、不遵守、またはこの章の通知または報告要件の違反または違反の申し立て。これは、死亡または重大な身体的傷害の不当なリスクを引き起こす可能性があります。」(補足として、参照される長官は運輸長官です。 )。 

外部に問題を明かそうとしている自動車関連の内部告発者の通常の道は、米国運輸省(US DOT)の機関であるNHTSA(国道交通安全局)に連絡することです。 NHTSAの定められた使命は、米国での人命を救い、怪我を防ぎ、車両関連の衝突を減らすことです。   

NHTSA内部告発者プログラムの詳細を説明するウェブサイトによると、「内部告発者は、潜在的な車両の安全性の問題と法律違反に関するNHTSAの重要な情報源です。 車両安全法は、内部告発者の機密性を保護し、NHTSAが内部告発者に金銭的報奨を支払うことを許可します。内部告発者の情報は、法律違反に対する執行措置の解決に成功します。」 

内部告発者プログラムにはさまざまなニュアンスがあります。 あなたまたはあなたが知っている誰かが自動車の問題に関連する内部告発者になることを検討している場合は、その問題について最新の情報を入手してください。 飛躍する前に見るのが最善です。 さらに、VSAに記載されているように、「内部告発者は弁護士によって代表される場合があります。」   

内部告発が保証された提出物と見なされる可能性のある範囲に関して、NHTSAのWebサイトは次のように示しています。「NHTSAは、潜在的な車両の安全上の欠陥、連邦自動車安全基準への違反など、さまざまなトピックに関する情報を内部告発者から受け取ります。および車両安全法の違反。 NHTSAの調査官は、内部告発者から提供された情報を検討します。これは、調査、リコール、民事罰の執行措置などの正式な措置につながる可能性があります。 NHTSAは、内部告発者の機密を保護します。 NHTSAは、法律違反に対する執行措置の解決につながる情報を提供する内部告発者に金銭的報奨を支払う場合があります。」   

車についての内部告発はやや厄介なトピックだと思われるかもしれません。 車についての内部告発は何年もの間行われてきました。   

さて、あなたが十分に考慮しなければならない何か新しいことがあります。   

車の未来は、AIベースの真の自動運転車で構成されています。 

少し詳しく説明させてください。   

真の自動運転車には人間の運転手は関与していません。 真の自動運転車はAI駆動システムを介して運転されることに注意してください。 人間の運転手がハンドルを握る必要はなく、人間が車両を運転するための準備もありません。 

これは、熟考する価値のある興味深い質問です。 AIベースの真の自動運転車の出現について内部告発者に会う予定です。もしそうなら、どのような影響が予想されるでしょうか。   

詳細に入る前に、真の自動運転車について言及するときの意味をさらに明確にしたいと思います。 

AI自動運転車に関する私のフレームワークについては、こちらのリンクを参照してください。 https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/   

なぜこれがムーンショットの努力であるか、私の説明をここで見てください: https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/   

リヒタースケールの一種としてのレベルの詳細については、こちらの説明を参照してください。 https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/ 

レベルの分岐に関する議論については、ここの私の説明を参照してください: https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/   

自動運転車のレベルを理解する 

明確にするために、真の自動運転車とは、AIが完全に自力で車を運転し、運転タスク中に人間の支援がない車のことです。 

これらの自動運転車はレベル4およびレベル5と見なされますが、人間のドライバーが運転努力を共有する必要がある車は通常、レベル2またはレベル3と見なされます。運転タスクを共有する車はセミであると説明されます-自律型であり、通常、ADAS(Advanced Driver-Assistance Systems)と呼ばれるさまざまな自動アドオンが含まれています。   

レベル5の真の自動運転車はまだありません。これが達成できるかどうか、また到達するまでにかかる時間もわかりません。   

一方、レベル4の取り組みは、非常に狭く選択的な公道の試験を実施することで徐々に牽引力を獲得しようとしていますが、この試験自体を許可するかどうかについては論争があります(私たちはすべて実験で生死にかかわるモルモットです)私たちの高速道路や小道で行われている、いくつかの主張)。 

半自律型の車には人間のドライバーが必要なため、これらのタイプの車の採用は、従来の車の運転とそれほど変わらないため、このトピックについて取り上げるのはそれほど新しいことではありません(ただし、次に、次のポイントが一般的に適用されます)。  

半自律走行車の場合、最近発生している不快な側面について、つまり、レベル2またはレベル3の車のホイールで眠りにつく自分のビデオを投稿し続ける人間のドライバーにもかかわらず、一般の人々に事前に警告する必要があることが重要です。 、私たちは、ドライバーが半自律型の車を運転しているときに、運転タスクから注意をそらすことができると信じ込まされないようにする必要があります。   

レベル2またはレベル3に自動化がどれだけ投じられるかに関係なく、あなたは車両の運転行動の責任者です。   

自動運転車の遠隔操縦または操作が一般的に避けられる理由については、ここで私の説明を参照してください: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/   

自動運転車に関する偽のニュースに警戒するには、ここに私のヒントを参照してください: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/   

AI駆動システムの倫理的影響は重要です。ここで私の指摘を参照してください。 https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/   

自動運転車に関しては、逸脱の正規化の落とし穴に注意してください。これが私の武器への呼びかけです。 https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/ 

自動運転車と内部告発者   

レベル 4 とレベル 5 の真の自動運転車では、運転タスクに人間のドライバーは関与しません。 すべての居住者は乗客です。 AIが運転を行っています。   

すぐに議論するXNUMXつの側面は、今日のAI駆動システムに関与するAIが知覚力がないという事実を伴います。 言い換えれば、AIは完全にコンピューターベースのプログラミングとアルゴリズムの集合体であり、人間と同じ方法で推論することは最も確実ではありません。 

なぜこれがAIが知覚力を持たないことを強調したのですか? 

AI駆動システムの役割について議論するとき、私はAIに人間の資質を帰するのではないことを強調したいと思います。 最近、AIを擬人化するという危険な傾向が続いていることに注意してください。 本質的に、人々は今日のAIに人間のような感覚を割り当てていますが、そのようなAIはまだ存在しないという否定できない議論の余地のない事実にもかかわらずです。   

その明確化により、AI運転システムが運転の側面についてネイティブに「認識」しないことを想像できます。 運転とそれに伴うすべては、自動運転車のハードウェアとソフトウェアの一部としてプログラムする必要があります。   

このトピックで遊びに来る無数の側面に飛び込みましょう。   

自動運転車に関連する内部告発の可能性があると考えると、ショックを受けるかもしれません。 

ほとんどの人は、これらの最先端のAI駆動システムを開発し、自動運転車を組み立てるという社内の取り組みは、最高かつ最善の意図を持って行われていると考える傾向があります。 月面着陸への努力、かなり畏敬の念を起こさせる願望に例える人もいます。   

確かに、自動運転車を作るという行為の舞台裏で起こっていることはすべて、完全にボードの上にあり、ハンキーなものです。 危険な自動運転車を作ろうとする人は誰もいないでしょう。 さらに、自動運転車がすべての人にモビリティの時代をもたらし、今日の自動車トランジットに容易にアクセスできない人々がユビキタスモビリティにシームレスにアクセスできるようになることを期待しています。 また、自動運転車は、人が運転する自動車事故による負傷者や死亡者の数を劇的に減らすという信念もあります。   

さて、あなたにショックを与えたくはありませんが、キッチンで起こっていることは、人々に害を及ぼす可能性のある食事を提供する可能性があります。 

自動運転車の取り組みの中には、手抜きをし、上級管理職の緊急入札を行おうとしており、必要と思われるほど多くのダブルチェックとトリプルチェックを行うことができないものがあります。 同様に、開発グループでの自動運転車の開発活動中に、細部への注意の欠如や安全品質の側面の省略や幅木に気付いていない上級管理職もいます。   

それは両方の方法で機能します。   

ある種の競争が起こっていることを覚えておいてください。 

誰が最初に真の自動運転車を手に入れるのでしょうか?   

月に着くのと同じように、この自動運転車を人類にとって「大きな飛躍」にするために、多くの人が最初に乗っています。 数十億ドルの数十億ドルがこれらの自慢の努力に注がれています。 自動運転車の取り組みによる収益はまだほとんどありません。 お金が入っており、奇跡的な何かが現れることが期待されています。   

そのようなプレッシャーの下で、あなたは前進するためにいくつかの要素が短い節約を与えられるかもしれないと想像することができます。 安全面に関する懸念は、バックバーナーに置かれることがあります。 極めて重要と思われるAI駆動システムの機能は、既存のエッジケースまたはコーナーケースのリストに追加できます。つまり、これらは後で処理できると想定される機能です。   

これは、この性質のものが何らかの形で横行している、またはどこにでも見られることを示唆するものではありません。 これは、自動運転車の製造に力を注いでいるすべての人にとって完全に不公平です。 これらは、自動運転車を世界にもたらすことを目指して、毎日力強く努力しているヒーローであり、そうすることで、前述の理想に到達します。   

また、コラムで繰り返し述べたように、ここ数年、自動車メーカーや自動運転車メーカーは、安全に対してはるかに強い姿勢を示しています。 これには、著名な自動車安全の専門家を雇い、安全が何で構成されているかについての理解を高めるための重要で意味のある社内の取り組みを開始したことが含まれます。 さらに、自動運転車会社の多くは現在、内部の「内部告発者」プログラムを持っています。これは通常、安全報告プログラムとしてよりわかりやすく造られており、内部者が自分たちが不快だと感じたときに前に出てもらうことを目的としています。 

表面的な懸念は、あちこちに悪いリンゴのような高圧のガンホーの雰囲気の中に本当のチャンスがあるということです。 明確にするために、悪意のある人がAI駆動システムに悪意のあるものを植え込もうとしているとは限りません(ただし、それは発生する可能性があります)。 AI開発者が全速力で走り回っている場合、いくつかの重要な保護手段を見逃したり、適切な開発ツールを持っていなかったり、圧倒されて人員が不足したりする可能性があります。   

全体として、結果として、隠れたバグや問題がAI駆動システムに侵入した可能性があります。 必ずしも意図的にそうとは限りません。 チェックとバランスが不十分であるという理由だけで、その他の複雑な問題が発生します。   

自動運転車の車両にバックアップの人間ドライバーがいる場合、AI運転システムが行う可能性のある厄介な行動を捕らえるにはこれで十分であると考えられています。 そういう考え方では、食卓に座っている毒見者がいるようなものです。 その人は物事を迷わせる可能性のあるものは何でも捕まえることになっています。   

私のコラムで述べたように、これが問題を捕らえる適切な方法であると誰もが信じているわけではなく、この方法で公道を使用することは完全に不適切であると非難する人もいます。 フードテイスターの例えを使うと、まるで人が食事をしているのと同時にフードテイスターが食事をしているように見えます。 有毒な食品を同時に食べている人にとっては、満足のいく安全形態ではありません。 本質的に、バックアップドライバーは、時間内に不利な運転行為を捕らえない可能性があり、車両は歩行者または人間が運転する車に衝突します。    

また、自動運転車が通りを運転していて、人間のバックアップドライバーなしで運転しているのを見ると、AI運転システムが確実に安全なドライバーになることをどうやって知ることができますか?   

あなたはしません。   

通常の反論は、自動運転車が街の通りを進んでいて誰にもぶつかっていない場合、これはAI駆動システムが正常に機能していることを意味しているに違いありません。ありがとうございます。 確かに、自動運転車に乗り続け、それらの噴出する証言をし続ける人々は、同じカテゴリーに分類される傾向があります。 自動運転車が安全に食料品店に到着したからといって、自動運転車が安全にどこにでも行けるという十分で疑う余地のない証拠が得られると彼らは信じています。   

彼らは古典的な精神的な罠に陥っています。 これは一般的な統計指向の間違いです。 彼らは、彼らのXNUMXつの特定のインスタンスが拡張された一般化をもたらすと想定しています。   

AI運転システムは、歩行者が突然通りに飛び込んだり、自動運転車が時間内に停止しなかったりするような状況が発生する可能性があります(可能性があると仮定します)。 食料品店に足を運んだ人は、歩行者の侵入に遭遇したことがなく、そのような状況で自動運転車がどうなるかわからない。 見えない、心の外。   

NHTSAが自動車全体について述べていることと、適用される可能性のあるホイッスルブローの範囲に戻りましょう。「NHTSAは、潜在的な車両の安全上の欠陥、連邦自動車安全基準への違反など、さまざまなトピックに関する情報をホイッスルブロワーから受け取ります。と車両安全法の違反。」   

伝統的に、この種のスコープは自動車の機械部品に焦点を合わせる傾向があります。   

今日、車は本質的に車輪付きのコンピューターになっています。 このソフトウェアは、車両の安全性の欠陥、コンプライアンス違反、およびVSAの違反を伴うトピックの範囲にますます向きを変えています。   

AI駆動システムのどの領域で、潜在的な問題を予測できるでしょうか? 

まず、センサーを使用して運転シーンに関するデータを収集します。 自動運転車は通常、ビデオカメラ、レーダー、LIDAR、超音波ユニット、熱画像装置などを利用します。 これらはAI駆動システムの目と耳です。 

インサイダーが、彼らが取り組んでいる自動運転車モデル用に選択されたセンサーが、取り扱われていない安全上の懸念を持っていることを知っていると仮定します。 自動運転車がフィールドに入ると、特定の条件下で特定のセンサーが誤ったデータを提供する可能性があります。 このことから、AI駆動システムは何をすべきかを正しく計算するようにプログラムされていない可能性があります。   

公道では悪い結果が生じる可能性があります。   

別の可能な方法は、複数のセンサー間でのデータの融合です。 MSDF(マルチセンサーデータフュージョン)として知られている、おそらく使用されているフュージョン技術は、レーダー入力が別のことを言っていても、ビデオカメラが「正しい」と見なされることに基づいています(フラグを立てたり、追加を要求したりするのではなく、単に不一致を破棄します)試行して解決する手順)。 安全上の懸念は、この形式のプログラミングにどのように組み込まれていますか?   

リストはどんどん続きます。   

AI駆動システムによって維持され、既存および予測された環境を内部的に表す仮想モデルがあります。 そのコードがどのように機能しているかについては、確かに安全上の懸念がある可能性があります。 AI運転システムには、自動運転車の次のアクションを計算するためのアクションプランナー部分があります。 ここでも、安全上の懸念が存在する可能性があります。 NS。   

ODDの詳細については、こちらのリンクをご覧ください。 https://www.aitrends.com/ai-insider/amalgamating-of-operational-design-domains-odds-for-ai-self-driving-cars/ 

オフロード自動運転車のトピックについて、私の詳細は次のとおりです。 https://www.aitrends.com/ai-insider/off-roading-as-a-challenging-use-case-for-ai-autonomous-cars/ 

自動運転の自動車メーカーに最高安全責任者がいる必要があることを私は強く主張しました、これがスクープです: https://www.aitrends.com/ai-insider/chief-safety-officers-needed-in-ai-the-case-of-ai-self-driving-cars/ 

訴訟が次第に自動運転車産業の重要な部分になることを期待してください、ここで私の説明の詳細を見てください: https://aitrends.com/selfdrivingcars/self-driving-car-lawsuits-bonanza-ahead/ 

まとめ 

これが一番下の行です。   

自動運転車が研究室や研究開発の取り組みからますます出現し始めると、それらは公道で使用されるようになります。 道路上のこのような自動運転車の数は増加し始めます。 このような自動運転車の数が増えると、何か不利なことが起こる可能性がいくらか高まる傾向があります。 

これらは通常、ニュースで大きな見出しになります。 

見出しを得る自動運転車の事件には、内部関係者が知っていたかもしれない内部の問題がありましたが、彼らは自分たちが知っていることや真剣に疑っていることについて話さないことに決めましたか?   

自動運転車について内部告発者が出てくる可能性が高いと思います。 

そのようなインスタンスのすべてが有効であるとは限りません。 一部の人はそうするでしょう。   

この影響により、一部の自動車メーカーや自動運転車の技術メーカーは、自分たちが行っていることを再検討する可能性があります。 これらのタイプの内部告発者の報告は、規制当局のさらなる関心を呼び起こすことは確かに期待できます。   

これは一部の人にとっては驚きであり、他の人にとってはまったく驚きではありません。 以前にそのような「キッチン」で働いたことがある人は、道路にやってくる自動運転車のいくつかが恐ろしくて不十分に調理された食事であるとすでに感じています。   

笛が鳴り始めたらわかります。 

Copyright 2021ランス・エリオット博士  

http://ai-selfdriving-cars.libsyn.com/website 

PlatoAi。 Web3の再考。 増幅されたデータインテリジェンス。
アクセスするには、ここをクリックしてください。

出典:https://www.aitrends.com/ai-insider/questionable-practices-at-some-ai-autonomous-car-makers-spurring-whistleblowers/

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?