ゼファーネットのロゴ

説明可能なAIに向けて取り組む

日付:

「世界で最も理解しにくいのは所得税です。」 この引用
相対性理論を思いついた人から来ています–正確には
理解するのが最も簡単な概念。 そうは言っても、彼がもう少し長生きしていたら、アルバート
アインシュタインは「所得税」の代わりに「AI」と言ったかもしれません。

アインシュタインは、最初の人工知能プログラムと見なされるものの1955年前のXNUMX年に亡くなりました– 論理理論家 –で発表されました 人工知能に関するダートマスサマーリサーチプロジェクト。 それ以来、思考機械の一般的な概念は、ロビー・ザ・ロボットからHALまで、人気のあるエンターテインメントの定番になりました。 しかし、AIの本質的な詳細は、少なくともほとんどの人にとって所得税と同じくらい理解するのが難しいままです。 今日、 AIの説明性 問題は、専門家の才能さえもテストして、解決するのが難しいままです。 問題の核心は、これに対する有用な答えを見つけることです。AIはどのようにして結論と予測に到達するのでしょうか?

分析と機械学習を使用して、ビジネス上の問題を解決します

オンライントレーニングプログラムですぐに行動に移せる新しい分析と機械学習のスキルを学びましょう。

深く設計するには多くの専門知識が必要です ニューラルネットワーク さらに、効率的に実行するために–「実行しても、説明するのは困難です」と、のCEOであるSheldonFernandezは述べています。 ダーウィン。 同社のGenerativeSynthesis AI支援設計プラットフォーム、 GenSynthは、ニューラルネットワークの動作(決定する理由を決定する理由)について詳細な洞察を提供し、開発者が独自の深層学習モデルを改善できるように設計されています。  

の「ブラックボックス」を開く AIは重要です テクノロジーがますます多くの産業に影響を与えるにつれて、ヘルスケア、金融、製造業。 「何かがどのように決定に達するかわからない場合、それがどこで失敗するか、そして問題を修正する方法もわかりません」とフェルナンデスは言います。 GDPRのような法律では、自動化された意思決定について説明する権利が人々に求められていることを考えると、規制上の義務は、機械学習モデルの結果についてある程度の説明を提供できるようにするための推進力であるとも述べています。

ビッグプレーヤーはAIの説明性に焦点を当てています

説明可能性の問題(解釈可能性の問題としても知られています)は、テクノロジーの大物にとって焦点となっています。 XNUMX月、GoogleはAIの解釈可能性を改善する次のステップを発表しました。 Google CloudAIの説明、これは、機械学習モデルの出力に対する各データ要素の寄与を定量化します。 これらの要約は、モデルが決定を下した理由を企業が理解するのに役立ちます。これは、モデルをさらに改善したり、モデルの消費者と有用な洞察を共有したりするために使用できる情報です。

「説明可能なAIにより、エンタープライズコンテキストまたはエンタープライズビジネスプロセスでAIを使用しているお客様は、AIインフラストラクチャが特定の結果を生み出した理由を理解できます」とGoogleCloudのCEOであるThomasKurianは述べています。 「たとえば、クレジットスコアリングにAIを使用している場合、「モデルが特定のクレジット申請を拒否し、別の申請を受け入れなかったのはなぜですか」を理解できるようにする必要があります。 説明可能なAIは、それを理解する能力を提供します。」

XNUMX月、Facebookは発表しました キャプタム、ディープラーニングフレームワークPyTorchを使用してニューラルネットワークによって行われた決定を説明するためのツール。 「Captumは、特定のニューロンと層の重要性がモデルによる予測にどのように影響するかを理解するための最先端のツールを提供します」とFacebookは述べています。

AmazonのSageMakerデバッガー セージメーカー 同社によれば、機械学習モデルを構築、実行、デプロイするためのマネージドサービスは、モデルがどのように機能しているかを解釈し、「モデルの説明可能性に向けた初期段階を表します」とのことです。 デバッガーは、Amazonが先月発表したSageMakerのツールアップグレードのXNUMXつでした。 

どこまで
説明可能なAIは来ましたか?

2019月のNeurIPSXNUMXで、DarwinAIは 学術研究 企業がAIによって生成された説明をどのように信頼できるかという問題について。 論文で説明された研究、 説明は決定を反映していますか? 説明可能性アルゴリズムのパフォーマンスを定量化するための機械中心の戦略は、深い畳み込みニューラルネットワークでの説明可能性手法のパフォーマンスを定量化するためのよりマシン中心の戦略を検討しました。

調査の背後にあるチームは、クリティカルの重要性を定量化しました
によって行われた特定の決定のための説明可能性の方法によって識別された要因
通信網; これは、特定された要因の影響を調査することによって達成されました
決定と決定への自信。

LIME、SHAP、Expected Gradients、およびそのGSInquire独自の手法、分析などの説明可能性手法でこのアプローチを使用すると、次のようになります。

「画像分類などの視覚タスクの場合、LIMEやSHAPなどの最も一般的で広く使用されている方法のいくつかは、ディープニューラルネットワークが活用しているものを期待したほど反映されない可能性がある説明を生成する可能性があることを示しました決定を下すために。 期待されるグラジエントやGSInquireなどの新しいメソッドは、一般的なシナリオで大幅にパフォーマンスが向上しました。」

とは言うものの、紙は
説明性の領域の改善。 

AIは
信用

ガートナーは最近、説明性の問題に取り組んだ レポート, エンタープライズAIガバナンスと倫理的対応におけるクールなベンダー。 「「AIの採用は、ガバナンスの欠如と意図しない結果に関連する問題によって阻害されています」と調査会社は述べています。 クールなベンダーとしてDarwnAIと名付けられています。 フィドラーラボ, ケンサイ, キンディ & ルキッド 組織がAIソリューションのガバナンスと説明性を向上させるのに役立つ新しいアプローチを適用したことに対して。

Gartnerによると、プロファイルされた企業は、さまざまなAI技術を使用して、「ブラックボックス」MLモデルをより理解しやすく透明性の高い「ガラスボックス」モデルに変換しています。

「AIベースのソリューションを信頼する能力は、リスクを管理するために重要です」とレポートは述べ、データおよび分析プログラムの一部としてAIイニシアチブの責任者に、「自由と創造性をサポートする適応型ガバナンスと説明可能性を提供するAIプラットフォームの使用を優先するようにアドバイスしています。データサイエンスチームで、また組織を評判や規制のリスクから保護するために。」

ガートナー
2022年までに、透明性が組み込まれたエンタープライズAIプロジェクトは
CIOから資金を得る可能性が100%高くなります。

説明可能
すべての人のためのAI

説明性は、ソフトウェア開発者を支援するためだけのものではありません
コンピュータプログラムが何をしているのかを技術レベルで理解する
は機能しませんが、ある意味で意思決定に影響を与える要因を説明するためにも
技術者以外のユーザーにとっては理にかなっている、とフェルナンデス氏は言います–なぜ彼らの住宅ローン
たとえば、拒否されました。 それは「リアルタイムの説明可能性」です。

そのニーズをサポートすることは、
消費者は、日常の取引でAIにますます触れられています。
フォロワーは、次のようなアーリーアダプター業界に続いて登場しています。
自動車、航空宇宙、および家庭用電化製品。 「彼らは理解し始めています
AIへの投資は実存的な必需品になりつつあります」と述べています。
フェルナンデス。

AIはすでに金融サービス業界を変革していますが、まだその隅々まで到達していません。 それは変わり始めています。 例として、フェルナンデスは、最も保守的なプレーヤーでさえメッセージを受け取っていることを指摘しています。

「カナダの銀行が新しいテクノロジーを採用することはめったにありませんが、消費者との関連性とビジネスのやり方に迅速に対応する必要があることを知っているビッグファイブのうちのXNUMX社と話し合っています。」

DarwinAIは、ソリューションを大幅に強化する計画を立てています
今後数か月の新製品による説明能力。

からのライセンスの下で使用される画像
Shutterstock.com

スポット画像

最新のインテリジェンス

スポット画像