ゼファーネットのロゴ

信頼できるAIを通じて金融のイノベーションを推進

日付:

人工知能(AI)は、急速に金融サービス業界にとって不可欠なツールになりつつあります。

責任あるガバナンスは、AIの展開を成功させる上で重要な役割を果たします

InsiderIntelligenceのAIinBankingレポートによると、ほとんどの銀行(80%)は、AIがもたらす潜在的なメリットを十分に認識しています。

この分野でのチャンスは非常に多いですが、AIソリューションには慎重なガバナンスが必要であり、堅牢で公平であることを保証するために適切なチェックとバランスがとられています。

金融サービスにおけるAIツールのアプリケーション

金融におけるAIと機械学習の可能な用途の範囲は、ビジネス機能とセクターにまたがっています。 金融サービスの分野だけでも、AIツールは、ほんの数例を挙げると、顧客サービス、顧客セグメンテーション、不正防止、ローン評価を改善するためにすでに使用されています。

カスタマーサービス: カスタマーサービスに関しては、多くの銀行が24時間年中無休のカスタマーサービスインタラクションを可能にするAIチャットボットを探しています。 これらのボットは、AIと機械学習を使用して、インスタントメッセンジャーインターフェイスを介して顧客の基本的な質問に回答し、迅速に対応し、必要に応じて工作員が確認できるようにユーザー入力を保存します。

その結果、各ユーザーに迅速で関連性のある情報とサポートを提供し、カスタマイズされた対話を促進することができます。 これらのツールがますます洗練されるにつれて、この種のサポートは、より迅速なサポートを受ける顧客と、時間の効率を高めることができる従業員の両方の満足度を高めることができます。

たとえば、アイルランドにある投資管理大手のフィデリティのテクノロジーラボは、AI主導の多言語仮想アシスタントを構築しました。このアシスタントは、同社の30万人を超える投資家のために、自然言語でテキストベースの質問を解析して回答します。

クライアントのセグメンテーション: AIは、人口統計や行動などの共通の特性に基づいて顧客を分割するプロセスであるクライアントセグメンテーションにも適用できます。 ここで、AIはクライアントデータ内のパターンを迅速かつ大規模に検索できます。これにより、手動では達成できない出力を作成できます。

ユーザーセグメントを作成することで、金融マーケターは、適切な製品とサービスで適切な顧客をターゲットにして、アウトリーチに集中することができます。 ユーザーの好みのチャネルとデバイス全体でエクスペリエンスをパーソナライズすること(このセグメンテーションプロセスに組み込むことができるさらなるステップ)も、ブランドエンゲージメントと顧客満足度を大幅に向上させることができます。

たとえば、ドイツ銀行は、AI主導のクライアントセグメンテーションを活用して、クライアント向けのサービスを改善および調整しています。 過去数年にわたって、銀行は証券サービスフランチャイズ全体にAIソリューションの展開を開始し、行動パターンに基づいて特定のタイプのサービスに適したクライアントクラスターを特定するのに役立っています。 フィデリティと同様に、銀行にはAIチャットボットであるDebbieもあり、決済ステータスのクエリなどの顧客の要求にリアルタイムで応答します。

ローン評価と不正防止: この同じパターン認識機能は、AIが、人間には気付かれなかったが不正の存在を示している可能性のある不規則なトランザクションを分析して特定できることを意味します。 これにより、銀行はローンリスクを評価し、支払い詐欺を検出して防止し、マネーロンダリング防止のプロセスを改善するための優れたツールになります。

たとえば、ダブリンで開発されたMastercardのIDチェックソリューションは、機械学習機能を使用して、トランザクションプロセスの一部として150を超える変数を検証し、不正行為を減らし、販売者がオンライン支払いを簡単に受け入れられるようにします。

これらは、AIが金融サービスにすでに適用されている方法のほんの一例です。 テクノロジーが進歩し続けるにつれて、ユースケースの数は増え続けるでしょう。

責任ある措置を講じる

このAIの使用の増加に伴い、システムの堅牢性、公平性、安全性を確保するために、AIの設定方法と適用方法を制御することが重要です。

金融サービスプロバイダーは、データの品質と信頼性を確保する責任があります。 彼らは彼らの技術の意味と影響を理解する必要があります。 AIが一般的に課せられるタスクの複雑さと規模を考えると、モデルがうまくいかない可能性があることは本当の危険です。 必要なガイダンスと適切なトレーニングがなければ、AIは、たとえば、潜在的に損害を与える結果を伴う、無意識のうちに偏った決定につながる応答を出力する可能性があります。

これは単なるリスク管理の演習ではありません。適切かつ明確に伝達された場合、適切なガバナンスを実施することで、ビジネスと忠誠心を高めることもできます。 最近のCapgeminiの調査によると、消費者の62%は、AIが倫理的であると理解されている企業に信頼を置いており、61%はその企業を友人や家族に紹介する可能性が高く、59%はその企業への忠誠心を示しています。

では、企業はAIソリューションが厳密に管理されていることをどのように確認するのでしょうか。 それは、モデルを完全に理解し、コントロールが結果の重要性に比例していることを確認することから始まります。

  1. 説明可能なモデル

この堅牢なガバナンスを確保することは、モデルを理解することから始まります。 AIアルゴリズムが結果を出力するときはいつでも、会社が、顧客、上級管理職、または自分自身に、その結​​果が何を意味し、どのように到達したかを説明できることが重要です。

金融サービスの多くのアプリケーション分野では、人間は、信頼と信頼を構築するためのアルゴリズムに責任を負う重要な意思決定シナリオのループにとどまります。 研究者は、ディープラーニングなどのより複雑で透明性の低い「ブラックボックス」ソリューションと同じくらい効果的に作業しながら、結果の正当化と制限の透明性を提供できるこれらの説明可能なAIアルゴリズムの開発に熱心に取り組んでいます。

金融サービス会社がAIモデルをラボから外の世界に移動するとき、システムのループに人間の工作員のチームを配置し、入力と結果を監視および分析し、ツールが処理、学習、および正しく、期待どおりに実行されます。

MLOps(機械学習モデルの運用管理)などの新しいソフトウェアエンジニアリング手法は、ラボから本番環境への機械学習ソリューションの提供を合理化することに重点を置いています。 結果の潜在的な劣化や予期しない問題の発見を防ぐには、AIモデルを長期にわたって適切に監視および保守することが重要です。

たとえば、スタンフォード大学とシカゴ大学の研究者は、実際の住宅ローンデータの調査を実施し、少数派と多数派のグループ間の住宅ローン承認の違いは、偏見だけでなく、少数派と低所得者の事実にもあることを発見しました。グループの信用履歴データが少ないため、アルゴリズムがローンのデフォルトのリスクを予測することがより困難になります。 この調査は、AIモデルの信頼性を社内、一般の人々、規制当局に保証する際に企業が直面する課題を示しています。

  1. マテリアリティ

AIモデルが受ける精査のレベルも、その出力の結果に合わせて調整する必要があります。 これは、「マテリアリティ」と呼ばれる概念に基づいています。つまり、誤ったAI出力に関連する悪影響の重大度です。

たとえば、AIツールがローンやクレジットカードなどの人生を変える施設への人々のアクセスを決定する場合、マーケティングや販売のターゲティングを支援するために顧客をさまざまなセグメントに分類する場合よりも、重要性が高くなります。 ここでの単純な原則は、AI出力の重要性が増すにつれて、結果が正しいことを保証するための管理の厳格さも増す必要があるということです。

この点で最も基本的な制御は、説明可能なモデルが必要であるという最初のポイントに戻ります。 人間は、AIモデルがどのように機能し、その結果を導き出すかを説明できる必要があります。 そして、アウトプットの重要性が高まるにつれて、そのモデルに関連する説明可能性の負担が段階的に高まります。

このリスクの段階的変化は、AIシステムをXNUMXつのカテゴリに分類するAIに関するEU規則草案に反映されています。許容できないリスク(社会的スコアリングシステムなど)。 高リスク(例、クレジットスコアリング); 限られたリスク(例:顧客のセグメンテーション)。 金融サービスにおけるほとんどのAIアプリケーションはリスクの高いカテゴリに分類される可能性が高く、企業は新しい規制の施行に先立って規制の準備を整えることをお勧めします。

明るい未来

AIアプリケーションがより強力で普及するにつれて、優れたガバナンスと効果的な制御がますます重要な役割を果たすようになります。 これらの責任を損なうことなくAIアプリケーションをテーブルに持ち込むことは、これらのモデルがどのように機能するか、それらが意思決定プロセスにどのように寄与するか、どのようなリスクが関係するか、システムのエラーの影響がどれほど大きいかを常に把握することを意味します。

AIの旅に着手する企業にとっての自然な最初のステップは、重要性の低いソリューションに焦点を当て、より野心的なソリューションのより高いレベルのリスクを軽減するために、ガバナンスが適切に強力で「ロードテスト」されていることを確認することです。

金融サービスにおけるAIの明るい未来を期待できます。ソリューションの責任あるガバナンスは、AIの展開を成功させる上で重要な役割を果たします。 モデルをタスクに厳密に保ち、偏見やエラーがないようにすることで、すべての人にとって最良の結果が保証されます。

スポット画像

最新のインテリジェンス

スポット画像