ゼファーネットのロゴ

堅牢な機械学習システムを構築するためのDeepMindのXNUMXつの柱

日付:

堅牢な機械学習システムを構築するためのDeepMindのXNUMXつの柱

仕様テスト、堅牢なトレーニング、正式な検証は、AI 大手が堅牢な機械学習モデルの本質を保持すると信じている XNUMX つの要素です。


私は最近、AI教育に焦点を当てた新しいニュースレターを始めました。 TheSequenceは、BS(誇大広告、ニュースなどを意味しません)を読むのに5分かかるAIに焦点を当てたニュースレターです。 目標は、機械学習プロジェクト、研究論文、および概念を最新の状態に保つことです。 以下のサブスクライブして試してみてください:

画像

機械学習システムの構築は、ライフサイクルの多くの側面において従来のソフトウェア開発とは異なります。 テスト、デバッグ、トラブルシューティングのための確立されたソフトウェア手法は、機械学習モデルに適用するとまったく実用的ではありません。 Web サイト、モバイル アプリ、API などの従来のソフトウェア コンポーネントの動作はコードによってもっぱら決定されますが、機械学習モデルは特定のデータセットに応じて時間の経過とともに知識を進化させます。 堅牢な機械学習エージェントをどのように定義して作成するかは、この分野全体にとっての存続上の課題の XNUMX つです。 昨年、DeepMind の人工知能 (AI) 研究者が そのトピックに関するいくつかのアイデアを公開しました.

堅牢なソフトウェアの作成について考えるとき、事前に定義された一連の仕様に従って動作する XNUMX つのコードがすぐに思い浮かびます。 機械学習の場合、正しい仕様や堅牢な動作について確立された定義はありません。 一般に受け入れられている方法は、特定のデータセットを使用して機械学習モデルをトレーニングし、別のデータセットを使用してテストすることです。 このアプローチは、両方のデータセットで平均を上回る動作を達成するため非常に効率的ですが、エッジケースになると必ずしも効率的であるとは限りません。 これらの課題の典型的な例は、人間の目にはまったく知覚できない小さな変動を入力データセットに導入することによって完全に破壊される可能性がある画像分類モデルに見られるものです。

機械学習モデルの堅牢性の概念は、データセットのトレーニングやテストに対して優れたパフォーマンスを発揮するだけでなく、システムの望ましい動作を記述する事前定義された仕様セットに従って動作する必要もあります。 前の例を使用すると、要件仕様では、敵対的な摂動や特定の安全制約セットに対する機械学習モデルの予想される動作を詳細に説明できます。
堅牢な機械学習プログラムを作成するには、正確なトレーニング データセットから効率的な最適化手法に至るまで、多くの側面を組み合わせる必要があります。 ただし、これらのプロセスのほとんどは、DeepMind の研究の中核を構成する XNUMX つの主要な柱のバリエーションとしてモデル化できます。

投稿用画像
 

  1. 仕様との一貫性のテスト: 機械学習システムが、システムの設計者やユーザーが望む特性 (不変性や堅牢性など) と一致していることをテストする手法。
  2. 仕様に一貫性があるように機械学習モデルをトレーニングする: たとえ大量のトレーニング データがある場合でも、標準的な機械学習アルゴリズムは、堅牢性や公平性などの望ましい仕様と矛盾する予測を行う予測モデルを生成する可能性があります。これには、トレーニング データによく適合するだけでなく、仕様のリスト。
  3. 機械学習モデルが仕様に一貫性があることを正式に証明する: モデルの予測が、考えられるすべての入力に対する関心のある仕様と明らかに一致していることを検証できるアルゴリズムが必要です。 形式的検証の分野では数十年にわたってそのようなアルゴリズムを研究してきましたが、これらのアプローチは、目覚ましい進歩にもかかわらず、現代のディープラーニングシステムに簡単に拡張できません。

仕様のテスト

 
敵対的な例は、特定の仕様セットに対して機械学習モデルの動作をテストするための優れたメカニズムです。 残念ながら、敵対的トレーニングに関連する研究のほとんどは画像分類モデルに限定されています。 これらのアイデアの一部を強化学習などのより一般的な領域に拡張すると、機械学習モデルの堅牢性をテストするための汎用メカニズムが提供される可能性があります。

敵対的トレーニングのアイデアのいくつかに従って、DeepMind は RL エージェントの敵対的テストのための XNUMX つの補完的なアプローチを開発しました。 最初の手法では、微分を含まない最適化を使用して、エージェントの期待される報酬を直接最小化します。 XNUMX 番目の方法では、どの状況がエージェントに障害を引き起こす可能性が最も高いかを経験から予測する敵対的価値関数を学習します。 学習された関数は最適化に使用され、最も問題のある入力に焦点を当てて評価されます。 これらのアプローチは、潜在的なアルゴリズムの豊かで成長しつつある空間のほんの一部を形成するにすぎず、私たちはエージェントの厳密な評価における将来の開発に興奮しています。

敵対的アプローチは、強化学習エージェントにおける従来のテスト方法に比べて明らかな改善を示しました。 敵対的テストにより、通常は気づかれないエラーが発見されると同時に、トレーニング データセットの構成に基づいて予期されなかったエージェントの定性的な動作も明らかになりました。 たとえば、次の図は、3D ナビゲーション タスクにおける敵対的トレーニングの効果を示しています。エージェントが人間レベルのパフォーマンスを達成できたとしても、非常に単純なタスクでは依然として失敗する可能性があることが、敵対的トレーニングによって示されています。

仕様トレーニング

 
敵対的テストはエラーを検出するのに非常に効果的ですが、それでも所定の仕様から逸脱する例を発見することはできません。 機械学習の観点から要件の概念を考えると、要件は入力と出力の間の数学的な関係としてモデル化できます。 そのアイデアを使用して、DeepMind チームは、下限と上限を使用して、特定の仕様を持つモデルの一貫性を幾何学的に計算するメソッドを作成しました。 間隔境界伝播として知られる DeepMind の方法は、次の図に示すように、ネットワークの各層にわたって評価できる境界ボックスに仕様をマップします。 この手法は、さまざまな機械学習モデルにわたって証明可能なエラー率を減少させることが証明されています。

正式な検証

 
正確なテストとトレーニングは、機械学習モデルの堅牢性を実現するために必要な手順ですが、システムが期待どおりに動作することを保証するには十分ではありません。 大規模モデルでは、入力摂動の選択肢が天文学的に多いため、特定の入力セット (たとえば、画像に対する微小な摂動) に対して考えられるすべての出力を列挙することは困難です。 形式的検証技術は、特定の仕様に基づいて幾何学的境界を設定するための効率的なアプローチを見つけることに焦点を当てた活発な研究分野です。

DeepMind は最近、検証対象のプロパティの最大の違反を見つけようとする最適化問題として検証問題をモデル化する形式的検証手法を開発しました。 この手法は、特定のプロパティに対するこれ以上の違反がないことを間接的に保証する正しい境界を見つけるまで、数回反復されます。 DeepMind のアプローチは、当初は強化学習モデルに適用されていましたが、他の機械学習手法にも非常に簡単に一般化できます。

テスト、トレーニング、仕様の正式な検証の組み合わせが、堅牢な機械学習モデルの実装の XNUMX つの重要な柱を構成します。 DeepMind のアイデアは優れた出発点ですが、これらのコンセプトが、機械学習モデルに関連する仕様のモデリングと検証を可能にする機能的なデータセットまたはフレームワークに進化することを期待する必要があります。 堅牢な機械学習への道も機械学習によって可能になります。

 
元の。 許可を得て転載。

関連する

出典: https://www.kdnuggets.com/2020/08/deepmind-three-pillars-building-robust-machine-learning-systems.html

スポット画像

最新のインテリジェンス

スポット画像