ゼファーネットのロゴ

AI/ML システムを保護するためにセキュリティを適応させる

日付:

人工知能 (AI) は、ビジネスにおける単なる最新の流行語ではありません。急速に業界を再構築し、ビジネスプロセスを再定義しています。しかし、企業が AI と機械学習 (ML) を自社の業務のあらゆる側面に統合しようと競う中、 新たなセキュリティとリスクの課題。競争上の優位性を達成するためにアジャイル開発の実践に重点が置かれているため、セキュリティは後回しになっています。これは、World Wide Web とモバイル アプリケーションの初期の時代に当てはまりましたが、AI へのスプリントの中で再びそれが見られています。

AI および ML システムの構築、トレーニング、運用の方法は、従来の IT システム、Web サイト、アプリの開発パイプラインとは大きく異なります。従来の IT セキュリティに適用されるリスクの一部は引き続き AI/ML にも関連しますが、次のようなリスクがあります。 いくつかの重要かつ困難な違い。データベースに依存する Web アプリケーションとは異なり、AI アプリケーションは ML モデルを利用します。モデルを構築するプロセスには、データの収集、サニタイズ、改良が含まれます。データに基づいて ML モデルをトレーニングする。次に、それらのモデルを大規模に実行して推論を行い、学習した内容に基づいて反復します。

従来のソフトウェアと AI/ML 開発の分岐点には、主に 4 つの領域があります。これらはそれぞれ、変更された状態と動的状態、ルールと用語と使用と入力、プロキシ環境とライブ システム、およびバージョン管理と来歴の変更です。

オープンソースの AI/ML ツール MLフロー & レイ、モデルを構築するための便利なフレームワークを提供します。しかし、これらのオープンソース ソフトウェア (OSS) ツールやフレームワークの多くは、深刻な悪用や被害につながる可能性のある、すぐに使える脆弱性を抱えています。 AI/ML ライブラリには、保存されている AI/ML ツールと同等の安全性しかない大量のデータとモデルが含まれているため、個別に AI/ML ライブラリ自体がはるかに大きな攻撃対象領域を作成します。これらのツールが侵害されると、攻撃者は複数のツールにアクセスできるようになります。データベースに相当する機密情報を取得し、モデルを変更し、マルウェアを植え付けます。

AI/ML 向けのセキュリティ・バイ・デザイン

従来の IT セキュリティには、AI/ML システムを保護するためのいくつかの重要な機能が欠けています。 1 つ目は、データ サイエンティストが AI/ML システムの構成要素を開発するために使用するツールをスキャンできる機能です。 ジュピターノート & 他のツール AI/ML サプライチェーンにおけるセキュリティ脆弱性。

データ保護は IT セキュリティの中心的なコンポーネントですが、AI/ML ではモデルのトレーニングにライブ データが常に使用されるため、データ保護の重要性がさらに増します。これにより、攻撃者が AI/ML データを操作できるようになり、モデルが破損して意図した機能が実行されなくなる可能性があります。

AI/ML 環境では、データを保護するには、データをモデルにリンクする不変レコードの作成が必要です。したがって、データが何らかの方法で修正または変更された場合、モデルを再トレーニングしたいユーザーは、ハッシュ値 (送信中のデータの整合性を保証するために使用される) が一致しないことに気づくでしょう。この監査証跡は、データ ファイルがいつ編集されたか、そのデータがどこに保存されているかを追跡するためのレコードを作成し、違反があったかどうかを判断します。

さらに、コマンド インジェクションなどのセキュリティ脅威を検出するには、AI/ML モデルのスキャンが必要です。これは、モデルはメモリ内に存在する資産ですが、(同僚に配布するために) ディスクに保存される場合、その形式にコードが挿入される可能性があるためです。したがって、モデルは以前とまったく同じように実行し続けますが、任意のコードが実行されます。

これらの特有の課題を考慮して、考慮すべき有益なベスト プラクティスをいくつか紹介します。

  • 脆弱性の依存関係を見つけます。 コンテキスト化された可視性と強力なクエリ ツールにより、すべての ML システムの幅広いビューをリアルタイムで生成できます。すべての依存関係と脅威のビューを提供するには、AI/ML 開発に関与するすべてのベンダー、クラウド プロバイダー、サプライ チェーン リソースを網羅する必要があります。動的な ML 部品表 (ML BOM) は、すべてのコンポーネントと依存関係をリストすることができ、ネットワーク内のすべての AI/ML システムの完全な出所を組織に提供します。

  • 安全なクラウド権限: モデルが学習のためにそのデータに依存していることを考えると、クラウド コンテナからデータが漏洩すると、AI のセキュリティにおいて致命的な欠陥となる可能性があります。データ損失を防ぐには、クラウド上のスキャン権限が最優先です。

  • データ ストレージのセキュリティを優先します。 統合されたセキュリティ チェック、ポリシー、ゲートを実装して、モデルのセキュリティを強化するためにポリシー違反を自動的にレポートおよび警告します。

  • スキャン開発ツール: 開発オペレーションが開発セキュリティオペレーションに進化したのと同様に、AI/ML 開発でも開発プロセスにセキュリティを組み込む必要があり、すべての AI/ML モデルとデータ入力とともに、開発環境や ML フローなどのツールとその依存関係に脆弱性がないかスキャンする必要があります。

  • 定期的に監査します。 自動化ツールは、AI/ML 環境のタイムスタンプ付きバージョンとして機能する必要な不変台帳を提供できます。これは、違反が発生した場合のフォレンジック分析をサポートし、誰が、どこで、いつポリシーに違反した可能性があるかを示します。さらに、監査は、脅威の状況に対処するための保護を更新するのに役立ちます。

AI に固有のセキュリティ リスクに対処しながら AI の可能性を活用するには、組織は上記のベスト プラクティスの実装を検討し、実装を開始する必要があります。 MLSecOps.

スポット画像

最新のインテリジェンス

スポット画像