ゼファーネットのロゴ

ML ベースのカバレッジ アクセラレーション。 検証の革新

日付:

2022 年 8 月に、ML ベースのカバレッジ アクセラレーションに関する別の論文を参照しました。これは、IBM とは別の角度から見たものです。 Paul Cunningham (Senior VP/GM、Cadence の Verification)、Raúl Camposano (Silicon Catalyst、起業家、元 Synopsys CTO、現在 Silvaco CTO) と私は研究アイデアに関するシリーズを続けます。 いつものように、フィードバックを歓迎します。 そして、1 月 XNUMX 日の最初のパネル (午前 XNUMX 時) の DVCon で私たちに会いに来ることを忘れないでください。st 2023年サンノゼ!

ML ベースのカバレッジ アクセラレーション

イノベーション

今月のおすすめは カバレッジ クロージャ アクセラレーションのための DNN とスマート サンプリングの使用. 著者は、2020 MLCAD ワークショップで論文を発表し、ハイファの IBM Research とカナダの BC 大学に所属しています。

作成者の意図は、めったにヒットしないイベントのカバレッジを改善することです。 彼らは、IS シミュレーター用に改良された命令セット (IS) テスト テンプレートに基づいて、CPU 設計の方法を示します。 この論文で特に興味深いのは、従来の勾配ベースの比較が問題となる、非常にノイズの多い低統計データで最適化を管理する方法です。 彼らは、この課題を克服するためのいくつかの方法を提案しています。

ポールの見解

これは、DNN を使用して CPU 検証のランダム命令ジェネレーターを改善することに関する別の論文です。Arm ベースのサーバーと RISC-V の台頭により、業界でますますホットな話題になりつつあります。

この論文は、ランダム命令のカバレッジを改善するためのベースラインの非 DNN メソッドを文書化することから始めます。 この方法は、命令ジェネレーターのパラメーターをランダムに微調整し、カバレッジが向上する場合は微調整をバンクすることで機能します。 微調整プロセスは、暗黙的フィルタリングと呼ばれる勾配のない数値法に基づいています (次を参照)。 こちら これは、ズームアウトしてからズームインする検索のようなものです。大きなパラメーターの調整から始めて、大きな調整でカバレッジが改善されない場合は、小さなパラメーターの調整にズームインします。

次に著者らは、DNN を使用してベースライン手法を加速し、パラメータの微調整によってカバレッジが改善されるかどうかを評価してから、コストのかかる実際のシミュレーションを実行してカバレッジを正確に測定します。 DNN は、実際のシミュレーションの各バッチの後に再トレーニングされるため、継続的に改善されています。

この論文はよく書かれており、その方法の正式な正当化が明確に説明されています。 結果は、IBM NorthStar プロセッサの 5 つの算術パイプ (8 つの命令と 100 つのレジスタ) で表示されます。 これは単純なテストケースであり、シミュレーションは 185 のカバー ポイントのみを測定する XNUMX クロック サイクルだけ実行されます。 それにもかかわらず、結果は、DNN ベースの方法がベースラインの暗黙的フィルタリング方法の半分の数のシミュレーションですべてのカバー ポイントをヒットできることを示しています。 良い結果です。

ラウルの見解

ポールが言うように、私たちは以前に取り上げたトピックを再検討しています. 2022 年 2021 月に、Control-Data-Flow-Graph をニューラル ネットワークに組み込んだ Google の論文をレビューしました。 XNUMX 年 XNUMX 月にさかのぼって、私たちは U. Gainesville の論文をレビューし、Concolic (Concrete-Symbolic) テストを使用して到達困難なブランチをカバーしました。 今月の論文では、テスト テンプレート、ランダム サンプリング、暗黙的フィルタリング (IF) をディープ ニューラル ネットワーク (DNN) モデルと組み合わせた、カバレッジ指向のテスト生成のための新しいアルゴリズムを紹介します。 考え方は次のとおりです。

カバレッジ指向の生成で一般的であるように、このアプローチではテスト テンプレート (ランダムなテスト生成を導く一連のテスト パラメーターの重みのベクトル) を使用します。 暗黙的フィルター処理 (IF) は、特定のイベントにヒットする可能性を最大化するための初期推測に関するグリッド検索手法に基づく最適化アルゴリズムです。 複数のイベントをカバーするために、IF プロセスは、パラメーター アフター パラメーター アプローチ (PP) と呼ばれるイベントごとに単純に繰り返されます。 IF プロセスを高速化するために、IF プロセス中に収集されたデータを使用して DNN をトレーニングします。これは、シミュレーターを近似し、すべてのテスト ベクトルをシミュレートするよりもはるかに高速です。

アルゴリズムの有効性は、NorthStar プロセッサの一部の抽象的な高レベル シミュレータを使用して評価されます。 ランダム サンプリング、PP、DNN、および IF と DNN の組み合わせの XNUMX つのアルゴリズムが比較されます。 XNUMX つの実験の結果が報告されています。

  1. 一定数のテスト テンプレートを使用してアルゴリズムを実行します (最大 400 回まで)。 IF と DNN の組み合わせは優れており、ヒットしにくいイベントの最大 1 分の 3 しか逃しません。
  2. ヒットしにくいイベントがすべてカバーされるまで、アルゴリズムを実行します。 IF と DNN はテスト テンプレートの半分の数で収束します
  3. 最後のアルゴリズム (IF および DNN) を 5 回実行します。 すべての実行は、他のアルゴリズムよりも 30% 少ないテスト テンプレートを使用する最悪の場合でも、同様の数のテスト テンプレートに収束します。

これは、この分野の関連する問題についてよく書かれた論文です。 それは (ほぼ) 自己完結型であり、従うのは簡単で、採用されているアルゴリズムは再現可能です。 その結果、「2倍程度のシミュレーション回数」 暗黙のフィルタリングを介して。 これらの結果は、NorthStar という比較的単純な実験に基づいています。 追加の実験と結果を見たいと思っていました。 一部は他の場所で見つけることができます 出版物 著者による。

この投稿を共有する:

スポット画像

最新のインテリジェンス

スポット画像