ゼファーネットのロゴ

ローカルデバイス上で実行できる 15 個以上の最小 LLM

日付:

概要

クラウド サービスや強力なサーバーに依存せずに、パーソナル コンピューターやモバイル デバイス上で高度な言語モデルの力を活用できることを想像してみてください。信じられないですね。そうですね、これらの小さな言語モデルがこの夢を現実にします。 NLP では、人間と同じようにテキストを同化して作成する巨大な言語モデルの出現を観察してきました。多くの場合、結果は驚くべきものになりますが、計算要件も同様に大きくなります。その結果、処理センターの外でそれらを実行することが困難になります。しかし、それは急速に変化しています!良いニュースは、研究者とエンジニアが、ローカル デバイス上で実行するのに十分で、あらゆる有用なタスクに適用できる十分なパワーを備えた小型 LLM の作成に心血を注いでいたことです。

この記事では、自分のデバイスで快適にローカルで実行できる、最小かつ強力な言語モデルについて説明します。これらのコンパクトな驚異は、パフォーマンスとリソース効率の完璧なバランスを実現し、開発者、研究者、愛好家などに可能性の世界を開きます。

最小の LLM

目次

小規模 LLM の利点は何ですか?

大規模な言語モデルと比較して、小規模な LLM (大規模言語モデル) を使用する主な利点をいくつか示します。

  1. より低いハードウェア要件: 小型 LLM はパラメータが大幅に少なく、必要な計算能力も少ないため、ラップトップ、スマートフォン、組み込みシステムなど、ハードウェア リソースが限られたデバイスでの実行に最適です。これにより、LLM がよりアクセスしやすくなり、より広範囲のユーザーやアプリケーションが LLM を使用できるようになります。
  2. より高速な推論: パラメーターが少なく、モデル サイズが小さいため、小規模 LLM はより高速な推論を実行できます。これは、応答時間が短縮され、レイテンシが低下することを意味します。これは、次のようなリアルタイム アプリケーションにとって特に重要です。 会話型AI、ここでは応答性が重要です。
  3. エネルギー消費の低減、エネルギー消費量の削減: 小型モデルは、動作に必要なエネルギーが少なくなるため、エネルギー効率が高く、環境に優しいものになります。これは、エネルギー効率が重要なバッテリー駆動のデバイスにとって特に有益です。
  4. より簡単な導入と移植性: 小型 LLM は、サイズがコンパクトであるため、展開と配布が容易です。特殊なハードウェアや大規模なインフラストラクチャを必要とせずに、さまざまなアプリケーションやシステムに統合できます。この移植性により、より広範な導入が可能になり、より分散化されたエッジベースのアプリケーションの開発が可能になります。
  5. プライバシーとデータ主権: 小規模な LLM をローカルで実行することにより、ユーザーは自分のデータに対するより優れた制御を維持し、リモート サーバーやクラウド プラットフォームに機密情報を送信する必要性を減らすことができます。これは、プライバシーの問題に対処し、データ保護規制を遵守するのに役立ちます。
  6. 費用対効果: 一般に、モデルが小さいほど必要な計算リソースが少なくなり、特にクラウド プラットフォームやレンタル ハードウェアで実行する場合、運用コストの削減につながります。この費用対効果により、 LLM 小規模な組織や個人の開発者にとってテクノロジーが利用しやすくなります。
  7. 特殊なアプリケーション: 小さなモデルは、一般的なタスクでは大きなモデルと同じレベルのパフォーマンスを達成できない可能性がありますが、特定のアプリケーションやドメインに合わせて微調整および最適化することができ、これらの特殊な領域では大きなモデルを上回るパフォーマンスを発揮する可能性があります。

小規模 LLM の利点には、大規模な LLM と比較してパフォーマンスと機能のトレードオフが伴うことに注意することが重要です。ただし、小規模 LLM はリソース効率、移植性、費用対効果の点で優れているため、ハイエンドのパフォーマンスが重要な要件ではない多くのアプリケーションにとって魅力的な選択肢となります。

ローカルデバイス上で実行できる最小のLLM

蒸留BERT

  • モデルサイズ: 基本バージョンには約 66 万のパラメータがあり、BERT の 110 億 XNUMX 万のパラメータよりも大幅に小さいです。
  • 説明: DistilBERT は BERT モデルの改良版であり、BERT のパフォーマンスのほとんどを維持しながら、より小型で高速になるように設計されています。知識の蒸留技術を使用して大規模な BERT モデルを小さなバージョンに圧縮し、ローカル デバイスへの展開をより効率的かつ簡単にします。
  • ハードウェア要件: DistilBERT はコンパクトなサイズなので、ラップトップ、デスクトップ、さらにはハイエンドのモバイル デバイスを含むさまざまなローカル デバイス上で実行できます。

ハグフェイスリンク: 蒸留BERT

タイニーバート

  • モデルサイズ: TinyBERT-4 には約 14M のパラメーターがあり、TinyBERT-6 には約 67M のパラメーターがあります。
  • 説明: TinyBERT は、カーネギー メロン大学と Google Brain の研究者によって開発された BERT のさらにコンパクトなバージョンです。レイヤーワイズやアテンション蒸留などの高度な技術を使用して、さまざまな NLP タスクで競争力のあるパフォーマンスを維持しながら大幅なモデル圧縮を実現します。
  • ハードウェア要件: TinyBERT は非常に小さいサイズなので、ローエンドのラップトップ、組み込みシステム、モバイル デバイスなど、幅広いローカル デバイスで実行できます。

ハグフェイスリンク: タイニーバート

モバイルBERT

  • モデルサイズ: MobileBERT には約 25 万のパラメータがあり、元の BERT ベースよりも大幅に小さくなります。
  • 説明: MobileBERT は、モバイルおよびエッジ デバイス向けのコンパクトで効率的な BERT モデルです。知識の蒸留や量子化などの手法を使用して、幅広い NLP タスクで高いパフォーマンスを維持しながらモデルのサイズを削減します。
  • ハードウェア要件: 名前が示すように、MobileBERT はモバイル デバイスやその他のリソースに制約のある環境で実行するために最適化されています。

ハグフェイスリンク: モバイルBERT

ALBERT

  • モデルサイズ: 構成によって異なります。最も小さいものの 12 つは、12 層と XNUMX 個のアテンション ヘッドを備えた ALBERT ベースです。
  • 説明: ALBERT (A Lite BERT) は、メモリを効率的に使用し、推論を高速化するように設計されています。クロスレイヤーのパラメータ共有メカニズムと、埋め込みサイズの削減が特徴です。オリジナルの BERT よりも軽量でありながら、さまざまな NLP タスクに効果的です。
  • ハードウェア要件: ALBERT は効率的な設計により、適度な処理能力を備えたさまざまなローカル デバイス上で実行できます。

ハグフェイスリンク: ALBERT

GPT-2 小

  • モデルサイズ: GPT-2 Small には約 117 億 2 万のパラメータがあり、より大きな GPT-XNUMX モデルよりも大幅に小さいです。
  • 説明: GPT-2 Small は、OpenAI によって開発された人気のある GPT-2 (Generative Pre-trained Transformer 2) モデルの小型バージョンです。 GPT-2 Small は他のモデルほどコンパクトではありませんが、それでも比較的軽量であり、テキストの生成、要約、言語モデリングなどのタスクに使用できます。
  • ハードウェア要件: GPT-2 Small は、ミッドレンジのラップトップやデスクトップなど、中程度のハードウェア仕様を備えたパーソナル コンピュータで実行できます。

ハグフェイスリンク: GPT-2 小

デシコーダー-1B

  • モデルサイズ: 1億パラメータ
  • 説明: DeciCoder-1B は、コードの生成と理解に重点を置いた言語モデルです。コード補完、プログラミング言語間の翻訳、コードの説明などのコーディング タスクを支援します。これは、ソース コードと自然言語記述の大規模なコーパスに基づいてトレーニングされます。
  • ハードウェア要件: DeciCoder-1B はパラメータ サイズが 1 億と比較的小さいため、ラップトップ、デスクトップ、および潜在的にハイエンドのモバイル デバイスやシングルボード コンピュータなどのさまざまなローカル デバイス上で実行できます。

ハグフェイスリンク: デシコーダー – 1B

ファイ-1.5

  • モデルサイズ: 1.5億パラメータ
  • 説明: Phi-1.5 は、テキストの生成、質問への回答、自然言語やその他の NLP タスクの理解が可能な汎用言語モデルです。微調整やプロンプトを通じて、さまざまなドメインやタスクに適応するように設計されています。
  • ハードウェア要件: Phi-1.5 は 1.5 億のコンパクトなパラメータ サイズにより、ラップトップ、デスクトップ、および潜在的にハイエンドのモバイル デバイスやシングルボード コンピューティング デバイスなど、適度なコンピューティング リソースを備えたローカル デバイスに導入できます。

ハグフェイスリンク: ファイ-1.5

ドリー-v2-3b

  • モデルサイズ: 3億パラメータ
  • 説明: Dolly-v2-3b は、さまざまなタスクにわたる詳細な複数ステップのプロンプトと指示を理解して実行することに優れた、指示に従う言語モデルです。
  • ハードウェア要件: パラメータが 3 億ある Dolly-v2-3b には、ハイエンドのラップトップ、デスクトップ、ワークステーションなど、中程度から高度のコンピューティング能力を持つローカル デバイスが必要です。

ハグフェイスリンク: ドリー-v2-3b

StableLM-Zephyr-3B

  • モデルサイズ: 3億パラメータ
  • 説明: StableLM-Zephyr-3B は、信頼性の高い真実の応答を提供するようにトレーニングされた言語モデルです。さまざまな自然言語処理タスクに対して、安定した信頼できるモデルとなるように設計されています。
  • ハードウェア要件: Dolly-v2-3b と同様に、3 億パラメータの StableLM-Zephyr-3B は、ハイエンドのラップトップ、デスクトップ、ワークステーションなど、中程度から高度のコンピューティング能力を持つローカル デバイス上で実行できます。

ハグフェイスリンク: StableLM-Zephyr-3B

デシLM-7B

  • モデルサイズ: 7億パラメータ
  • 説明: DeciLM-7B は、さまざまな自然言語処理タスク用の汎用言語モデルです。パラメータ サイズが 7 億個と大きいため、ローカル展開に十分なコンパクトさを保ちながら、小さいモデルよりもパフォーマンスが向上します。
  • ハードウェア要件: DeciLM-7B をローカルで実行するには、ユーザーは、高性能の GPU や TPU を備えたハイエンドのデスクトップやワークステーションなど、より強力なハードウェアを備えたシステムにアクセスする必要があります。

ハグフェイスリンク: デシLM-7B

ミストラル-7B-命令-v0.2

  • モデルサイズ: 7億パラメータ
  • 説明: Mistral-7B-Instruct-v0.2 は、複雑な複数ステップの命令やタスクを効果的に処理できる命令追従言語モデルです。
  • ハードウェア要件: DeciLM-7B と同様に、Mistral-7B-Instruct-v0.2 では 7 億のパラメータを実行するために、強力なデスクトップやワークステーションなどのハイエンドのローカル ハードウェアが必要です。

ハグフェイスリンク: ミストラル-7B-命令-v0.2

オルカ-2-7B

  • モデルサイズ: 7億パラメータ
  • 説明: Orca-2-7B は、安全かつ真実で人間に合わせた応答を提供するオープンソース言語モデルです。人間の価値観と倫理に沿った成果物を生成することを目的としています。
  • ハードウェア要件: 7 億パラメータの Orca-2-7B が効果的に動作するには、高性能デスクトップやワークステーションなどの強力なローカル ハードウェアが必要です。

ハグフェイスリンク: オルカ-2-7B

アンバー

  • モデルサイズ: 7億パラメータ
  • 説明: Amber は、ドメインやアプリケーション全体でさまざまな自然言語処理タスクを高いパフォーマンスで処理できるように設計されたマルチタスク言語モデルです。
  • ハードウェア要件: Amber の 7 億のパラメータをローカルで実行するには、高性能の GPU や TPU を搭載した強力なデスクトップやワークステーションなどのハイエンド ハードウェアへのアクセスが必要です。

ハグフェイスリンク: アンバー

OpenHathi-7B-Hi-v0.1-Base

  • モデルサイズ: 7億パラメータ
  • 説明: OpenHathi-7B-Hi-v0.1-Base は大規模なヒンディー語言語モデルであり、オープンに利用可能なヒンディー語モデルの中で最大のものの XNUMX つです。ヒンディー語のテキストを理解して生成できます。
  • ハードウェア要件: 他の 7B モデルと同様に、OpenHathi-7B-Hi-v0.1-Base を効果的に実行するには、強力なデスクトップやワークステーションなどの高性能ローカル ハードウェアが必要です。

ハグフェイスリンク: OpenHathi-7B-Hi-v0.1-Base

ソーラー-10.7B-v1.0

  • モデルサイズ: 10.7億パラメータ
  • 説明: SOLAR-10.7B-v1.0 は、消費者向けハードウェアでローカルに実行できるものの限界を押し上げる、大規模な汎用言語モデルです。さまざまな NLP タスクのパフォーマンスが向上します。
  • ハードウェア要件: SOLAR-10.7B-v1.0 をローカルに展開するには、ユーザーは強力な GPU またはマルチ GPU セットアップを備えたハイエンドのコンシューマ ハードウェアにアクセスする必要があります。

ハグフェイスリンク: ソーラー-10.7B-v1.0

NexusRaven-V2-13B

  • モデルサイズ: 13億パラメータ
  • 説明: NexusRaven-V2-13B は、さまざまなドメインやアプリケーションにわたるオープンエンドのテキスト生成に焦点を当てた大規模な言語モデルです。
  • ハードウェア要件: パラメータが 13 億ある NexusRaven-V2-13B は、消費者向けデバイスでローカルに実行するには、ハイエンド ワークステーションやマルチ GPU セットアップなどの非常に強力なハードウェアを必要とします。

ハグフェイスリンク: NexusRaven-V2-13B

これらのコンパクトな LLM は、移植性とリソース効率に大きな利点をもたらしますが、特定の複雑な NLP タスクでは、より大きな LLM と同じレベルのパフォーマンスを達成できない可能性があることに注意することが重要です。ただし、最先端のパフォーマンスを必要としない多くのアプリケーションでは、特に計算リソースが限られたローカル デバイスで実行する場合、これらの小型モデルは実用的でアクセスしやすいソリューションとなります。

まとめ

結論として、デバイス上でローカルに実行できる小さな言語モデルが利用可能になったことは、AI と NLP。これらのモデルは、パワー、効率、アクセシビリティの理想的な組み合わせを提供し、クラウド サービスや強力なデータ センターに依存せずに高度な自然言語処理タスクを実行できるようにします。これらのコンパクトな LLM を試してみると、経験豊富な開発者、研究者、愛好家を問わず、プロジェクトにイノベーションと創造性をもたらす新たな道が開かれます。の AIの未来 もはや大規模モデルに限定されません。代わりに、既存のハードウェアの可能性を最大限に引き出すことが重要です。これらの小さいながらも強力なモデルが何を実現できるかを発見してください。

この記事が有益であると感じていただければ幸いです。この記事に関してご提案がある場合は、以下にコメントしてください。その他の記事については、こちらを参照してください .

スポット画像

最新のインテリジェンス

スポット画像