Zephyrnet-Logo

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden – KDnuggets

Datum:

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden
Bild vom Autor
 

Der Online-Zugriff auf ChatGPT ist sehr einfach – Sie benötigen lediglich eine Internetverbindung und einen guten Browser. Allerdings gefährden Sie dadurch möglicherweise Ihre Privatsphäre und Ihre Daten. OpenAI speichert Ihre prompten Antworten und andere Metadaten, um die Modelle neu zu trainieren. Während dies für einige möglicherweise kein Problem darstellt, ziehen es andere, die sich der Privatsphäre bewusst sind, möglicherweise vor, diese Modelle lokal ohne externes Tracking zu verwenden.

In diesem Beitrag diskutieren wir fünf Möglichkeiten, große Sprachmodelle (LLMs) lokal zu verwenden. Der Großteil der Software ist mit allen gängigen Betriebssystemen kompatibel und kann einfach heruntergeladen und zur sofortigen Verwendung installiert werden. Durch die Verwendung von LLMs auf Ihrem Laptop haben Sie die Freiheit, Ihr eigenes Modell zu wählen. Sie müssen lediglich das Modell vom HuggingFace-Hub herunterladen und mit der Verwendung beginnen. Darüber hinaus können Sie diesen Anwendungen Zugriff auf Ihren Projektordner gewähren und kontextbezogene Antworten generieren.

GPT4All ist eine hochmoderne Open-Source-Software, mit der Benutzer hochmoderne Open-Source-Modelle problemlos herunterladen und installieren können. 

Laden Sie GPT4ALL einfach von der Website herunter und installieren Sie es auf Ihrem System. Wählen Sie als Nächstes das Modell aus dem Panel aus, das Ihren Anforderungen entspricht, und beginnen Sie mit der Verwendung. Wenn Sie CUDA (Nvidia GPU) installiert haben, beginnt GPT4ALL automatisch, Ihre GPU zu nutzen, um schnelle Antworten von bis zu 30 Token pro Sekunde zu generieren.

 

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden
 

Sie können Zugriff auf mehrere Ordner gewähren, die wichtige Dokumente und Code enthalten, und GPT4ALL generiert Antworten mithilfe der Retrieval-Augmented Generation. GPT4ALL ist benutzerfreundlich, schnell und in der KI-Community beliebt.

Lesen Sie den Blog über GPT4ALL, um mehr über Funktionen und Anwendungsfälle zu erfahren: Das ultimative Open-Source-Ökosystem für große Sprachmodelle.

LM Studio ist eine neue Software, die gegenüber GPT4ALL mehrere Vorteile bietet. Die Benutzeroberfläche ist hervorragend und Sie können jedes Modell von Hugging Face Hub mit wenigen Klicks installieren. Darüber hinaus bietet es GPU-Offloading und andere Optionen, die in GPT4ALL nicht verfügbar sind. Allerdings ist LM Studio eine geschlossene Quelle und bietet nicht die Möglichkeit, durch das Lesen von Projektdateien kontextbezogene Antworten zu generieren.

 

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden
 

LM Studio bietet Zugriff auf Tausende von Open-Source-LLMs und ermöglicht Ihnen das Starten eines lokalen Inferenzservers, der sich wie die API von OpenAI verhält. Sie können die Reaktion Ihres LLM über die interaktive Benutzeroberfläche mit mehreren Optionen ändern.

Lesen Sie auch Führen Sie ein LLM lokal mit LM Studio aus um mehr über LM Studio und seine wichtigsten Funktionen zu erfahren.

Ollama ist ein Befehlszeilenschnittstellen-Tool (CLI), das eine schnelle Bedienung für große Sprachmodelle wie Llama 2, Mistral und Gemma ermöglicht. Wenn Sie Hacker oder Entwickler sind, ist dieses CLI-Tool eine fantastische Option. Sie können die Software herunterladen und installieren und den Befehl „llama run llama2“ verwenden, um mit der Verwendung des LLaMA 2-Modells zu beginnen. Weitere Modellbefehle finden Sie im GitHub-Repository. 

 

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden
 

Außerdem können Sie damit einen lokalen HTTP-Server starten, der in andere Anwendungen integriert werden kann. Sie können beispielsweise die Code GPT VSCode-Erweiterung verwenden, indem Sie die lokale Serveradresse angeben und sie als KI-Codierungsassistenten verwenden.

Verbessern Sie damit Ihren Codierungs- und Datenworkflow Die 5 besten KI-Codierungsassistenten

LLaMA.cpp ist ein Tool, das sowohl eine CLI als auch eine grafische Benutzeroberfläche (GUI) bietet. Damit können Sie alle Open-Source-LLMs problemlos lokal nutzen. Dieses Tool ist hochgradig anpassbar und bietet schnelle Antworten auf jede Anfrage, da es vollständig in reinem C/C++ geschrieben ist. 

 

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden
 

LLaMA.cpp unterstützt alle Arten von Betriebssystemen, CPUs und GPUs. Sie können auch multimodale Modelle wie LLaVA, BakLLaVA, Obsidian und ShareGPT4V verwenden.

Lernen wie man Führen Sie Mixtral 8x7b kostenlos auf Google Colab aus unter Verwendung von LLaMA.cpp und Google GPUs.

So verwenden Sie NVIDIA-Chat mit RTX, müssen Sie die Windows 11-Anwendung herunterladen und auf Ihrem Laptop installieren. Diese Anwendung ist mit Laptops kompatibel, die über eine RTX-NVIDIA-Grafikkarte der 30er- oder 40er-Serie mit mindestens 8 GB RAM und 50 GB freiem Speicherplatz verfügen. Darüber hinaus sollte Ihr Laptop über mindestens 16 GB RAM verfügen, damit Chat mit RTX reibungslos funktioniert.

 

5 Möglichkeiten, LLMs auf Ihrem Laptop zu verwenden
 

Mit Chat with RTX können Sie LLaMA- und Mistral-Modelle lokal auf Ihrem Laptop ausführen. Es handelt sich um eine schnelle und effiziente Anwendung, die sogar aus von Ihnen bereitgestellten Dokumenten oder YouTube-Videos lernen kann. Es ist jedoch wichtig zu beachten, dass Chat with RTX auf TensorRTX-LLM basiert, das nur auf GPUs der 30er-Serie oder neuer unterstützt wird.

Wenn Sie die neuesten LLMs nutzen und gleichzeitig Ihre Daten sicher und privat halten möchten, können Sie Tools wie GPT4All, LM Studio, Ollama, LLaMA.cpp oder NVIDIA Chat mit RTX verwenden. Jedes Tool hat seine eigenen einzigartigen Stärken, sei es eine benutzerfreundliche Oberfläche, die Zugänglichkeit über die Befehlszeile oder die Unterstützung multimodaler Modelle. Mit der richtigen Einrichtung können Sie über einen leistungsstarken KI-Assistenten verfügen, der benutzerdefinierte kontextbezogene Antworten generiert.

Ich empfehle, mit GPT4All und LM Studio zu beginnen, da diese die meisten Grundbedürfnisse abdecken. Danach können Sie Ollama und LLaMA.cpp ausprobieren und schließlich Chat with RTX ausprobieren.
 
 

Abid Ali Awan (@1abidaliawan) ist ein zertifizierter Datenwissenschaftler, der es liebt, Modelle für maschinelles Lernen zu erstellen. Derzeit konzentriert er sich auf die Erstellung von Inhalten und schreibt technische Blogs zu maschinellem Lernen und Data-Science-Technologien. Abid hat einen Master-Abschluss in Technologiemanagement und einen Bachelor-Abschluss in Telekommunikationstechnik. Seine Vision ist es, ein KI-Produkt mit einem grafisch-neuronalen Netzwerk für Schüler zu entwickeln, die mit psychischen Erkrankungen zu kämpfen haben.

spot_img

Neueste Intelligenz

spot_img