Logo Zéphyrnet

5 façons d'utiliser les LLM sur votre ordinateur portable – KDnuggets

Date :

5 façons d'utiliser les LLM sur votre ordinateur portable
Image par auteur
 

Accéder à ChatGPT en ligne est très simple : tout ce dont vous avez besoin est une connexion Internet et un bon navigateur. Cependant, ce faisant, vous risquez de compromettre votre vie privée et vos données. OpenAI stocke vos réponses rapides et autres métadonnées pour recycler les modèles. Bien que cela ne soit pas un problème pour certains, d’autres, soucieux de leur confidentialité, préféreront peut-être utiliser ces modèles localement sans aucun suivi externe.

Dans cet article, nous aborderons cinq façons d'utiliser les grands modèles de langage (LLM) localement. La plupart des logiciels sont compatibles avec tous les principaux systèmes d'exploitation et peuvent être facilement téléchargés et installés pour une utilisation immédiate. En utilisant des LLM sur votre ordinateur portable, vous avez la liberté de choisir votre propre modèle. Il vous suffit de télécharger le modèle depuis le hub HuggingFace et de commencer à l'utiliser. De plus, vous pouvez accorder à ces applications l'accès à votre dossier de projet et générer des réponses contextuelles.

GPT4Tous est un logiciel open source de pointe qui permet aux utilisateurs de télécharger et d'installer facilement des modèles open source de pointe. 

Téléchargez simplement GPT4ALL depuis le site Web et installez-le sur votre système. Ensuite, choisissez dans le panneau le modèle qui correspond à vos besoins et commencez à l'utiliser. Si CUDA (GPU Nvidia) est installé, GPT4ALL commencera automatiquement à utiliser votre GPU pour générer des réponses rapides allant jusqu'à 30 jetons par seconde.

 

5 façons d'utiliser les LLM sur votre ordinateur portable
 

Vous pouvez donner accès à plusieurs dossiers contenant des documents et du code importants, et GPT4ALL générera des réponses à l'aide de la génération augmentée par récupération. GPT4ALL est convivial, rapide et populaire parmi la communauté de l'IA.

Lisez le blog sur GPT4ALL pour en savoir plus sur les fonctionnalités et les cas d'utilisation : L'écosystème ultime de modèles de grande langue open-source.

Studio LM est un nouveau logiciel qui offre plusieurs avantages par rapport à GPT4ALL. L'interface utilisateur est excellente et vous pouvez installer n'importe quel modèle de Hugging Face Hub en quelques clics. De plus, il fournit le déchargement du GPU et d'autres options qui ne sont pas disponibles dans GPT4ALL. Cependant, LM Studio est une source fermée et il n'a pas la possibilité de générer des réponses contextuelles en lisant les fichiers de projet.

 

5 façons d'utiliser les LLM sur votre ordinateur portable
 

LM Studio offre un accès à des milliers de LLM open source, vous permettant de démarrer un serveur d'inférence local qui se comporte comme l'API d'OpenAI. Vous pouvez modifier la réponse de votre LLM via l'interface utilisateur interactive avec plusieurs options.

Aussi, lisez Exécuter un LLM localement avec LM Studio pour en savoir plus sur LM Studio et ses fonctionnalités clés.

Ollama est un outil d'interface de ligne de commande (CLI) qui permet un fonctionnement rapide pour les grands modèles de langage tels que Llama 2, Mistral et Gemma. Si vous êtes un hacker ou un développeur, cet outil CLI est une option fantastique. Vous pouvez télécharger et installer le logiciel et utiliser la commande « llama run llama2 » pour commencer à utiliser le modèle LLaMA 2. Vous pouvez trouver d'autres commandes de modèle dans le référentiel GitHub. 

 

5 façons d'utiliser les LLM sur votre ordinateur portable
 

Il vous permet également de démarrer un serveur HTTP local pouvant être intégré à d'autres applications. Par exemple, vous pouvez utiliser l'extension Code GPT VSCode en fournissant l'adresse du serveur local et commencer à l'utiliser comme assistant de codage IA.

Améliorez votre flux de travail de codage et de données avec ceux-ci Top 5 des assistants de codage IA

LLaMA.cpp est un outil qui offre à la fois une CLI et une interface utilisateur graphique (GUI). Il vous permet d'utiliser n'importe quel LLM open source localement sans aucun problème. Cet outil est hautement personnalisable et fournit des réponses rapides à toute requête, car il est entièrement écrit en C/C++ pur. 

 

5 façons d'utiliser les LLM sur votre ordinateur portable
 

LLaMA.cpp prend en charge tous les types de systèmes d'exploitation, CPU et GPU. Vous pouvez également utiliser des modèles multimodaux tels que LLaVA, BakLLaVA, Obsidian et ShareGPT4V.

Apprenez à Exécutez Mixtral 8x7b sur Google Colab gratuitement en utilisant LLaMA.cpp et les GPU Google.

Utiliser Chat NVIDIA avec RTX, vous devez télécharger et installer l'application Windows 11 sur votre ordinateur portable. Cette application est compatible avec les ordinateurs portables dotés d'une carte graphique RTX NVIDIA série 30 ou série 40 avec au moins 8 Go de RAM et 50 Go d'espace de stockage gratuit. De plus, votre ordinateur portable doit disposer d’au moins 16 Go de RAM pour exécuter Chat avec RTX en douceur.

 

5 façons d'utiliser les LLM sur votre ordinateur portable
 

Avec Chat with RTX, vous pouvez exécuter les modèles LLaMA et Mistral localement sur votre ordinateur portable. C'est une application rapide et efficace qui peut même apprendre des documents que vous fournissez ou des vidéos YouTube. Cependant, il est important de noter que Chat with RTX repose sur TensorRTX-LLM, qui n'est pris en charge que sur les GPU de la série 30 ou plus récents.

Si vous souhaitez profiter des derniers LLM tout en préservant la sécurité et la confidentialité de vos données, vous pouvez utiliser des outils tels que GPT4All, LM Studio, Ollama, LLaMA.cpp ou NVIDIA Chat with RTX. Chaque outil possède ses propres atouts, qu'il s'agisse d'une interface facile à utiliser, d'une accessibilité en ligne de commande ou de la prise en charge de modèles multimodaux. Avec la bonne configuration, vous pouvez disposer d’un puissant assistant IA qui génère des réponses personnalisées et contextuelles.

Je suggère de commencer par GPT4All et LM Studio car ils couvrent la plupart des besoins de base. Après cela, vous pouvez essayer Ollama et LLaMA.cpp, et enfin, essayer Chat avec RTX.
 
 

Abid Ali Awan (@1abidaliawan) est un spécialiste des données certifié qui aime créer des modèles d'apprentissage automatique. Actuellement, il se concentre sur la création de contenu et la rédaction de blogs techniques sur les technologies d'apprentissage automatique et de science des données. Abid est titulaire d'une maîtrise en gestion de la technologie et d'un baccalauréat en génie des télécommunications. Sa vision est de créer un produit d'IA utilisant un réseau de neurones graphiques pour les étudiants aux prises avec une maladie mentale.

spot_img

Dernières informations

spot_img