Logo Zéphyrnet

Cours gratuit du MIT : TinyML et le calcul efficace du Deep Learning – KDnuggets

Date :

Cours gratuit du MIT : TinyML et l'informatique d'apprentissage profond efficace
Image par auteur
 

Dans le monde technologique d'aujourd'hui, nous sommes entourés de merveilles époustouflantes alimentées par l'IA : des assistants vocaux répondant à nos questions, des caméras intelligentes identifiant les visages et des voitures autonomes naviguant sur les routes. Ils sont comme les super-héros de notre ère numérique ! Cependant, faire en sorte que ces merveilles technologiques fonctionnent correctement sur nos appareils quotidiens est plus difficile qu’il n’y paraît. Ces super-héros IA ont un besoin particulier : puissance de calcul importante ainsi que ressources mémoire. C'est comme essayer de ranger une bibliothèque entière dans un petit sac à dos. Et devine quoi? La plupart de nos appareils habituels comme les téléphones, les montres intelligentes, etc. n'en ont pas assez'cerveau' pour gérer ces super-héros IA. Cela pose un problème majeur dans le déploiement généralisé de la technologie de l’IA.

Il est donc crucial d’améliorer l’efficacité de ces grands modèles d’IA pour les rendre accessibles. Ce cours : "TinyML et le Deep Learning efficace » Le laboratoire du MIT HAN s’attaque à cet obstacle majeur. Il présente des méthodes pour optimiser les modèles d’IA, garantissant ainsi leur viabilité dans des scénarios réels. Jetons un coup d'œil détaillé à ce qu'il propose :

Structure du cours:

Durée: Automne 2023

Timing: Mardi/jeudi de 3 h 35 à 5 h, heure de l'Est

Instructeur: Professeur Song Han

Assistants pédagogiques : Han Cai ainsi que Ji Lin

Comme il s'agit d'un cours continu, vous pouvez regarder la diffusion en direct à cette adresse. lien.

Approche du cours :

Fondement théorique : Commence par les concepts fondamentaux du Deep Learning, puis avance vers des méthodes sophistiquées pour une informatique IA efficace.

Expérience pratique: Fournit une expérience pratique en permettant aux étudiants de déployer et de travailler avec de grands modèles de langage comme LLaMA 2 sur leurs ordinateurs portables.

1. Inférence efficace

Ce module se concentre principalement sur l'amélioration de l'efficacité des processus d'inférence de l'IA. Il explore des techniques telles que l'élagage, la parcimonie et la quantification visant à rendre les opérations d'inférence plus rapides et plus économes en ressources. Les principaux sujets abordés comprennent :

  • Taille et parcimonie (parties I et II) : Explorer des méthodes pour réduire la taille des modèles en supprimant les pièces inutiles sans compromettre les performances.
  • Quantification (Parties I et II) : Techniques pour représenter des données et des modèles en utilisant moins de bits, économisant ainsi de la mémoire et des ressources de calcul.
  • Recherche d'architecture neuronale (Parties I et II) : Ces conférences explorent les techniques automatisées permettant de découvrir les meilleures architectures de réseaux neuronaux pour des tâches spécifiques. Ils démontrent des utilisations pratiques dans divers domaines tels que la PNL, le GAN, l'analyse des nuages ​​de points et l'estimation de pose.
  • Distillation des connaissances: Cette session se concentre sur la distillation des connaissances, un processus dans lequel un modèle compact est formé pour imiter le comportement d'un modèle plus grand et plus complexe. Il vise à transférer les connaissances d’un modèle à un autre.
  • MCUNet : TinyML sur les microcontrôleurs : Cette conférence présente MCUNet, qui se concentre sur le déploiement de modèles TinyML sur des microcontrôleurs, permettant à l'IA de fonctionner efficacement sur des appareils à faible consommation. Il couvre l'essence de TinyML, ses défis, la création de réseaux de neurones compacts et ses diverses applications.
  • TinyEngine et traitement parallèle : Cette partie traite de TinyEngine, explorant des méthodes de déploiement efficace et des stratégies de traitement parallèle telles que l'optimisation des boucles, le multithreading et la disposition de la mémoire pour les modèles d'IA sur des appareils contraints.

2. Optimisation spécifique au domaine

Dans le segment Optimisation spécifique au domaine, le cours couvre divers sujets avancés visant à optimiser les modèles d'IA pour des domaines spécifiques :

  • Transformateur et LLM (Parties I et II) : Il plonge dans les bases de Transformer, les variantes de conception et couvre des sujets avancés liés aux algorithmes d'inférence efficaces pour les LLM. Il explore également les systèmes d'inférence efficaces et les méthodes de réglage fin des LLM.
  • Transformateur de vision : Cette section présente les bases de Vision Transformer, les stratégies ViT efficaces et diverses techniques d'accélération. Il explore également les méthodes d'apprentissage auto-supervisées et les grands modèles linguistiques (LLM) multimodaux pour améliorer les capacités de l'IA dans les tâches liées à la vision.
  • GAN, vidéo et nuage de points : Cette conférence se concentre sur l'amélioration des réseaux contradictoires génératifs (GAN) en explorant des techniques de compression GAN efficaces (en utilisant NAS + distillation), AnyCost GAN pour les coûts dynamiques et l'augmentation différenciable pour une formation GAN efficace en matière de données. Ces approches visent à optimiser les modèles pour les GAN, la reconnaissance vidéo et l'analyse des nuages ​​de points.
  • Modèle de diffusion : Cette conférence offre un aperçu de la structure, de la formation, de l'optimisation spécifique à un domaine et des stratégies d'échantillonnage rapide des modèles de diffusion. 

3. Formation efficace

Une formation efficace fait référence à l'application de méthodologies pour optimiser le processus de formation des modèles d'apprentissage automatique. Ce chapitre couvre les domaines clés suivants :

  • Formation distribuée (parties I et II) : Explorez des stratégies pour distribuer la formation sur plusieurs appareils ou systèmes. Il fournit des stratégies pour surmonter les goulots d'étranglement de bande passante et de latence, optimiser la consommation de mémoire et mettre en œuvre des méthodes de parallélisation efficaces pour améliorer l'efficacité de la formation de modèles d'apprentissage automatique à grande échelle dans des environnements informatiques distribués.
  • Formation sur appareil et apprentissage par transfert : Cette session se concentre principalement sur la formation de modèles directement sur les appareils de pointe, la gestion des contraintes de mémoire et l'utilisation de méthodes d'apprentissage par transfert pour une adaptation efficace à de nouveaux domaines.
  • Mise au point efficace et ingénierie rapide : Cette section se concentre sur l'affinement des grands modèles linguistiques (LLM) grâce à des techniques de réglage fin efficaces telles que BitFit, Adapter et Prompt-Tuning. De plus, il met en évidence le concept de Prompt Engineering et illustre comment il peut améliorer les performances et l'adaptabilité du modèle.

4. Sujets avancés

Ce module couvre des sujets sur un domaine émergent de l'apprentissage automatique quantique. Bien que les conférences détaillées de ce segment ne soient pas encore disponibles, les sujets prévus à couvrir comprennent :

  • Bases de l'informatique quantique
  • Apprentissage automatique quantique
  • Bruit robuste Quantum ML

Ces sujets fourniront une compréhension fondamentale des principes quantiques en informatique et exploreront comment ces principes sont appliqués pour améliorer les méthodes d'apprentissage automatique tout en relevant les défis posés par le bruit dans les systèmes quantiques.

Si vous souhaitez approfondir ce cours, consultez la playlist ci-dessous :

[contenu intégré][contenu intégré]

Ce cours a reçu des retours fantastiques, notamment de la part des passionnés et des professionnels de l'IA. Bien que le cours soit en cours et devrait se terminer d'ici décembre 2023, je recommande fortement d'y participer ! Si vous suivez ce cours ou avez l'intention de le faire, partagez vos expériences. Discutons et découvrons ensemble TinyML et comment rendre l'IA plus intelligente sur les petits appareils. Votre contribution et vos idées seraient précieuses !
 
 

Kanwal Mehren est un développeur de logiciels en herbe avec un vif intérêt pour la science des données et les applications de l'IA en médecine. Kanwal a été sélectionné comme Google Generation Scholar 2022 pour la région APAC. Kanwal aime partager ses connaissances techniques en écrivant des articles sur des sujets d'actualité et se passionne pour l'amélioration de la représentation des femmes dans l'industrie technologique.

spot_img

Dernières informations

spot_img