Logo Zéphyrnet

Les tendances les plus importantes de l'IA en 2024 – IBM Blog

Date :


Les tendances les plus importantes de l'IA en 2024 – IBM Blog



Diriger son équipe selon son plan de réussite

2022 a été l’année où l’intelligence artificielle générative (IA) a explosé dans la conscience publique, et 2023 a été l’année où elle a commencé à s’enraciner dans le monde des affaires. 2024 s’annonce donc comme une année charnière pour l’avenir de l’IA, alors que les chercheurs et les entreprises cherchent à déterminer comment ce saut évolutif technologique peut être intégré le plus concrètement possible dans notre vie quotidienne.

L’évolution de l’IA générative a reflété celle des ordinateurs, quoique à un rythme considérablement accéléré. Les ordinateurs centraux massifs et centralisés de quelques acteurs ont cédé la place à des machines plus petites et plus efficaces accessibles aux entreprises et aux instituts de recherche. Au cours des décennies qui ont suivi, des progrès progressifs ont donné naissance à des ordinateurs personnels que les amateurs pouvaient bricoler. Avec le temps, des ordinateurs personnels puissants dotés d’interfaces intuitives sans code sont devenus omniprésents.

L’IA générative a déjà atteint sa phase « amateur » et, comme pour les ordinateurs, de nouveaux progrès visent à atteindre de plus grandes performances dans des packages plus petits. 2023 a vu une explosion de produits de plus en plus efficaces modèles de fondation avec des licences ouvertes, en commençant par le lancement de la famille LlaMa de grands modèles de langage (LLM) de Meta et suivi par StableLM, Falcon, Mistral et Llama 2. DeepFloyd et Stable Diffusion ont atteint une parité relative avec les principaux modèles propriétaires. Améliorés grâce à des techniques de réglage fin et des ensembles de données développés par la communauté open source, de nombreux modèles ouverts peuvent désormais surpasser tous les modèles fermés, à l'exception des plus puissants, sur la plupart des benchmarks, malgré un nombre de paramètres beaucoup plus faible.

À mesure que le rythme des progrès s’accélère, les capacités toujours croissantes des modèles de pointe attireront le plus l’attention des médias. Mais les développements les plus marquants pourraient être ceux axés sur la gouvernance, les middlewares, les techniques de formation et les pipelines de données qui rendent l'IA générative plus efficace. digne de confiance, durable et accessible, aussi bien pour les entreprises que pour les utilisateurs finaux.

Voici quelques tendances actuelles importantes en matière d’IA à surveiller au cours de l’année à venir.

  • Vérification de la réalité : des attentes plus réalistes
  • IA multimodale
  • Modèles de langage plus petits et avancées open source
  • Pénuries de GPU et coûts du cloud
  • L'optimisation des modèles devient plus accessible
  • Modèles locaux personnalisés et pipelines de données
  • Des agents virtuels plus puissants
  • Problèmes de réglementation, de droits d’auteur et d’éthique en matière d’IA
  • Shadow AI (et politiques d’IA d’entreprise)

Vérification de la réalité : des attentes plus réalistes

Lorsque l'IA générative a fait son apparition auprès du grand public, les connaissances d'un chef d'entreprise typique provenaient principalement de supports marketing et d'une couverture médiatique à couper le souffle. L'expérience tangible (le cas échéant) se limitait à jouer avec ChatGPT et DALL-E. Maintenant que la poussière est retombée, le monde des affaires a désormais une compréhension plus fine des solutions basées sur l’IA.

Le Gartner Hype Cycle positionne l’IA générative au « pic des attentes gonflées », à l’aube d’un glissement vers le « creux de la désillusion ».[I]— en d'autres termes, sur le point d'entrer dans une période de transition (relativement) décevante — tandis que le rapport « State of Generated AI in the Enterprise » de Deloitte du premier trimestre 1 indiquait que de nombreux dirigeants « s'attendent à des impacts transformateurs substantiels à court terme ».[Ii] La réalité se situera probablement entre les deux : l’IA générative offre des opportunités et des solutions uniques, mais elle ne suffira pas à tout le monde.

La comparaison des résultats réels avec le battage médiatique est en partie une question de perspective. Les outils autonomes tels que ChatGPT occupent généralement une place centrale dans l'imaginaire populaire, mais une intégration fluide dans les services établis permet souvent une plus grande durabilité. Avant le cycle de battage médiatique actuel, les outils d'apprentissage automatique génératif comme la fonctionnalité « Smart Compose » déployée par Google en 2018 n'étaient pas présentés comme un changement de paradigme, bien qu'ils soient les précurseurs des services de génération de texte actuels. De même, de nombreux outils d’IA générative à fort impact sont mis en œuvre en tant qu’éléments intégrés aux environnements d’entreprise qui améliorent et complètent, plutôt que de révolutionner ou de remplacer, les outils existants : par exemple, les fonctionnalités « Copilot » dans Microsoft Office, les fonctionnalités « Generative Fill » dans Adobe. Photoshop ou agents virtuels dans les applications de productivité et de collaboration.

Le moment où l’IA générative prend son élan dans les flux de travail quotidiens aura plus d’influence sur l’avenir des outils d’IA que les avantages hypothétiques de toute capacité spécifique d’IA. Selon un récent Enquête IBM auprès de plus de 1,000 XNUMX employés d'entreprises à l'échelle de l'entreprise, les trois principaux facteurs à l'origine de l'adoption de l'IA étaient les progrès des outils d'IA qui les rendent plus accessibles, la nécessité de réduire les coûts et d'automatiser les processus clés et la quantité croissante d'IA intégrée dans les applications métiers standard.

multimodal IA (et vidéo)

Cela étant dit, l’ambition de l’IA générative de pointe est croissante. La prochaine vague de progrès se concentrera non seulement sur l'amélioration des performances dans un domaine spécifique, mais également sur multimodal numériques jumeaux (digital twin models) qui peut prendre plusieurs types de données en entrée. Bien que les modèles qui fonctionnent sur différentes modalités de données ne soient pas un phénomène strictement nouveau (les modèles texte-image comme CLIP et les modèles parole-texte comme Wave2Vec existent depuis des années maintenant), ils ne fonctionnent généralement que dans une seule direction, et ont été formés pour accomplir une tâche spécifique.

La nouvelle génération de modèles interdisciplinaires, comprenant des modèles propriétaires comme GPT-4V d'OpenAI ou Gemini de Google, ainsi que des modèles open source comme LLaVa, Adept ou Qwen-VL, peuvent évoluer librement entre les tâches de traitement du langage naturel (NLP) et de vision par ordinateur. De nouveaux modèles apportent également vidéo dans le giron : fin janvier, Google a annoncé Lumiere, un modèle de diffusion texte-vidéo qui peut également effectuer des tâches d'image-vidéo ou utiliser des images pour référence de style.

L’avantage le plus immédiat de l’IA multimodale réside dans des applications d’IA et des assistants virtuels plus intuitifs et plus polyvalents. Les utilisateurs peuvent, par exemple, poser des questions sur une image et recevoir une réponse en langage naturel, ou demander à voix haute des instructions pour réparer quelque chose et recevoir des aides visuelles ainsi que des instructions textuelles étape par étape.

À un niveau supérieur, l’IA multimodale permet à un modèle de traiter des entrées de données plus diverses, enrichissant et élargissant les informations disponibles pour la formation et l’inférence. La vidéo, en particulier, offre un grand potentiel d’apprentissage holistique. « Il y a des caméras qui fonctionnent 24 heures sur 7, XNUMX jours sur XNUMX, et elles capturent ce qui se passe exactement comme cela se passe, sans aucun filtrage, sans aucune intentionnalité », explique Peter Norvig, Distinguished Education Fellow à l'Institut de Stanford pour l'intelligence artificielle centrée sur l'humain (HAI). .[Iii] « Les modèles d’IA n’avaient jamais eu ce genre de données auparavant. Ces modèles auront simplement une meilleure compréhension de tout.

Modèles de langage plus petits et avancées open source

Dans les modèles spécifiques à un domaine, en particulier les LLM, nous avons probablement atteint le point de rendements décroissants à partir d'un plus grand nombre de paramètres. Sam Altman, PDG d'OpenAI (dont le modèle GPT-4 aurait environ 1.76 billion paramètres), l'a suggéré lors de l'événement Imagination in Action du MIT en avril dernier : « Je pense que nous sommes à la fin de l'ère où ce seront ces modèles géants, et nous les améliorerons par d'autres moyens », a-t-il prédit. . "Je pense qu'on s'est trop concentré sur le nombre de paramètres."

Les modèles massifs ont lancé cet âge d’or de l’IA, mais ils ne sont pas sans inconvénients. Seules les plus grandes entreprises disposent des fonds et de l’espace serveur nécessaires pour former et entretenir des modèles énergivores comportant des centaines de milliards de paramètres. Selon une estimation de l'Université de Washington, la formation d'un seul modèle de taille GPT-3 nécessite le annuel consommation d'électricité de plus de 1,000 33,000 foyers ; une journée standard de requêtes ChatGPT rivalise avec la consommation énergétique quotidienne de XNUMX XNUMX foyers américains.[Iv]

Les modèles plus petits, quant à eux, nécessitent beaucoup moins de ressources. Un influent Article de mars 2022 de Deepmind a démontré que la formation de modèles plus petits sur plus de données donne de meilleures performances que la formation de modèles plus grands sur moins de données. Une grande partie de l’innovation en cours dans les LLM s’est donc concentrée sur l’obtention d’un meilleur rendement avec moins de paramètres. Comme le démontrent les progrès récents des modèles dans la plage de paramètres de 3 à 70 milliards, en particulier ceux construits sur les modèles de base LLaMa, Llama 2 et Mistral en 2023, les modèles peuvent être réduits sans trop sacrifier les performances.

La puissance des modèles ouverts continuera de croître. En décembre 2023, Mistral a sorti « Mistral », un mélange d'experts (MdE) modèle intégrant 8 réseaux de neurones, chacun avec 7 milliards de paramètres. Mistral affirme que Mixtral surpasse non seulement la variante de paramètre 70B de Llama 2 sur la plupart des benchmarks à des vitesses d'inférence 6 fois plus rapides, mais qu'il égale ou surpasse même celui d'OpenAI. loin GPT-3.5 plus grand sur la plupart des benchmarks standard. Peu de temps après, Meta a annoncé en janvier avoir déjà commencé la formation des modèles Llama 3 et a confirmé qu'ils seraient open source. Bien que les détails (comme la taille du modèle) n'aient pas été confirmés, il est raisonnable de s'attendre à ce que Llama 3 suive le cadre établi au cours des deux générations précédentes.

Ces avancées dans les modèles plus petits présentent trois avantages importants :

  • Ils contribuent à démocratiser l’IA : des modèles plus petits qui peuvent être exécutés à moindre coût sur du matériel plus accessible permettent à davantage d'amateurs et d'institutions d'étudier, de former et d'améliorer les modèles existants.
  • Ils peuvent être exécutés localement sur des appareils plus petits : cela permet une IA plus sophistiquée dans des scénarios tels que l’informatique de pointe et l’Internet des objets (IoT). De plus, l'exécution de modèles localement, comme sur le smartphone d'un utilisateur, permet d'éviter de nombreux problèmes de confidentialité et de cybersécurité découlant de l'interaction avec des données personnelles ou propriétaires sensibles.
  • Ils rendent l’IA plus explicable : plus le modèle est grand, plus il est difficile de déterminer exactement comment et où il prend des décisions importantes. IA explicable est essentiel pour comprendre, améliorer et faire confiance aux résultats des systèmes d’IA.

Pénuries de GPU et coûts du cloud

La tendance vers des modèles plus petits sera motivée autant par la nécessité que par la vigueur entrepreneuriale, dans la mesure où les coûts du cloud computing augmentent à mesure que la disponibilité du matériel diminue.

« Les grandes entreprises (et un plus grand nombre d’entre elles) tentent toutes d’intégrer les capacités de l’IA en interne, et les GPU sont un peu en demande », explique James Landay, vice-directeur et directeur de la recherche à Stanford HAI. "Cela créera une pression énorme non seulement pour augmenter la production de GPU, mais aussi pour que les innovateurs proposent des solutions matérielles moins chères et plus faciles à fabriquer et à utiliser."1

Comme l'explique un rapport O'Reilly de fin 2023, les fournisseurs de cloud supportent actuellement une grande partie de la charge informatique : relativement peu d'adoptants de l'IA maintiennent leur propre infrastructure, et les pénuries de matériel ne feront qu'augmenter les obstacles et les coûts de mise en place de serveurs sur site. À long terme, cela pourrait exercer une pression à la hausse sur les coûts du cloud, à mesure que les fournisseurs mettront à jour et optimiseront leur propre infrastructure pour répondre efficacement à la demande d’IA générative.[V]

Pour les entreprises, naviguer dans ce paysage incertain nécessite de la flexibilité, à la fois en termes de modèles (s'appuyant sur des modèles plus petits et plus efficaces lorsque cela est nécessaire ou sur des modèles plus grands et plus performants lorsque cela est pratique) et d'environnement de déploiement. « Nous ne voulons pas restreindre l'endroit où les gens déploient [un modèle] », a déclaré Arvind Krishna, PDG d'IBM, dans un communiqué. Entretien de décembre 2023 avec CNBC, en référence à IBM Watsonx plate-forme. « Donc, s'ils souhaitent le déployer sur un grand cloud public, nous le ferons là-bas. S'ils veulent le déployer chez IBM, nous le ferons chez IBM. S’ils veulent le faire eux-mêmes et qu’ils disposent d’une infrastructure suffisante, nous le ferons sur place.

L'optimisation des modèles devient plus accessible

La tendance à maximiser les performances de modèles plus compacts est bien servie par les récents résultats de la communauté open source. 

De nombreuses avancées clés ont été (et continueront d'être) motivées non seulement par de nouveaux modèles de base, mais aussi par de nouvelles techniques et ressources (comme les ensembles de données open source) pour la formation, l'ajustement, l'affinement ou l'alignement des modèles pré-entraînés. Les techniques notables indépendantes du modèle qui ont pris racine en 2023 comprennent :

  • Adaptation de bas rang (LoRA) : Plutôt que d'affiner directement des milliards de paramètres du modèle, LoRA implique le gel des poids du modèle pré-entraînés et l'injection de couches pouvant être entraînées, qui représentent la matrice des modifications apportées aux poids du modèle sous la forme de 2 plus petites (rang inférieur) matrices – dans chaque bloc de transformateur. Cela réduit considérablement le nombre de paramètres qui doivent être mis à jour, ce qui, à son tour, accélère considérablement le réglage fin et réduit la mémoire nécessaire pour stocker les mises à jour du modèle.
  • Quantification: Tout comme la réduction du débit audio ou vidéo pour réduire la taille et la latence du fichier, la quantification réduit la précision utilisée pour représenter les points de données du modèle (par exemple, d'une virgule flottante de 16 bits à un nombre entier de 8 bits) afin de réduire l'utilisation de la mémoire et d'accélérer l'inférence. QLoRA les techniques combinent la quantification avec LoRA.
  • Optimisation des préférences directes (DPO) : Les modèles de chat utilisent généralement apprentissage par renforcement à partir de la rétroaction humaine (RLHF) pour aligner les sorties du modèle sur les préférences humaines. Bien que puissant, le RLHF est complexe et instable. DPO promet des avantages similaires tout en étant léger sur le plan informatique et considérablement plus simple.

Parallèlement aux progrès parallèles des modèles open source dans l’espace de 3 à 70 milliards de paramètres, ces techniques en évolution pourraient modifier la dynamique du paysage de l’IA en offrant aux petits acteurs, comme les startups et les amateurs, des capacités d’IA sophistiquées qui étaient auparavant hors de portée.

Modèles locaux personnalisés et pipelines de données

En 2024, les entreprises pourront ainsi poursuivre leur différenciation en développant des modèles sur mesure, plutôt que de construire des emballages autour de services reconditionnés issus de la « Big AI ». Avec le bon cadre de données et de développement, les modèles et outils d'IA open source existants peuvent être adaptés à presque tous les scénarios du monde réel, depuis les utilisations du support client jusqu'à la gestion de la chaîne d'approvisionnement en passant par l'analyse de documents complexes.

Les modèles open source offrent aux organisations la possibilité de développer rapidement de puissants modèles d’IA personnalisés, formés sur leurs données propriétaires et affinés pour leurs besoins spécifiques, sans investissements d’infrastructure prohibitifs. Ceci est particulièrement pertinent dans des domaines tels que le droit, la santé ou la finance, où le vocabulaire et les concepts hautement spécialisés peuvent ne pas avoir été appris par les modèles de base lors de la pré-formation.

Le droit, la finance et la santé sont également d’excellents exemples de secteurs qui peuvent bénéficier de modèles suffisamment petits pour être exécutés localement sur un matériel modeste. Garder la formation, l'inférence et l'IA en IA génération augmentée de récupération (RAG) local évite le risque que des données exclusives ou des informations personnelles sensibles soient utilisées pour former des modèles à source fermée ou passent autrement entre les mains de tiers. Et utiliser RAG pour accéder aux informations pertinentes plutôt que de stocker toutes les connaissances directement dans le LLM lui-même permet de réduire la taille du modèle, d'augmenter encore la vitesse et de réduire les coûts.

Alors que 2024 continue d’uniformiser les règles du jeu, l’avantage concurrentiel sera de plus en plus tiré par des pipelines de données propriétaires qui permettent un réglage optimal du secteur.

Des agents virtuels plus puissants

Avec des outils plus sophistiqués et plus efficaces et une année de retour d'information sur le marché à leur disposition, les entreprises sont prêtes à élargir les cas d'utilisation de agents virtuels au-delà du simple chatbots d'expérience client.

À mesure que les systèmes d’IA accélèrent et intègrent de nouveaux flux et formats d’informations, ils élargissent les possibilités non seulement de communication et de suivi des instructions, mais également d’automatisation des tâches. « 2023 a été l’année où l’on a pu discuter avec une IA. Plusieurs entreprises ont lancé quelque chose, mais l'interaction consistait toujours en une saisie de quelque chose et une réponse en retour », explique Norvig de Stanford. « En 2024, nous verrons la possibilité pour les agents de faire avancer les choses pour vous. Faites des réservations, planifiez un voyage, connectez-vous à d’autres services.

L’IA multimodale, en particulier, augmente considérablement les possibilités d’interaction transparente avec les agents virtuels. Par exemple, plutôt que de simplement demander des recettes à un robot, un utilisateur peut pointer une caméra vers un réfrigérateur ouvert et demander des recettes pouvant être préparées avec les ingrédients disponibles. Be My Eyes, une application mobile qui connecte des personnes aveugles et malvoyantes avec des bénévoles pour les aider à accomplir des tâches rapides, teste des outils d'IA qui aident les utilisateurs à interagir directement avec leur environnement grâce à l'IA multimodale au lieu d'attendre un volontaire humain.

Découvrez IBM Watsonx™ Assistant : IA conversationnelle leader du marché avec une intégration transparente pour les outils qui alimentent votre entreprise →

Problèmes de réglementation, de droits d’auteur et d’éthique en matière d’IA

Des capacités multimodales élevées et des barrières à l’entrée réduites ouvrent également de nouvelles portes aux abus : les deepfakes, les problèmes de confidentialité, la perpétuation des préjugés et même le contournement des garanties CAPTCHA peuvent devenir de plus en plus faciles pour les mauvais acteurs. En janvier 2024, une vague de deepfakes explicites de célébrités a frappé les réseaux sociaux ; des recherches menées en mai 2023 ont indiqué qu’il y avait eu 8 fois plus de deepfakes vocaux publiés en ligne par rapport à la même période en 2022.[Vi]

L’ambiguïté de l’environnement réglementaire peut ralentir l’adoption, ou du moins une mise en œuvre plus agressive, à court et moyen terme. Il existe un risque inhérent à tout investissement majeur et irréversible dans une technologie ou une pratique émergente qui pourrait nécessiter un réoutillage important, voire devenir illégal, à la suite d’une nouvelle législation ou de l’évolution des vents politiques contraires dans les années à venir.

En décembre 2023, l’Union européenne (UE) a atteint accord provisoire sur la loi sur l'intelligence artificielle. Entre autres mesures, il interdit le grattage aveugle d’images pour créer des bases de données de reconnaissance faciale, les systèmes de catégorisation biométrique potentiellement discriminatoires, les systèmes de « notation sociale » et l’utilisation de l’IA à des fins de manipulation sociale ou économique. Il cherche également à définir une catégorie de systèmes d’IA « à haut risque », susceptibles de menacer la sécurité, les droits fondamentaux ou l’État de droit, qui seront soumis à une surveillance supplémentaire. De même, il fixe des exigences de transparence pour ce qu’il appelle les systèmes « d’IA à usage général (GPAI) » – les modèles de base – y compris la documentation technique et les tests contradictoires systémiques.

Mais même si certains acteurs clés, comme Mistral, résident dans l’UE, la majorité des développements révolutionnaires en matière d’IA se produisent aux États-Unis, où une législation substantielle sur l’IA dans le secteur privé nécessitera une action du Congrès, ce qui pourrait être peu probable en période d’élections. Le 30 octobre, l’administration Biden a publié un décret complet détaillant 150 exigences pour l’utilisation des technologies d’IA par les agences fédérales ; mois auparavant, l'administration avait obtenu engagements volontaires d'éminents développeurs d'IA adhérer à certains garde-fous pour la confiance et la sécurité. Notamment, la Californie et le Colorado appliquent activement leur propre législation concernant les droits des individus à la confidentialité des données en matière d'intelligence artificielle.

La Chine a évolué de manière plus proactive vers des restrictions formelles sur l’IA, en interdisant la discrimination par les prix par les algorithmes de recommandation sur les réseaux sociaux et en exigeant un étiquetage clair du contenu généré par l’IA. Les réglementations prospectives sur l’IA générative cherchent à exiger que les données de formation utilisées pour former les LLM et que le contenu généré par la suite par les modèles soient « vrais et précis », ce que les experts ont pris pour indiquer des mesures visant à censurer les résultats des LLM.

Pendant ce temps, le rôle du matériel protégé par le droit d’auteur dans la formation des modèles d’IA utilisés pour la génération de contenu, des modèles linguistiques aux générateurs d’images et aux modèles vidéo, reste une question très controversée. Le résultat de la très médiatisée poursuite intentée par le contre OpenAI peut affecter de manière significative l’évolution de la législation sur l’IA. Des outils contradictoires, comme Glaze ainsi que Morelle noire– tous deux développés à l’Université de Chicago – sont nés de ce qui pourrait devenir une sorte de course aux armements entre créateurs et développeurs de modèles.

 Découvrez comment IBM® watsonx.governance™ accélère les flux de travail d'IA responsables, transparents et explicables →

Shadow AI (et politiques d’IA d’entreprise)

Pour les entreprises, ce potentiel croissant de conséquences juridiques, réglementaires, économiques ou de réputation est aggravé par la popularité et l’accessibilité des outils d’IA générative. Les organisations doivent non seulement avoir une politique d’entreprise prudente, cohérente et clairement articulée autour de l’IA générative, mais aussi se méfier des IA de l'ombre : l’utilisation personnelle « non officielle » de l’IA sur le lieu de travail par les salariés.

Également surnommée « shadow IT » ou « BYOAI », l'IA fantôme apparaît lorsque des employés impatients à la recherche de solutions rapides (ou souhaitant simplement explorer de nouvelles technologies plus rapidement que ne le permet une politique prudente de l'entreprise) mettent en œuvre l'IA générative sur le lieu de travail sans passer par l'informatique pour approbation ou surveillance. . De nombreux services destinés aux consommateurs, certains gratuits, permettent même aux personnes non techniques d'improviser l'utilisation d'outils d'IA générative. Dans une étude d'Ernst & Young, 90 % des personnes interrogées ont déclaré utiliser l'IA au travail.[Vii]

Cet esprit d'entreprise peut être formidable, dans le vide, mais les employés enthousiastes peuvent manquer d'informations ou de perspectives pertinentes en matière de sécurité, de confidentialité ou de conformité. Cela peut exposer les entreprises à de nombreux risques. Par exemple, un employé peut, sans le savoir, transmettre des secrets commerciaux à un modèle d'IA public qui s'entraîne continuellement sur la contribution de l'utilisateur, ou utiliser du matériel protégé par le droit d'auteur pour former un modèle propriétaire de génération de contenu et exposer son entreprise à des poursuites judiciaires.

Comme de nombreux développements en cours, cela souligne à quel point les dangers de l’IA générative augmentent de manière presque linéaire avec ses capacités. Un grand pouvoir implique de grandes responsabilités.

Aller de l'avant

Alors que nous traversons une année charnière dans le domaine de l’intelligence artificielle, il est essentiel de comprendre et de s’adapter aux tendances émergentes pour maximiser le potentiel, minimiser les risques et étendre de manière responsable l’adoption de l’IA générative.

Mettez l'IA générative au travail avec watsonx™ →

Découvrez comment IBM peut vous permettre de garder une longueur d'avance sur les tendances de l'IA →


[I] « Gartner place l'IA générative au sommet des attentes exagérées du cycle de battage médiatique de 2023 pour les technologies émergentes » Gartner, 16 août 2023

[Ii] « Rapport de Deloitte sur l'état de l'IA générative dans l'entreprise au premier trimestre », Deloitte, janvier 2024

[Iii] "À quoi s'attendre en matière d'IA en 2024 ?" Université de Stanford, 8 décembre 2023

[Iv] « Questions et réponses : un chercheur de l'UW discute de la quantité d'énergie utilisée par ChatGPT » Université de Washington, 27 juillet 2023

[V] « L'IA générative dans l'entreprise » O'Reilly, le 28 novembre 2023

[Vi] « Deepfaking : les élections américaines de 2024 coïncident avec le boom de l'IA » Reuters, 30 mai 2023

[Vii] "Comment les organisations peuvent-elles empêcher l'utilisation croissante de l'IA d'alimenter l'anxiété" Ernst & Young, décembre 2023

Cet article a-t-il été utile?

OuiNon


Plus de Intelligence artificielle




Créer des expériences employés exceptionnelles

4 min lire - Alors que la frontière entre vie personnelle et vie professionnelle des employés devient plus floue que jamais, les employés s'attendent à un lieu de travail plus flexible et plus empathique, qui prend pleinement en compte leur personnalité. Ce changement dans les attentes des employés se produit dans un environnement difficile caractérisé par des progrès technologiques rapides, des écarts de compétences croissants et des problèmes socio-économiques imprévisibles. Et pour couronner le tout, la nature même des RH résiste à l’optimisation, car les expériences des employés sont difficiles à quantifier et les organisations sont difficiles à changer. Malgré ces défis,…




6 façons dont l'IA générative peut optimiser la gestion des actifs

3 min lire - Chaque gestionnaire d'actifs, quelle que soit la taille de l'organisation, est confronté à des missions similaires : rationaliser la planification de la maintenance, améliorer la fiabilité des actifs ou des équipements et optimiser les flux de travail pour améliorer la qualité et la productivité. Dans une récente étude de l'IBM Institute for Business Value menée auprès des responsables de la chaîne d'approvisionnement, près de la moitié des personnes interrogées ont déclaré avoir adopté de nouvelles technologies en réponse aux défis. Il y a encore plus d’aide à l’horizon grâce à la puissance des modèles de base de l’intelligence artificielle (IA) générative, combinée à l’IA traditionnelle, pour…




Comment la Recording Academy utilise IBM Watsonx pour améliorer l'expérience des fans aux GRAMMYs®

3 min lire - À travers les GRAMMYs®, la Recording Academy® cherche à reconnaître l'excellence dans les arts et les sciences de l'enregistrement et à garantir que la musique reste une partie indélébile de notre culture. Lorsque les plus grandes stars mondiales du disque traverseront le tapis rouge lors de la 66e édition des GRAMMY Awards, IBM sera de nouveau là. Cette année, le défi commercial auquel sont confrontés les GRAMMY est comparable à celui d'autres événements culturels, sportifs et de divertissement emblématiques : dans le paysage médiatique très fragmenté d'aujourd'hui, créer un impact culturel signifie générer un contenu captivant…




L'assistant IA pour tous : Watsonx Orchestrate combine l'IA générative et l'automatisation pour augmenter la productivité

3 min lire - Et si les employés avaient la possibilité de déléguer sans effort des tâches chronophages, d'accéder aux informations de manière transparente via de simples demandes de renseignements et de s'attaquer à des projets complexes au sein d'une seule application rationalisée ? Et si les clients avaient accès à un agent virtuel intelligent et convivial pour fournir des réponses et permettre des expériences en libre-service 24 heures sur 24 ? Cette révolution technologique est désormais possible, grâce aux capacités innovantes de l’automatisation générative basée sur l’IA. Grâce aux progrès actuels de la technologie AI Assistant, les entreprises peuvent obtenir des résultats commerciaux à une vitesse sans précédent, transformant…

Bulletins d'information IBM

Recevez nos newsletters et nos mises à jour thématiques qui fournissent les dernières idées en matière de leadership éclairé et d'informations sur les tendances émergentes.

S'abonner

Plus de newsletters

spot_img

Dernières informations

spot_img