Logo Zéphyrnet

Libérer l'innovation : AWS et Anthropic repoussent ensemble les limites de l'IA générative | Services Web Amazon

Date :

Amazon Bedrock est le meilleur endroit pour créer et faire évoluer des applications d'IA générative avec des modèles de langage étendus (LLM) et d'autres modèles de base (FM). Il permet aux clients d'exploiter une variété de FM hautes performances, tels que la famille de modèles Claude d'Anthropic, pour créer des applications d'IA génératives personnalisées. En 2021, lorsqu'Anthropic a commencé à construire sur AWS, personne n'aurait pu imaginer à quel point la famille de modèles Claude serait transformatrice. Nous rendons les modèles d'IA génératifs de pointe accessibles et utilisables pour les entreprises de toutes tailles via Amazon Bedrock. En seulement quelques mois depuis qu'Amazon Bedrock est devenu généralement disponible le 28 septembre 2023, plus de 10 XNUMX clients l'ont utilisé pour livrer, et beaucoup d'entre eux utilisent Claude.. Des clients tels que ADP, Broadridge, Cloudera, Dana-Farber Cancer Institute, Genesys, Genomics England, GoDaddy, Intuit, M1 Finance, Perplexity AI, Proto Hologram, Rocket Companies et plus encore utilisent les modèles Claude d'Anthropic sur Amazon Bedrock pour stimuler l'innovation en matière d'IA générative et créer des expériences client transformatrices. Et aujourd'hui, nous annonçons une étape passionnante avec l'arrivée de la prochaine génération de Claude sur Amazon Bedrock : Claude 3 Opus, Claude 3 Sonnet et Claude 3 Haiku.

Présentation des modèles Claude 3 d'Anthropic

Anthropic dévoile sa prochaine génération de Claude avec trois modèles avancés optimisés pour différents cas d'utilisation. Haiku est le modèle le plus rapide et le plus rentable du marché. Il s’agit d’un modèle compact et rapide pour une réactivité quasi instantanée. Pour la grande majorité des charges de travail, Sonnet est 2 fois plus rapide que Claude 2 et Claude 2.1 avec des niveaux d'intelligence plus élevés. Il excelle dans les tâches intelligentes exigeant des réponses rapides, comme la récupération de connaissances ou l'automatisation des ventes. Et il atteint l’équilibre idéal entre intelligence et rapidité – des qualités particulièrement essentielles pour les cas d’utilisation en entreprise. Opus est le FM le plus avancé, le plus performant et le plus performant, doté de capacités de raisonnement approfondi, de mathématiques avancées et de codage, avec des performances de haut niveau sur des tâches très complexes. Il peut naviguer dans des invites ouvertes et de nouveaux scénarios avec une fluidité remarquable, notamment l'automatisation des tâches, la génération d'hypothèses et l'analyse de tableaux, de graphiques et de prévisions. Et Sonnet est disponible pour la première fois sur Amazon Bedrock aujourd'hui. Les évaluations actuelles d'Anthropic suggèrent que la famille de modèles Claude 3 surpasse les modèles comparables en matière de résolution de problèmes de mots mathématiques (MATH) et de mathématiques multilingues (MGSM), des références critiques utilisées aujourd'hui pour les LLM.

  1. Capacités visuelles – Les modèles Claude 3 ont été formés pour comprendre les données structurées et non structurées dans différents formats, non seulement le langage, mais également les images, les graphiques, les diagrammes, etc. Cela permet aux entreprises de créer des applications d'IA génératives intégrant diverses sources multimédia et de résoudre des problèmes véritablement interdomaines. Par exemple, les sociétés pharmaceutiques peuvent interroger des documents de recherche sur des médicaments ainsi que des diagrammes de structure de protéines pour accélérer la découverte. Les organisations médiatiques peuvent générer automatiquement des légendes d’images ou des scripts vidéo.
  2. Les meilleurs benchmarks de leur catégorie – Claude 3 dépasse les modèles existants sur les évaluations standardisées telles que les problèmes mathématiques, les exercices de programmation et le raisonnement scientifique. Les clients peuvent optimiser les procédures expérimentales spécifiques à un domaine dans la fabrication ou auditer les rapports financiers sur la base de données contextuelles, de manière automatisée et avec une grande précision, à l'aide de réponses basées sur l'IA.

    Plus précisément, Opus surpasse ses pairs sur la plupart des critères d'évaluation courants des systèmes d'IA, notamment les connaissances expertes de premier cycle (MMLU), le raisonnement expert de niveau supérieur (GPQA), les mathématiques de base (GSM8K), et bien plus encore. Il présente des niveaux élevés de compréhension et d’aisance sur des tâches complexes, à la pointe de l’intelligence générale.

  3. Hallucinations réduites – Les entreprises ont besoin de résultats prédictifs et contrôlables des systèmes d’IA dirigeant les processus automatisés ou les interactions avec les clients. Les modèles Claude 3 atténuent les hallucinations grâce à des techniques d'IA constitutionnelles qui assurent la transparence du raisonnement du modèle et améliorent la précision. Claude 3 Opus montre un gain de précision estimé 2x par rapport à Claude 2.1 sur les questions ouvertes difficiles, réduisant ainsi la probabilité de réponses erronées. Alors que les entreprises clientes font confiance à Claude dans des secteurs tels que la santé, la finance et la recherche juridique, la réduction des hallucinations est essentielle pour la sécurité et la performance. La famille Claude 3 établit une nouvelle norme en matière de sortie d'IA générative fiable.

Avantages des FM Anthropic Claude 3 sur Amazon Bedrock

Grâce à Amazon Bedrock, les clients bénéficieront d'un accès facile pour construire avec les derniers modèles d'Anthropic. Cela inclut non seulement les modèles de langage naturel, mais également leur gamme élargie de modèles d'IA multimodaux capables de raisonner de manière avancée sur du texte, des images, des graphiques, etc. Notre collaboration a déjà aidé nos clients à accélérer l’adoption de l’IA générative et leur a apporté une valeur commerciale. Voici quelques façons dont les clients utilisent les modèles Claude d'Anthropic sur Amazon Bedrock :

« Nous développons une solution d'IA générative sur AWS pour aider les clients à planifier des voyages épiques et à créer des expériences qui changent la vie avec des itinéraires de voyage personnalisés. En construisant avec Claude sur Amazon Bedrock, nous avons réduit les coûts de génération d'itinéraires de près de 80 % en créant rapidement une plate-forme d'IA évolutive et sécurisée qui peut organiser le contenu de nos livres en quelques minutes pour fournir des recommandations de voyage cohérentes et très précises. Nous pouvons désormais reconditionner et personnaliser notre contenu de différentes manières sur nos plateformes numériques, en fonction des préférences des clients, tout en mettant en valeur les voix locales de confiance, tout comme Lonely Planet le fait depuis 50 ans.

— Chris Whyde, vice-président principal de l'ingénierie et de la science des données, Lonely Planet

« Nous travaillons avec AWS et Anthropic pour héberger notre modèle Anthropic Claude personnalisé et affiné sur Amazon Bedrock afin de soutenir notre stratégie consistant à fournir rapidement des solutions d'IA générative à grande échelle et avec un cryptage de pointe, une confidentialité des données et une technologie d'IA sécurisée intégrée dans tout ce que nous faisons. Notre nouvelle technologie de plateforme Lexis+ AI propose une recherche conversationnelle, un résumé perspicace et des capacités de rédaction juridique intelligentes, qui permettent aux avocats d'augmenter leur efficacité, leur efficacité et leur productivité.

— Jeff Reihl, vice-président exécutif et directeur technique, LexisNexis Legal & Professional

« Chez Broadridge, nous nous efforçons d'automatiser la compréhension des exigences réglementaires en matière de reporting afin de créer une plus grande transparence et d'accroître l'efficacité pour nos clients opérant sur les marchés financiers nationaux et mondiaux. Grâce à l'utilisation de Claude sur Amazon Bedrock, nous sommes ravis d'obtenir une précision encore plus élevée dans nos expériences avec les capacités de traitement et de synthèse. Avec Amazon Bedrock, nous avons le choix dans notre utilisation des LLM et nous apprécions les performances et les capacités d'intégration qu'ils offrent.

— Saumin Patel, vice-président de l'ingénierie de l'IA générative, Broadridge

La famille de modèles Claude 3 répond à divers besoins, permettant aux clients de choisir le modèle le mieux adapté à leur cas d'utilisation spécifique, ce qui est essentiel pour développer un prototype réussi et des systèmes de production ultérieurs capables d'avoir un réel impact, que ce soit pour un nouveau produit, une fonctionnalité ou un nouveau produit. processus qui améliore les résultats. En gardant les besoins des clients en tête, Anthropic et AWS offrent là où cela compte le plus pour les organisations de toutes tailles :

  1. Performance améliorée – Les modèles Claude 3 sont nettement plus rapides pour les interactions en temps réel grâce aux optimisations matérielles et logicielles.
  2. Précision et fiabilité accrues – Grâce à une mise à l'échelle massive ainsi qu'à de nouvelles techniques d'auto-supervision, les gains attendus de 2x en précision pour les questions complexes sur de longs contextes signifient une IA encore plus utile, sûre et honnête.
  3. Une personnalisation plus simple et sécurisée – Les capacités de personnalisation, telles que la génération augmentée par récupération (RAG), simplifient la formation des modèles sur des données propriétaires et la création d'applications soutenues par diverses sources de données, afin que les clients disposent d'une IA adaptée à leurs besoins uniques. De plus, les données propriétaires ne sont jamais exposées à l'Internet public, ne quittent jamais le réseau AWS, sont transférées en toute sécurité via VPC et sont cryptées en transit et au repos.

Et AWS et Anthropic réaffirment continuellement notre engagement à faire progresser l'IA générative de manière responsable. En améliorant constamment les capacités du modèle en s'engageant dans des frameworks tels que IA constitutionnelle au sein de l’ Engagements volontaires de la Maison Blanche sur l’IA, nous pouvons accélérer le développement et le déploiement sûrs et éthiques de cette technologie transformatrice.

L'avenir de l'IA générative

À l’avenir, les clients créeront de toutes nouvelles catégories d’applications et d’expériences génératives basées sur l’IA avec la dernière génération de modèles. Nous commençons tout juste à exploiter le potentiel de l’IA générative pour automatiser des processus complexes, augmenter l’expertise humaine et remodeler les expériences numériques. Nous nous attendons à voir des niveaux d'innovation sans précédent à mesure que les clients choisissent les modèles d'Anthropic dotés de compétences multimodales exploitant tous les outils dont ils ont besoin pour créer et faire évoluer des applications d'IA générative sur Amazon Bedrock. Imaginez des assistants conversationnels sophistiqués fournissant des réponses rapides et hautement contextuelles, des moteurs de recommandations personnalisés qui se fondent de manière transparente dans des images pertinentes, des diagrammes et des connaissances associées pour guider intuitivement les décisions. Imaginez une recherche scientifique turbocompressée par une IA générative capable de lire des expériences, de synthétiser des hypothèses et même de proposer de nouveaux domaines d’exploration. Il y a tellement de possibilités qui seront réalisées en tirant pleinement parti de tout ce que l'IA générative a à offrir via Amazon Bedrock. Notre collaboration garantit que les entreprises et les innovateurs du monde entier disposeront des outils nécessaires pour atteindre la prochaine frontière de l’innovation générative basée sur l’IA de manière responsable et pour le bénéfice de tous.

Conclusion

L'IA générative n'en est encore qu'à ses débuts, mais une collaboration étroite et l'accent mis sur l'innovation ouvrent la voie à une nouvelle ère d'IA générative sur AWS. Nous avons hâte de voir ce que les clients construiront ensuite.

Ressources

Consultez les ressources suivantes pour en savoir plus sur cette annonce :


A propos de l'auteure

Swami Sivasubramanian est vice-président des données et de l'apprentissage automatique chez AWS. Dans ce rôle, Swami supervise tous les services AWS Database, Analytics, AI & Machine Learning. La mission de son équipe est d'aider les organisations à exploiter leurs données avec une solution de données complète et de bout en bout pour stocker, accéder, analyser, visualiser et prévoir.

spot_img

Dernières informations

spot_img