Logo Zéphyrnet

Alexa déplace la plupart des opérations vers les puces construites par Amazon

Date :

Tapan Chauhan

Alexa transfère la majorité de ses activités sur le Processeur Inferentia livré par Amazon. Le mouvement loin de la Puces Nvidia utilisé par Alexa récemment aidera la vitesse de l'assistant vocal et réduira ses demandes d'énergie, comme indiqué par l'organisation, tout en donnant à Amazon plus de contrôle sur ses voix associer.

Les puces de Nvidia sont devenues le terminal central d'Alexa. Les puces transmettent les demandes et les commandes des clients Alexa aux fermes de serveurs Amazon Web Services dans le cloud et transforment la réaction du texte dans le discours. Actuellement, les puces Inferentia prendront le relais.

Ils sont fabriqués explicitement pour les missions d'intelligence artificielle qui impliquent une grande partie du travail d'Alexa, telles que la perception du langage et des images et la production d'une réaction appropriée.

Aux côtés d'Alexa, les puces Inferentia seront actuellement utilisées pour sa reconnaissance faciale, y compris Reconnaissance. L'objectif principal de la construction de la puce personnalisée était d'améliorer la vitesse et la productivité d'Alexa, contrairement au modèle actuel.

Les mises à niveau d'Alexa garanties par la nouvelle puce incluent le déplacement des informations vers et depuis le cloud. Cela évoque la variation d'Alexa basse consommation qu'Amazon est apparue il y a un an. Il a mis l'intégralité de la préparation dans le cloud plutôt que le gadget, la force de coupe et la mémoire nécessaires énormément, ce qui rend possible l'ajout d'Alexa à une large gamme d'appareils simples comme les lumières habituellement incapables d'aider la puissance de manipulation significative. Dans tous les cas, la dépendance vis-à-vis du cloud diverge de l'ascension constante des organisations délivrant des puces destinées à garder la voix et AI procédures sur un gadget.

Par exemple, l'ingénieur en technologie vocale Sensory propose un partenaire vocal réglable explicitement pour les machines de la maison intelligente sans besoin de cloud. Tangible est également apparu son nouveau Hub vocal étape pour lisser, en créant des mots de réveil personnalisés pour ces gadgets. Des points forts similaires sont essentiels pour la scène Picovoice AI et le moteur de preuve de distinction vocale d'ID R & D, qui ajoute une sécurité vocale aux appareils sans s'attendre à communiquer des informations. Les monstres technologiques ne sont donc pas limités aux cadres anxieux. De nombreuses Alexa ou Assistant Google- les gadgets d'autonomisation se souviennent des composants de pointe comme le simple identifiant de mot de réveil d'Aspinity, la programmation de reconnaissance vocale TrulyHandsfree de Sensory pour les applications iOS et Android, ou le pack d'avancement du casque Alexa approuvé par Amazon de Knowles.

Amazon n'est pas le seul à espérer supplanter Nvidia et d'autres créateurs de puces engagés par des décisions internes, sans cloud ou autre.

Pour autant que l'on sache, Google travaille avec Samsung pour planifier un processeur, peut-être appelé Whitechapel, pour les téléphones cellulaires Pixel et les PC Chromebook. La puce devrait permettre à Google Assistant de mieux fonctionner dans les deux types de gadgets.

La nouvelle puce supplanterait le Qualcomm-construits actuellement utilisés. Google ajoute de manière fiable de nouvelles améliorations aux capacités de Google Assistant, et la refonte de l'équipement devrait accompagner le produit. Une puce personnalisée peut mieux répondre à ce besoin qu'une puce avec une utilisation plus étendue.

Apple a également commencé à chercher des puces à l'intérieur. L'organisation a également opté pour sa nouvelle gamme de PC Mac, utilisant des puces qu'elle a créées à la place de son complice typique, Intel. Apple a probablement l'intention d'améliorer l'efficacité et la vitesse de Siri avec ses puces, mais peut-être avec une accentuation sur la gestion des bords que la nouvelle puce d'Amazon néglige. Cela pourrait être important pour la raison pour laquelle Apple a acquis une startup basée sur le raisonnement humain Xnor.ai en janvier pour 200 millions de dollars révélés. L'innovation IA basse consommation de Xnor est destinée à fonctionner de manière cohérente sans le cloud, ce qui signifierait des activités plus productives et plus rapides.

Source: https://chatbotslife.com/alexa-moves-most-operations-to-amazon-built-chips-ec73b445e202?source=rss—-a49517e4c30b—4

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?