Logo Zéphyrnet

Interview du PDG : Patrick T. Bowen de Neurophos – Semiwiki

Date :

Patrick T. Bowen Neurophos

Patrick est un entrepreneur avec une formation en physique et en métamatériaux. Patrick définit la vision de l'avenir de l'architecture Neurophos et dirige son équipe en recherche et développement, notamment dans la conception de métamatériaux. Il est titulaire d'un master en micro-nanosystèmes de l'ETH Zurich et d'un doctorat en génie électrique de l'Université Duke, sous la direction du professeur David Smith. Après avoir obtenu son diplôme, Patrick a cofondé Metacept avec le professeur Smith ; Metacept est le premier centre de commercialisation et société de conseil en métamatériaux au monde.

Parlez-nous de Neurophos. Quels problèmes résolvez-vous ?
Nous disons que nous existons pour apporter la puissance de calcul du cerveau humain à l’intelligence artificielle. En 2009, il a été découvert que les GPU reconnaissaient bien mieux les chats sur Internet que les CPU, mais les GPU ne sont pas la réponse à l'avenir des charges de travail d'IA. Tout comme les GPU étaient meilleurs que les CPU pour les réseaux de neurones, il pourrait y avoir des architectures meilleures que les GPU par ordre de grandeur. Neurophos est la prochaine étape de l'IA après les GPU.

Les grands modèles de langage d’IA en général ont été limités parce que nous ne disposions pas de suffisamment de puissance de calcul pour réaliser pleinement leur potentiel. Les gens se sont principalement concentrés sur l’aspect formation, simplement parce qu’il fallait former quelque chose d’utile avant même de pouvoir penser à le déployer. Ces efforts ont mis en évidence l’incroyable puissance des grands modèles d’IA, et c’est la preuve que les gens commencent à se concentrer sur la manière de déployer l’IA à grande échelle. La puissance de ces modèles d’IA signifie que des millions d’utilisateurs les utiliseront chaque jour. Combien d’énergie cela coûte-t-il par utilisateur ? Combien coûte le calcul par inférence ? Si ce n’est pas assez bon marché par inférence, cela peut être très limitant pour les entreprises qui souhaitent déployer l’IA.

L'efficacité énergétique est également un problème majeur à résoudre. Si vous avez un serveur qui brûle, disons, 6 kilowatts, et que vous souhaitez aller 100 fois plus vite sans rien faire pour l'efficacité énergétique fondamentale, alors ce serveur de 6 kilowatts devient soudainement un serveur de 600 kilowatts. À un moment donné, vous heurtez un mur ; vous brûlez simplement trop d'énergie et vous ne pouvez pas aspirer la chaleur des puces assez rapidement. À cela s’ajoutent bien sûr les problèmes liés au changement climatique. Quelle quantité d’énergie est consommée par l’IA ? Quelle quantité d’énergie supplémentaire gaspillons-nous simplement en essayant de maintenir les centres de données au frais ? Il faut donc que quelqu'un résolve d'abord le problème de l'efficacité énergétique, puis on puisse aller assez vite pour répondre aux exigences des applications.

Les gens proposent d’utiliser le calcul optique pour l’IA depuis presque aussi longtemps que l’IA existe. Il y a beaucoup d’idées sur lesquelles nous travaillons aujourd’hui et qui sont aussi de vieilles idées des années 80. Par exemple, les équations originales de la fameuse « cape d’invisibilité des métamatériaux » et d’autres éléments comme l’indice de réfraction négatif remontent aux physiciens russes des années 60 et 80. Même si c’était en quelque sorte une idée, elle a été réellement réinventée par David Smith et Sir John Pendry.

De même, les réseaux systoliques, que l’on entend généralement par « processeur tensoriel », sont une vieille idée datant de la fin des années 70. L’informatique quantique est une vieille idée des années 80 que nous avons ressuscitée aujourd’hui. Le traitement optique est également une vieille idée des années 80, mais à cette époque nous n'avions pas la technologie pour la mettre en œuvre. Ainsi, avec Neurophos, nous avons recommencé à réinventer le transistor optique, en créant à partir de zéro le matériel sous-jacent nécessaire à la mise en œuvre des idées sophistiquées d'informatique optique d'il y a longtemps.

Qu’est-ce qui incitera les clients à passer de l’utilisation d’un GPU de Nvidia à l’utilisation de votre technologie ?
Donc, la première chose qui, je pense, intéresse vraiment la plupart des clients, c'est le montant en dollars par mesure d'inférence, car c'est ce qui fait ou défait réellement leur modèle commercial. Nous abordons cette métrique avec une solution qui peut réellement augmenter la vitesse de calcul de 100 fois par rapport à un GPU de pointe, le tout dans la même enveloppe de puissance.

La préoccupation environnementale est également un sujet qui préoccupe les gens, et nous proposons une solution très concrète pour réduire considérablement la consommation d'énergie directement au niveau de l'une de ses sources les plus importantes : les centres de données.

Si vous vous asseyez et réfléchissez à la façon dont cela évolue… quelqu'un doit apporter une solution ici, que ce soit nous ou quelqu'un d'autre. La bande passante dans le boîtier de puces est à peu près proportionnelle à la racine carrée de la surface et la consommation électrique dans le boîtier de puces est généralement proportionnelle à la surface. Cela a conduit à toutes sortes de manières détournées par lesquelles nous essayons de créer et de conditionner des systèmes.

L’emballage est l’une des choses qui ont vraiment été révolutionnaires pour l’IA en général. Au départ, il s'agissait d'une question de coût et de capacité à mélanger des chipsets provenant de différents nœuds technologiques, et surtout, de vitesse d'accès à la mémoire et de bande passante, car vous pouviez intégrer des puces DRAM. Mais maintenant, vous y mettez de plus en plus de jetons !

L'utilisation de l'approche de calcul analogique restaure la consommation d'énergie pour le calcul à la racine carrée de la surface au lieu d'être proportionnelle à la surface. Alors maintenant, la manière dont votre calcul et votre consommation d’énergie évoluent est la même ; vous les équilibrez.

Nous pensons avoir développé la seule approche à ce jour pour le calcul analogique en mémoire qui peut réellement évoluer vers des densités de calcul suffisamment élevées pour mettre en œuvre ces lois de mise à l'échelle.

Comment les clients peuvent-ils interagir avec Neurophos aujourd’hui ? 
Nous créons un programme de partenariat de développement et fournissons un modèle logiciel de notre matériel qui permet aux utilisateurs de charger directement le code PyTorch et de le compiler. Cela fournit au client des mesures de débit et de latence, ainsi que le nombre d'instances par seconde, etc. Il nous fournit également des données sur les goulots d'étranglement affectant le débit du système, afin que nous puissions nous assurer que nous concevons l'architecture globale du système d'une manière qui compte vraiment pour les charges de travail des clients.

Sur quelles nouvelles fonctionnalités/technologies travaillez-vous ?
Les universitaires rêvent depuis longtemps de ce qu'ils pourraient faire s'ils disposaient d'une métasurface comme celle que nous construisons à Neurophos, et il existe de nombreux articles théoriques… mais personne n'en a jamais réellement construit. Nous sommes les premiers à le faire. Dans mon esprit, la plupart des applications intéressantes concernent vraiment les surfaces dynamiques, pas statiques, et il y a d'autres travaux en cours chez Metacept, Duke et dans des sociétés sœurs comme Lumotive qui me passionneront, et je pense que le monde entier. .

Pourquoi avez-vous rejoint l'Incubateur SC et quels sont les objectifs des Neurophos en travaillant avec leur organisation au cours des 24 prochains mois ?

Silicon Catalyst est devenu un accélérateur prestigieux pour les startups de semi-conducteurs, avec une barre d'admission haute. Nous sommes ravis de les avoir comme partenaire. Les startups de matériel informatique sont fortement désavantagées par rapport aux startups de logiciels en raison de leur coût de démonstration/prototype et de leur temps de cycle d'ingénierie plus élevés, et cela est encore plus vrai dans les startups de semi-conducteurs où les outils EDA, les coûts de masque et l'ampleur des équipes d'ingénierie peuvent être prohibitifs. cher pour une entreprise en phase de démarrage. Silicon Catalyst a formé un écosystème assez incroyable de partenaires qui fournissent une aide significative pour réduire leurs coûts de développement et accélérer leur mise sur le marché.

Lisez aussi:

Une conversation franche avec Sean Redmond à propos de ChipStart au Royaume-Uni

Interview du PDG : Jay Dawani de Lemurian Labs

Sept sociétés de catalyseurs de silicium exposeront au CES, l'événement technologique le plus puissant au monde

Partagez cet article via:

spot_img

Dernières informations

spot_img