Zephyrnet-logo

De AI van Nvidia helpt zijn ingenieurs om sneller betere AI op de markt te brengen

Datum:

Zoals u waarschijnlijk weet, is er een onverzadigbare vraag naar AI en de chips die deze nodig heeft. In zoverre is Nvidia nu het zesde grootste bedrijf ter wereld qua marktkapitalisatie, met $1.73 biljoen dollar op het moment van schrijven. Er zijn weinig tekenen van vertraging, aangezien zelfs Nvidia moeite heeft om aan de vraag op dit gebied te voldoen dappere nieuwe AI-wereld. De geldprinter gaat brrrr.

Om het ontwerp van zijn AI-chips te stroomlijnen en de productiviteit te verbeteren, heeft Nvidia een Large Language Model (LLM) ontwikkeld dat het noemt ChipNeMo. Het verzamelt in wezen gegevens uit Nvidia's interne architecturale informatie, documenten en code om het inzicht te geven in de meeste van zijn interne processen. Het is een bewerking van Meta's Llama 2 LLM.

Het werd voor het eerst onthuld in oktober 2023 en volgens de Wall Street Journal (via Business Insider), de feedback is tot nu toe veelbelovend. Naar verluidt is het systeem nuttig gebleken voor het trainen van junior engineers, waardoor ze via de chatbot toegang krijgen tot gegevens, aantekeningen en informatie.

Door over een eigen interne AI-chatbot te beschikken, kunnen gegevens snel worden geparseerd, waardoor veel tijd wordt bespaard omdat er geen traditionele methoden zoals e-mail of instant messaging nodig zijn om toegang te krijgen tot bepaalde gegevens en informatie. Gezien de tijd die het kan duren voor een reactie op een e-mail, laat staan ​​in verschillende faciliteiten en tijdzones, levert deze methode zeker een welkome impuls aan de productiviteit.

Nvidia wordt gedwongen te vechten voor toegang tot de beste halfgeleiderknooppunten. Het is niet de enige die de chequeboekjes opent voor toegang tot de geavanceerde knooppunten van TSMC. Terwijl de vraag enorm stijgt, heeft Nvidia moeite om voldoende chips te maken. Dus waarom zou je er twee kopen als je hetzelfde werk met één kunt doen? Dat helpt ons een heel eind te begrijpen waarom Nvidia zijn eigen interne processen probeert te versnellen. Elke bespaarde minuut telt op, waardoor snellere producten sneller op de markt kunnen worden gebracht. 

Dingen als het ontwerpen van halfgeleiders en het ontwikkelen van code zijn uitstekend geschikt voor AI LLM's. Ze kunnen gegevens snel parseren en tijdrovende taken uitvoeren, zoals foutopsporing en zelfs simulaties.

Ik noemde Meta eerder. Volgens Mark Zuckerberg (via The Verge), Mogelijk heeft Meta eind 600,000 een voorraad van 2024 GPU's. Dat is veel silicium, en Meta is slechts één bedrijf. Gooi bedrijven als Google, Microsoft en Amazon in de mix en het is gemakkelijk te begrijpen waarom Nvidia zijn producten eerder op de markt wil brengen. Er zijn bergen geld te verdienen.

Afgezien van de grote technologie zijn we nog lang niet in staat het gebruik van edge-based AI in onze eigen thuissystemen volledig te realiseren. Je kunt je voorstellen dat AI die betere AI-hardware en -software ontwerpt, alleen maar belangrijker en gangbaarder zal worden. Enigszins beangstigend, dat.

spot_img

Laatste intelligentie

spot_img