Zephyrnet-logo

Zeven hardwareverbeteringen die we nodig hebben om de AI-revolutie mogelijk te maken

Datum:

De potentiële, positieve impact die AI zal hebben op de samenleving als geheel is onmogelijk te overschatten. Pervasive AI blijft echter een uitdaging. Trainingsalgoritmen kunnen buitensporige hoeveelheden kracht, tijd en rekencapaciteit vergen. Inferentie zal ook zwaarder worden bij toepassingen zoals medische beeldvorming en robotica. Applied Materials schat dat AI tot 25% van de wereldwijde elektriciteit (tegenover 5% nu) tenzij we doorbraken kunnen bereiken op het gebied van processors, software, materiaalwetenschap, systeemontwerp, netwerken en andere gebieden.

Er zijn tegenwoordig twee hoofdrichtingen voor de ontwikkeling van compute- en AI-technologie: systemen op extreme schaal en edge/pervasive massaal gedistribueerde systemen. Ze komen allebei met een mix van vergelijkbare en uiteenlopende uitdagingen.

Vanuit hardwareperspectief zijn dit volgens mij de belangrijkste gebieden die verbetering behoeven.

1. Gespecialiseerde verwerking. Computerarchitecturen bereikten een belangrijk keerpunt in 2006. Prestatieverbeteringen bereiken door de wet van Moore en Dennard schalen duurder en problematischer geworden. Tegelijkertijd maakten co-processors een comeback. NVIDIA heeft de G80 uitgebracht, zijn eerste GPU gericht op servers dat jaar. De eerste inspanningen het ontwikkelen van AI-processors begon destijds ook.

Sindsdien zijn GPU's alomtegenwoordig geworden in AI HPC. Over 50 bedrijven ontwikkelen AI-processors, waaronder Google, Qualcomm, Amazon, Facebook, Samsung en vele anderen. En Data Processing Units (DPU's) voor netwerk, opslag en beveiliging worden een vaste waarde in clouds en exascale computers.

De uitdaging voor de komende drie jaar zal draaien om het vinden van de magisch heerlijke combinatie voor verschillende AI-toepassingen. Is cloudgebaseerde ML-training het beste bij? processors op wafelschaal or chips in Exascale-computers? Of welk niveau van training moet plaatsvinden op apparaten in een massaal gedistribueerd systeem? We hebben een groot deel van de kerntechnologie voor zowel cloud- als edge-AI. Wat we nodig hebben, zijn meer AI-specifieke architecturen, samen met intelligente, op ML gebaseerde dynamische systeemconfiguratie en -optimalisatie.

2. In de buurt van gegevensverwerking. Meer dan 60% van de energie die door computers wordt gebruikt, wordt verbruikt bij het pendelen van gegevens tussen opslag-, geheugen- en verwerkingseenheden. Het verminderen of zelfs elimineren van een groot deel van dit digitale woon-werkverkeer kan het stroomverbruik en de latentie aanzienlijk verminderen. Processing-in-Memory, waarbij een kleine, speciale verwerkingseenheid is geïntegreerd in het random access-geheugen, is logisch in datacenters en exascale compute in het algemeen.

Aan de rand kan het kunnen verwerken van gegevens in de sensor, of in ieder geval voordat het wordt gestreamd of verzonden naar een extern apparaat, een manier zijn om de doorvoer en opslag van gegevens enorm te verminderen. Alleen zinvolle gebeurtenissen of gegevens zouden worden overgedragen aan een externe service en alleen als een intelligente engine aan de rand dat zou hebben gezegd.

Net als gespecialiseerde verwerking is dit een innovatie op korte termijn.

3. Niet-CMOS-processors​ Zoals ik schreef in mijn laatste artikel, goedkope, gemakkelijk te integreren processors gemaakt met flexibele transistors en/of substraten zullen de weg vrijmaken voor het verminderen van voedselverspilling, het vinden van waterlekken of het aanmoedigen van recycling. Sommige van deze tags zijn gewoon slimme sensoren die onbewerkte gegevens verzenden, maar ze zullen in toenemende mate gebruikmaken van machine learning om het dataverkeer te verminderen en de 'waarde' van hun communicatie te verhogen.

Arm onderzoek, in combinatie met Pragmatische halfgeleider, vorig jaar pronkte Kunststofarm, een experimenteel op penny-prijs gedrukt neuraal netwerk met sensor dat voor deze taken zou kunnen worden gebruikt. Processorontwerpen, EDA-tools, productieapparatuur en software moeten allemaal verder worden ontwikkeld en geïntegreerd in een end-to-end print-elektronica-as-a-service-platform. Het identificeren van een killer-applicatie zal de volgende stap en ontwikkelingssnelheid voor dit domein bepalen.

4. Gebeurtenisgebaseerde/drempelverwerking. Profeet heeft een event-based beeldprocessor ontwikkeld met pixels die onafhankelijk van elkaar werken. Gegevens worden alleen bijgewerkt wanneer er veranderingen optreden, niet op een gesynchroniseerde cyclus over de imager, vergelijkbaar met hoe het menselijk oog functioneert. Dit vermindert de hoeveelheid vastgelegde gegevens enorm, waardoor snelheden tot 10,000 frames per seconde mogelijk zijn. Energieverbruik, latentie en computeroverhead worden allemaal verlaagd, terwijl de beeldresolutie wordt verbeterd.

Stel je voor dat je een foto maakt van een downhill ski-race: de lichaamsmechanica van een individuele racer kan tot in de kleinste details worden vastgelegd door onnodige updates van een statische lucht te elimineren. Auto-ongelukken kunnen nauwkeuriger worden gereconstrueerd.

Naast computervisie kunnen op gebeurtenissen gebaseerde sensorische apparaten worden gebruikt om trillingsanalyse, spraakherkenning en andere berekeningen in gegevensintensieve toepassingen te stroomlijnen. Stelt u zich een slimme tatoeage voor die alleen betekenisvolle gebeurtenissen over uw biosignalen doorgeeft aan uw slimme horloge of zorgverlener nadat een drempel of reeks gebeurtenissen is bereikt. Je zou in realtime kunnen volgen op een stroom gegevens, met een klein computersysteem, bepaalde gebeurteniskenmerken van een systeemstatus of van een menselijke emotie, of om divergentie in bepaalde cognitieve ziekten te voorspellen.

5. Neuromorfe processors. Het is mogelijk om kunstmatige neurale netwerken of meer in het algemeen elektronische componenten te ontwerpen op een manier die is geïnspireerd op de architectuur van het menselijk brein. Carver Mead theoretiseerde voor het eerst over neuromorfe processors in de jaren 80. Maar nog steeds vandaag, slechts een paar experimentele chips zoals SpiNNaker 1 en Spinaker 2, een 10 miljoen core processor-platform dat is geoptimaliseerd voor de simulatie van spiking neurale netwerken, bestaat.

Neuromorphic computing lijkt veelbelovend, maar vereist nog steeds doorbraken op het gebied van modeltraining, ML-ontwikkeltools en andere technologieën. We hebben ook hardware nodig die geschikt is voor verschillende gebruikssituaties: een chipset met een wafelformaat werkt niet voor toepassingen met laag energieverbruik. Hoewel neuromorfisch onderzoek vooral gericht is op exascale-systemen, kan het zinvol zijn om zoveel mogelijk energie te concentreren op toepassingen zoals het spotten van trefwoorden met ultralaag vermogen, gebeurtenisdetectie voor autonoom rijdende voertuigen of andere gebruiksscenario's voor gegevensstreaming. Er kan sneller vooruitgang worden geboekt en doorbraakconcepten kunnen worden opgeschaald. De toekomstige killer-toepassing voor neuromorfisme is misschien niet in exascale-systemen, maar meer in low-power-georiënteerde edge-computing.

6. Extreme omgevingskoeling. Datacenters zijn geplant in verlaten mijnen, ondergrondse schuilkelders en stadshavens om de mechanische koelbelasting te verminderen. Ook vloeistofkoeling lijkt een comeback te maken.

Cryocomputing, indien specifiek ontworpen om te profiteren van de fysieke verschijnselen die optreden bij cryogene temperaturen, zou aanzienlijke voordelen kunnen opleveren in termen van prestaties per watt. Het belangrijkste is om ontwerpoptimalisaties van materialen naar apparaten naar systemen te onderzoeken. Er zal een inspanning van de industrie nodig zijn om de technologie tot leven te brengen voor grootschalige toepassing in datacenters en/of voor exascale computersystemen, maar de eerste onderzoeken zien er veelbelovend uit en zijn de moeite waard om dieper te onderzoeken.

7. Geen computerarchitecturen. Als we verder kijken naar mogelijke bio-geïnspireerde modellen, zouden we kunnen onderzoeken hoe we de manier kunnen reproduceren waarop ons impliciete langetermijngeheugen ons in staat stelt om bekende maar complexe prestaties efficiënt te bereiken, zoals achteruitrijden met een auto of een boek lezen door stap voor stap samen te voegen. stap processen in een relatief geautomatiseerde procedure.

In een computerwereld zou het systeem kunnen vertrouwen op aangeleerde of ervaringsgerichte functies om rekenintensieve taken te verkorten als ze al een keer zijn uitgevoerd. Op een hoog niveau zou een zero compute-systeem een ​​mechanisme bevatten dat kan herkennen of een applicatie nieuw of geleerd is, een proces voor het uitvoeren van geleerde taken en een bibliotheek met geleerde functies voor toekomstig opnieuw afspelen. We zouden natuurlijk kunnen stellen dat dit niet echt nul rekenkracht is, maar bijna nul rekenkracht. Desalniettemin zou het een enorm aantal berekeningen kunnen verminderen.

Net als bij mensen moeten we ons bewust zijn van de afwegingen tussen het uit het hoofd uitvoeren van taken en het kritisch onderzoeken van elk proces. Maar ervan uitgaande dat de balans werkt tussen een groot aantal bekende taken, versus herberekenen, kunnen we ons een intelligent systeem op exaschaal voorstellen dat de computerwereld opsplitst tussen bekende en onbekende en het antwoord distribueert naar een enorme hoeveelheid domme systemen.

Dit is natuurlijk nog maar het begin. Naarmate AI zich verspreidt, zal ook de behoefte aan meer prestaties en efficiëntie op hardwareniveau toenemen.

De post Zeven hardwareverbeteringen die we nodig hebben om de AI-revolutie mogelijk te maken verscheen eerst op Semiconductor Engineering.

spot_img

Laatste intelligentie

spot_img