Zephyrnet-logo

AI wordt prominenter in chipontwerp

Datum:

Semiconductor Engineering ging zitten om te praten over de rol van AI bij het beheren van gegevens en het verbeteren van ontwerpen, en de groeiende rol ervan bij het vinden van paden en het voorkomen van stille gegevenscorruptie, met Michael Jackson, corporate vice-president voor R&D bij Cadence; Joel Sumner, vice-president halfgeleider- en elektronica-engineering bij National Instruments; Grace Yu, product- en engineeringmanager bij Meta, en David Pan, professor aan de afdeling Electrical and Computer Engineering aan de Universiteit van Texas in Austin. Wat volgt zijn fragmenten van dat gesprek, dat werd gehouden voor een live publiek op DesignCon. Deel een van deze discussie is hier.

SE: Iedereen en alles verzamelt tegenwoordig een enorme hoeveelheid gegevens. Waar slaan we het op en voor hoelang? En hoe bepalen we wat relevant is?

Sumner: Waar we zien dat AI het eerst wordt toegepast, zijn de plaatsen met een zeer grote en robuuste gegevensopslag. We hebben het geluk dat de testinfrastructuur voor de productie van halfgeleiders op een standaardformaat draait, dus je kunt het in deze enorme databases plaatsen met goede tagging, wat is een geslaagd en wat is een mislukking. Dat heeft ons een springplank gegeven om deze dingen te onderzoeken, en om die als bewijspunt te gebruiken, omdat het toepasbaar is in veel andere industrieën voor validatie of iets geautomatiseerd. Maar die datastores bestaan ​​tegenwoordig op veel plaatsen niet echt op een standaardmanier. Waar het wel bestaat, zien we de adoptie.

SE: Worden al die gegevens op één plek opgeslagen? En hoe zullen die gegevens in de toekomst worden gebruikt?

Sumner: Het zal uiteindelijk om een ​​aantal redenen worden gedistribueerd. Een daarvan is dat het gewoon praktisch is. Ten tweede zijn er klantgegevens bij betrokken. Je kunt dus niet per se alles verwijderen. We gebruiken bijvoorbeeld AI-algoritmen op meerdere plaatsen in de ontwerpketen. We draaien ze in de cloud, maar ook dichtbij waar de gegevens worden verkregen. Dat vereist dat de gegevens worden verspreid. Maar tegelijkertijd heb je echt alle gegevens nodig die je wilt bekijken om het model te trainen om op één plek te staan ​​en gemakkelijk toegankelijk te zijn.

Pan: En u kunt die gegevens gebruiken om u te helpen betere beslissingen te nemen. We kunnen bijvoorbeeld tienduizenden of verschillende lay-outs genereren en vervolgens de simulatie, extractie en de uiteindelijke lay-out doen. Dat is complementair aan de ontwerpexperts.

Jackson: Vanuit een EDA-standpunt kan het creëren van nieuwe gegevens vaak worden gedaan door lay-outs te permuteren of willekeurig te maken. Je kunt dus synthetisch problemen creëren, en dit kan een andere bron van gegevens zijn. Dit is een van de voordelen van EDA.

SE: Gaat dit, gezien de hoeveelheid gegevens, allemaal in de cloud gebeuren of lokaal? We hebben het over veel grotere datasets, die veel meer rekenkracht vereisen.

Jackson: Dat hangt af van het bedrijf. Ik werk met het ontwerp van printplaten en we doen wat werk met AI, en er is veel rekencapaciteit in de cloud die de AI mogelijk maakt. Kleine bedrijven vinden het misschien goed om hun gegevens in de cloud te bewaren, maar grote bedrijven zullen het in hun privéclouds willen uitvoeren.

Pan: Gegevensprivacy is absoluut een grote zorg. Dat is een belangrijk gebied in termen van machine learning. Maar u hoeft uw gegevens niet door te geven. Je kunt het versleutelen en dan homomorphic computing doen. Veilig computergebruik is een opkomend onderzoeksgebied. Dus zonder gegevens te delen, kunt u het nog steeds controleren.

Yu: Het hangt ervan af over wat voor soort gegevens we het hebben. We hebben een zeer strikt beleid met betrekking tot de privacy van klanten. Alleen mensen die toegang tot die gegevens moeten hebben, kunnen dat doen. Elke medewerker die bij Meta komt, volgt een jaarlijkse training over gegevensprivacy. Voor ontwerpgegevens hangt het af van het project. Sommige gegevens slaan we op de lokale server op en we gebruiken de cloud voor onze toegang tot big data, maar ook voor simulatie en validatie. Dus het is van geval tot geval.

SE: Hoe beïnvloedt dat naarmate de hardware ouder wordt het gedrag van AI?

Sumner: Als het om ouder worden gaat, is het belangrijk dat je praat over de omgeving waarin de AI draait. Het zijn geen algoritmen die we naar leeftijd kijken. Het zijn de trainingsgegevens. U hebt het dus getraind op een bepaalde set productiegegevens en die productiegegevens zijn afkomstig uit een bepaalde productieomgeving. En dan, na verloop van tijd, drijven dingen. U ziet een van de volgende twee situaties. Een daarvan is dat het hele systeem afdrijft, en dus moet de AI dat nu detecteren omdat het hele systeem ver genoeg is verwijderd van de initiële trainingsgegevens dat het opnieuw moet worden getraind. De tweede situatie is wanneer een apparaat doorkomt met iets dat zo anders is dan wat het eerder heeft gezien, dat het algoritme moet zeggen: 'Wacht even, ik ben hier niet het beste antwoord. Ik moet nu een mens raadplegen, want dit is gewoon te ver weg.' Beide zijn voorbeelden van verval in het systeem. Voortdurende verversing is noodzakelijk.

Jackson: Daar ben ik het mee eens. Voortdurende bijscholing is nodig om veroudering tegen te gaan. Maar naarmate de software wordt blootgesteld aan een steeds grotere trainingsset, evolueert deze ook en wordt deze effectiever.

Pan: Omscholing vanuit het niets kan erg duur zijn. In plaats daarvan kun je leren overdragen. Zo hebben we een aantal jaren geleden gewerkt aan hotspotdetectie. Als je iets detecteert op 14nm en je migreert dat naar 7nm, hoef je niet helemaal opnieuw te beginnen. U kunt een originele machine learning-architectuur gebruiken, maar u kunt ergens in het midden beginnen.

SE: Een van de grote problemen van vandaag is stille datacorruptie, die te wijten is aan hardwaredefecten. Kunnen we dit traceren via systemen met behulp van AI en het probleem en de exacte oorzaak identificeren?

Yu: AI is net als elk ander hulpmiddel. Het is niet perfect. Maar de manier om deze problemen te voorkomen, is door een mens regelmatig validatietests te laten uitvoeren, misschien door een bekend scenario te gebruiken om AI en de computer uit te voeren om te zien of we het verwachte resultaat krijgen. Door eenvoudige benaderingen te gebruiken, kunt u het probleem identificeren, de mismatch identificeren en een diepe duik nemen in die gebieden. Ingenieurs zijn niet perfect en AI is niet perfect. Om constant te verbeteren, moet u vaker dubbelchecken en kruiscontroles uitvoeren om dit soort problemen te voorkomen.

Jackson: We investeren zwaar in het hele gebied van verificatie als het gaat om het versnellen of helpen van mensen bij het ontwerp, en het debuggen van functionele problemen in die ontwerpen. Dus we zien dit zeker als een goede plek, en we steken veel energie in AI.

SE: Gebeurt dat alleen in de ontwerpfase, of gedurende de hele levenscyclus van de chip?

Jackson: Tot op zekere hoogte is het de levenscyclus van de chip. Het is het testen ervan, de implementatie en het debuggen van problemen

Sumner: Deze technologie werkt goed voor dingen waarvoor enorme hoeveelheden mensen nodig zijn om allemaal mee te doen en iets uit te zoeken, en om dat te kunnen doen terwijl veel van het alledaagse maar moeilijke werk wordt weggenomen. Het doel is uiteindelijk dat u 's avonds naar huis kunt gaan,' s morgens terugkomt en een rapport krijgt waarin staat: 'Ik heb gigabytes of meer aan gegevens doorgenomen en hier moet je kijken. En ik zeg niet dat er een probleem is, maar dat zou kunnen, dus kijk daar eens naar.' Het neemt speld-in-een-hooibergproblemen en zet ze om in gerichte inspanningen voor hoe u uiteindelijk met een probleem in uw product omgaat. Het kan ook worden toegepast op hoe we onze algoritmen betrouwbaarder maken, waardoor het gevoel ontstaat dat ik op dit ding kan vertrouwen omdat het is getest en ik weet dat het afkomstig is van een betrouwbare bron.

Pan: Er zijn formele manieren om iets te verifiëren en er is simulatie. Uiteindelijk hebben we beide nodig voor een goede dekking. Idealiter willen we al vroeg in het proces die rare storingen kunnen identificeren die stille gegevensbeschadiging veroorzaken. Dat is tegenwoordig een behoorlijk actief onderzoeksonderwerp.

spot_img

Laatste intelligentie

spot_img