Zephyrnet-logotyp

Qualcomms AI-spel

Datum:

Qualcomm är ett vanligt namn inom mobilindustrin för chips. Företaget har genererat 33 miljarder dollar i intäkter 2021 och fortsätter att gå framåt med sina innovationer. Qualcomm får dock inte samma synlighet och omnämnande som Nvidia och Intel i världen av AI-chips. Enligt vår uppskattning är Qualcomms bidrag till AI-chipmarknaden jämförbar med Intel och Nvidia med tanke på volymleveransen av smartphones och kiselinnehåll dedikerat till AI de senaste åren. Qualcomm har stadigt gjort framsteg på viktiga AI-chipmarknader och har kanske den mest mångsidiga och heltäckande portföljen för att tillgodose alla AI-chipmarknader.

Figuren visar olika segment inom AI-chipmarknaden och produkter i varje

AI-chipmarknaden har vuxit avsevärt under de senaste åren och du kan läsa allt om det i JP Datas senaste rapporten på AI-chips. Enligt analysen kan den totala marknaden för AI-chips bäst segmenteras efter strömförbrukning: segment för datacenter AI-chips (50+W), AI-chips med medelstor effekt (5-50W, främst för bilmarknader och sådana marknader), AI-chips med låg effekt ( 0.1-5W, främst för mobil- och klientdatorer) och AI-chips med ultralåg effekt (<0.1W för alltid på applikationer). Det finns inga tecken på avmattning i AI ännu med företag såväl som markörer för avancerade enheter som är ivriga att testa nya lösningar. Många användningsfall och spännande applikationer fortsätter att dyka upp. Proof of concept-applikationer som går i produktion driver behovet av AI-inferenschips.

Qualcomm är redo att spela på alla marknader vilket skiljer det från andra företag. För datacentermarknaden har företaget introducerat AI100-chip och resultat som skickats in på MLPerf konkurrera bra med Nvidia. Qualcomm skryter med sin betydligt högre prestanda per watt än konkurrenterna. Qualcomm anpassar aktivt sin Snapdragon-produktlinje för att stödja fordonsmarknaden och nyligen hävdade designvinster på BMW. Qualcomms dominans inom lågenergimarknadssegmentet inom mobilvärlden är välkänd och behöver ingen introduktion. Samma chips erbjuder ultralågeffektläge för applikationer som alltid är på, vilket möjliggör en helt ny uppsättning AI-användningsfall för enhetstillverkare.

Detta gör dess portfölj ännu mer omfattande än Nvidia och Intel om vi håller utbildningsaspekten åt sidan. Nvidia har till exempel inga produkter i mobilutrymmet och inte Intel heller. Intel och Nvidia har inte heller lösningar för marknaden för ultralåg ström.

Qualcomm var något sen till festen och fokuserade tidigare på att accelerera AI genom att förbättra sin Hexagon DSP och Adreno GPU. Företaget då förvärvade Nuvia för att skapa en ny AI-accelerator. Vid Microsofts 2022 Build-konferens meddelade företaget Projekt Volterra, en ny enhet som drivs av Snapdragon-chips som innehåller AI-accelerator, NPU. Den dedikerade acceleratorn kommer att bli en del av Microsofts Windows 11. Via den medföljande SDK för att bygga AI-applikations kommer chipet att möjliggöra AI-användning inom ett stort antal Windows-applikationer för att potentiellt utmana X86-dominansen i PC-världen.

Qualcomm har investerat mycket i AI sedan dess. Qualcomm meddelade 100 miljoner AI-fond långt tillbaka 2018, har offensivt investerat i AI FoU och släpps SDK som gör det möjligt för utvecklare att ta en modell och anpassa den för mobil, bil, IoT, robotteknik eller andra marknader. Även om det inte finns några uppgifter om aktiva AI-utvecklare för Qualcomm, förväntar vi oss att antalet kommer att vara mycket lägre än skryträttigheter som Nvidia och Intel har fått. Faktum är att Googles trender  Sök avslöjar att sökningarna efter Qualcomm AI ligger långt under Nvidia AI eller Intel AI, vilket tyder på att det finns mycket att ta igen.

AI-chipmarknaden växer fortfarande fram. Nvidia har blivit de-facto standard inom utbildning men slutledningsmarknaden har precis börjat sin uppgång. Om Qualcomm verkligen kan erbjuda en konsekvent mjukvaruupplevelse över olika marknadssegment, har de en potential att bli en formidabel aktör på AI-chipmarknaden.

Läs också:

En ny titt på HLS-värdet

Hur man sänker kostnaderna för Conversational AI med upp till 90 %

HLS i en Stanford Edge ML Accelerator Design

Dela det här inlägget via:

plats_img

Senaste intelligens

plats_img