Zephyrnet-Logo

Was ist eine GPU? Die Chips, die den KI-Boom antreiben, und warum sie Billionen wert sind

Datum:

Während die Welt sich beeilt, die neueste Welle von KI-Technologien zu nutzen, ist ein Teil der Hightech-Hardware zu einem überraschend beliebten Gut geworden: der Grafikprozessor oder die GPU.

Eine GPU der Spitzenklasse lässt sich gut verkaufen Zehntausende Dollar, und der führende Hersteller Nvidia hat seine Marktbewertung gesehen auf über 2 Billionen US-Dollar steigen da die Nachfrage nach seinen Produkten steigt.

Auch GPUs sind nicht nur High-End-KI-Produkte. Auch in Telefonen, Laptops und Spielekonsolen gibt es weniger leistungsstarke GPUs.

Sie fragen sich jetzt wahrscheinlich: Was ist eine GPU eigentlich? Und was macht sie so besonders?

Was ist eine GPU?

GPUs wurden ursprünglich hauptsächlich für die schnelle Generierung und Anzeige komplexer 3D-Szenen und -Objekte entwickelt, wie sie beispielsweise in Videospielen vorkommen computergestütztes Design Software. Moderne GPUs übernehmen auch Aufgaben wie dekomprimieren Videostreams.

Das „Gehirn“ der meisten Computer ist ein Chip, der als Zentraleinheit (CPU) bezeichnet wird. CPUs können zum Generieren grafischer Szenen und zum Dekomprimieren von Videos verwendet werden. Im Vergleich zu GPUs sind sie bei diesen Aufgaben jedoch in der Regel weitaus langsamer und weniger effizient. CPUs eignen sich besser für allgemeine Rechenaufgaben wie Textverarbeitung und Durchsuchen von Webseiten.

Wie unterscheiden sich GPUs von CPUs?

Eine typische moderne CPU besteht aus 8 bis 16 ZollKerne„Jeder von ihnen kann komplexe Aufgaben nacheinander bearbeiten.

GPUs hingegen verfügen über Tausende relativ kleiner Kerne, die so konzipiert sind, dass sie alle gleichzeitig („parallel“) arbeiten, um eine schnelle Gesamtverarbeitung zu erreichen. Dadurch eignen sie sich gut für Aufgaben, die eine große Anzahl einfacher Vorgänge erfordern, die gleichzeitig und nicht nacheinander ausgeführt werden können.

Herkömmliche GPUs gibt es in zwei Hauptvarianten.

Erstens gibt es eigenständige Chips, die häufig in Zusatzkarten für große Desktop-Computer enthalten sind. Zweitens handelt es sich um GPUs in Kombination mit einer CPU im gleichen Chippaket, die häufig in Laptops und Spielekonsolen wie der PlayStation 5 zu finden sind. In beiden Fällen steuert die CPU, was die GPU tut.

Warum sind GPUs für KI so nützlich?

Es stellt sich heraus, dass GPUs für mehr als nur die Generierung grafischer Szenen eingesetzt werden können.

Viele der Techniken des maschinellen Lernens dahinter künstliche Intelligenz, sowie tiefe neuronale Netze, stützen sich stark auf verschiedene Formen der Matrixmultiplikation.

Dies ist eine mathematische Operation, bei der sehr große Zahlenmengen multipliziert und summiert werden. Diese Vorgänge eignen sich gut für die Parallelverarbeitung und können daher von GPUs sehr schnell ausgeführt werden.

Was kommt als nächstes für GPUs?

Die Rechenleistung von GPUs nimmt aufgrund der steigenden Anzahl der Kerne und ihrer Betriebsgeschwindigkeit stetig zu. Diese Verbesserungen sind in erster Linie auf Verbesserungen in der Chipherstellung durch Unternehmen wie z. B. zurückzuführen TSMC in Taiwan.

Die Größe einzelner Transistoren – die Grundkomponenten jedes Computerchips – nimmt ab, sodass mehr Transistoren auf der gleichen physischen Fläche untergebracht werden können.

Das ist jedoch nicht die ganze Geschichte. Während herkömmliche GPUs für KI-bezogene Rechenaufgaben nützlich sind, sind sie nicht optimal.

So wie GPUs ursprünglich dafür entwickelt wurden, Computer durch die Bereitstellung spezieller Grafikverarbeitung zu beschleunigen, gibt es Beschleuniger, die maschinelle Lernaufgaben beschleunigen sollen. Diese Beschleuniger werden oft als Rechenzentrums-GPUs bezeichnet.

Einige der beliebtesten Beschleuniger, hergestellt von Unternehmen wie AMD und Nvidia, waren ursprünglich traditionelle GPUs. Im Laufe der Zeit haben sich ihre Designs weiterentwickelt, um verschiedene Aufgaben des maschinellen Lernens besser bewältigen zu können, beispielsweise durch die Unterstützung effizienterer „Gehirn schweben" Zahlenformat.

Andere Beschleuniger wie der von Google Tensor-Verarbeitungseinheiten und Tenstorrents Tensix Kernewurden von Grund auf entwickelt, um tiefe neuronale Netze zu beschleunigen.

GPUs für Rechenzentren und andere KI-Beschleuniger verfügen in der Regel über deutlich mehr Speicher als herkömmliche GPU-Zusatzkarten, was für das Training großer KI-Modelle von entscheidender Bedeutung ist. Je größer das KI-Modell ist, desto leistungsfähiger und genauer ist es.

Um das Training weiter zu beschleunigen und auch größere KI-Modelle wie ChatGPT zu bewältigen, können viele Rechenzentrums-GPUs zu einem Supercomputer zusammengefasst werden. Dies erfordert eine komplexere Software, um die verfügbare Rechenleistung für Zahlen richtig zu nutzen. Ein anderer Ansatz besteht darin, Erstellen Sie einen einzigen sehr großen Beschleuniger, so wie die "Wafer-Scale-Prozessor” produziert von Cerebras.

Sind Spezialchips die Zukunft?

Auch die CPUs stehen nicht still. Aktuelle CPUs von AMD und Intel verfügen über integrierte Low-Level-Anweisungen, die die für tiefe neuronale Netze erforderliche Zahlenverarbeitung beschleunigen. Diese zusätzliche Funktionalität hilft vor allem bei „Inferenz“-Aufgaben, also bei der Nutzung von KI-Modellen, die bereits an anderer Stelle entwickelt wurden.

Um die KI-Modelle überhaupt trainieren zu können, werden weiterhin große GPU-ähnliche Beschleuniger benötigt.

Es ist möglich, immer spezialisiertere Beschleuniger für bestimmte Algorithmen des maschinellen Lernens zu erstellen. Kürzlich hat beispielsweise ein Unternehmen namens Groq ein „Sprachverarbeitungseinheit” (LPU), speziell für die Ausführung großer Sprachmodelle nach dem Vorbild von ChatGPT entwickelt.

Die Entwicklung dieser spezialisierten Prozessoren erfordert jedoch erhebliche technische Ressourcen. Die Geschichte zeigt, dass die Nutzung und Beliebtheit eines bestimmten maschinellen Lernalgorithmus tendenziell ihren Höhepunkt erreicht und dann wieder abnimmt – teure Spezialhardware kann daher schnell veraltet sein.

Für den Durchschnittsverbraucher dürfte das jedoch kein Problem darstellen. Die GPUs und anderen Chips in den von Ihnen verwendeten Produkten werden wahrscheinlich still und leise immer schneller.

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bild-Kredit: Nvidia

spot_img

Neueste Intelligenz

spot_img