Logotipo de Zephyrnet

¿Qué es una GPU? Los chips que impulsan el auge de la IA y por qué valen billones

Fecha:

A medida que el mundo se apresura a hacer uso de la última ola de tecnologías de inteligencia artificial, una pieza de hardware de alta tecnología se ha convertido en un bien sorprendentemente popular: la unidad de procesamiento de gráficos, o GPU.

Una GPU de primera línea se puede vender por decenas de miles de dólares, y el fabricante líder Nvidia ha visto su valoración de mercado superar los 2 billones de dólares a medida que aumenta la demanda de sus productos.

Las GPU tampoco son sólo productos de inteligencia artificial de alta gama. También hay GPU menos potentes en teléfonos, portátiles y consolas de juegos.

Probablemente ahora te estés preguntando: ¿Qué es realmente una GPU? ¿Y qué los hace tan especiales?

¿Qué es una GPU?

Las GPU se diseñaron originalmente principalmente para generar y mostrar rápidamente escenas y objetos 3D complejos, como los involucrados en videojuegos y diseño asistido por ordenador software. Las GPU modernas también manejan tareas como descomprimir secuencias de vídeo.

El "cerebro" de la mayoría de las computadoras es un chip llamado unidad central de procesamiento (CPU). Las CPU se pueden utilizar para generar escenas gráficas y descomprimir vídeos, pero suelen ser mucho más lentas y menos eficientes en estas tareas en comparación con las GPU. Las CPU son más adecuadas para tareas informáticas generales, como procesamiento de textos y navegación por páginas web.

¿En qué se diferencian las GPU de las CPU?

Una CPU moderna típica se compone de entre 8 y 16"núcleos”, cada uno de los cuales puede procesar tareas complejas de manera secuencial.

Las GPU, por otro lado, tienen miles de núcleos relativamente pequeños, que están diseñados para funcionar todos al mismo tiempo (“en paralelo”) para lograr un procesamiento general rápido. Esto los hace muy adecuados para tareas que requieren una gran cantidad de operaciones simples que se pueden realizar al mismo tiempo, en lugar de una tras otra.

Las GPU tradicionales vienen en dos versiones principales.

En primer lugar, existen chips independientes, que a menudo vienen en tarjetas adicionales para computadoras de escritorio grandes. En segundo lugar están las GPU combinadas con una CPU en el mismo paquete de chip, que a menudo se encuentran en computadoras portátiles y consolas de juegos como la PlayStation 5. En ambos casos, la CPU controla lo que hace la GPU.

¿Por qué las GPU son tan útiles para la IA?

Resulta que las GPU se pueden reutilizar para hacer más que generar escenas gráficas.

Muchas de las técnicas de aprendizaje automático detrás inteligencia artificial, Tales como redes neuronales profundas, dependen en gran medida de varias formas de multiplicación de matrices.

Esta es una operación matemática en la que se multiplican y suman conjuntos muy grandes de números. Estas operaciones se adaptan bien al procesamiento paralelo y, por lo tanto, las GPU pueden realizarlas muy rápidamente.

¿Qué sigue para las GPU?

La capacidad de procesamiento de números de las GPU aumenta constantemente debido al aumento en el número de núcleos y sus velocidades de funcionamiento. Estas mejoras se deben principalmente a mejoras en la fabricación de chips por parte de empresas como TSMC en Taiwan.

El tamaño de los transistores individuales (los componentes básicos de cualquier chip de computadora) está disminuyendo, lo que permite colocar más transistores en la misma cantidad de espacio físico.

Sin embargo, esa no es toda la historia. Si bien las GPU tradicionales son útiles para tareas informáticas relacionadas con la IA, no son óptimas.

Así como las GPU se diseñaron originalmente para acelerar las computadoras proporcionando procesamiento especializado para gráficos, existen aceleradores que están diseñados para acelerar las tareas de aprendizaje automático. Estos aceleradores suelen denominarse GPU de centros de datos.

Algunos de los aceleradores más populares, fabricados por empresas como AMD y Nvidia, comenzaron como GPU tradicionales. Con el tiempo, sus diseños evolucionaron para manejar mejor diversas tareas de aprendizaje automático, por ejemplo, admitiendo las más eficientes ".flotador cerebral" formato numérico.

Otros aceleradores, como el de Google unidades de procesamiento de tensor y Tentorrent Tensix núcleos, fueron diseñados desde cero para acelerar las redes neuronales profundas.

Las GPU de centros de datos y otros aceleradores de IA suelen venir con mucha más memoria que las tarjetas adicionales de GPU tradicionales, lo cual es crucial para entrenar modelos de IA de gran tamaño. Cuanto más grande sea el modelo de IA, más capaz y preciso será.

Para acelerar aún más el entrenamiento y manejar modelos de IA aún más grandes, como ChatGPT, se pueden agrupar muchas GPU de centros de datos para formar una supercomputadora. Esto requiere un software más complejo para aprovechar adecuadamente el poder de procesamiento de números disponible. Otro enfoque es crear un único acelerador muy grande, tales como el "procesador a escala de oblea” producido por Cerebras.

¿Son los chips especializados el futuro?

Las CPU tampoco se han quedado quietas. Las CPU recientes de AMD e Intel tienen instrucciones integradas de bajo nivel que aceleran el procesamiento numérico requerido por las redes neuronales profundas. Esta funcionalidad adicional ayuda principalmente con tareas de “inferencia”, es decir, el uso de modelos de IA que ya se han desarrollado en otros lugares.

Para entrenar los modelos de IA, en primer lugar, todavía se necesitan grandes aceleradores tipo GPU.

Es posible crear aceleradores cada vez más especializados para algoritmos específicos de aprendizaje automático. Recientemente, por ejemplo, una empresa llamada Groq ha producido un “unidad de procesamiento del lenguaje”(LPU) diseñado específicamente para ejecutar modelos de lenguaje de gran tamaño siguiendo la línea de ChatGPT.

Sin embargo, la creación de estos procesadores especializados requiere considerables recursos de ingeniería. La historia muestra que el uso y la popularidad de cualquier algoritmo de aprendizaje automático tiende a alcanzar su punto máximo y luego a disminuir, por lo que el costoso hardware especializado puede quedar obsoleto rápidamente.

Para el consumidor medio, sin embargo, es poco probable que eso sea un problema. Es probable que las GPU y otros chips de los productos que utiliza sigan volviéndose más rápidos.

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

Crédito de la imagen: Nvidia

punto_img

Información más reciente

punto_img