header-logo

Comunicación de marketing impulsada por inteligencia artificial

Descargo de responsabilidad: el texto que se muestra a continuación se ha traducido automáticamente desde otro idioma utilizando una herramienta de traducción de terceros.


La primera GPU Ampere de Nvidia está diseñada para centros de datos e IA, no para su PC

May 15, 2020 1:19 AM ET

Nvidia presenta hoy su arquitectura de GPU Ampere de próxima generación. La primera GPU en usar Ampere será el nuevo A100 de Nvidia, diseñado para computación científica, gráficos en la nube y análisis de datos. Si bien ha habido muchos rumores sobre los planes amperios de Nvidia para las tarjetas GeForce “RTX 3080”, el A100 se utilizará principalmente en los centros de datos.

El último impulso del centro de datos de Nvidia se produce en medio de una pandemia y un enorme aumento en la demanda de computación en la nube. Al describir la situación del coronavirus como “terriblemente trágica”, el CEO de Nvidia, Jensen Huang, señaló que “el uso en la nube de los servicios va a ver un aumento”, en una rueda de prensa a la que asistió The Verge. “Esas dinámicas son realmente bastante buenas para nuestro negocio de centros de datos … Mi expectativa es que Ampere va a hacerlo muy bien. Es nuestra mejor GPU de centro de datos jamás hecha y aprovecha casi una década de nuestra experiencia en el centro de datos”.

El A100 tiene más de 54 mil millones de transistores, lo que lo convierte en el procesador de 7 nm más grande del mundo. “Eso está básicamente en casi los límites teóricos de lo que es posible en la fabricación de semiconductores hoy en día”, explica Huang. “Eldado más grande que el mundo ha hecho, y el mayor número de transistores en un motor de computación que el mundo ha hecho”.

Nvidia está impulsando sus núcleos Tensor para que sean más fáciles de usar para los desarrolladores, y el A100 también incluirá 19,5 teraflops de rendimiento FP32, 6.912 núcleos CUDA, 40 GB de memoria y 1,6 TB/s de ancho de banda de memoria. Sin embargo, todo este rendimiento no está entrando en la última versión de Assassin’s Creed.

En su lugar, Nvidia está combinando estas GPU en un sistema de IA apilado que alimentará sus supercomputadoras en centros de datos de todo el mundo. Al igual que Nvidia utilizó su arquitectura Volta anterior para crear los sistemas Tesla V100 y DGX, un nuevo sistema DGX A100 AI combina ocho de estas GPU A100 en una sola GPU gigante.

El sistema DGX A100 promete 5 petaflops de rendimiento, gracias a estos ocho A100, y se están combinando con la versión de tercera generación de NVLink de Nvidia. La combinación de estas ocho GPU significa que hay 320 GB de memoria GPU con 12,4 TB/s de ancho de banda de memoria. Nvidia también incluye 15 TB de almacenamiento interno Gen4 NVMe para impulsar las tareas de entrenamiento de IA. Los investigadores y científicos que utilizan los sistemas DGX A100 incluso podrán dividir las cargas de trabajo en hasta 56 instancias, difundiendo tareas más pequeñas a través de las poderosas GPU.

La reciente adquisición de Mellanox, un proveedor de redes de servidores, de 6.900 millones de dólares de Nvidia, también está en trando en juego, ya que el DGX A100 incluye nueve interfaces de red de 200 Gb/s para un total de 3,6 Tb/s por segundo de ancho de banda bidireccional. A medida que los centros de datos modernos se adaptan a cargas de trabajo cada vez más diversas, la tecnología de Mellanox resultará cada vez más importante para Nvidia. Huang describe Mellanox como el importante “tejido de conexión” en la próxima generación de centros de datos.

“Si echas un vistazo a la forma en que se diseñan los centros de datos modernos, las cargas de trabajo que tienen que hacer son más diversas que nunca”, explica Huang. “Nuestro enfoque en el futuro no es sólo centrarse en el servidor en sí, sino pensar en todo el centro de datos como una unidad informática. En el futuro creo que el mundo va a pensar en los centros de datos como una unidad informática y vamos a estar pensando en la computación a escala de centros de datos. Ya no solo computadoras personales o servidores, sino que vamos a operar a escala de centro de datos”.

Imagen: Nvidia
dentro del sistema DGX A100
de Nvidia.

Los sistemas DGX A100 de Nvidia ya han comenzado a enviarse, con algunas de las primeras aplicaciones, incluyendo la investigación en COVID-19 llevada a cabo en el Laboratorio Nacional Argonne de los Estados Unidos.

“Estamos usando las supercomputadoras más poderosas de Estados Unidos en la lucha contra COVID-19, ejecutando modelos de IA y simulaciones sobre la última tecnología disponible, como la NVIDIA DGX A100”, dice Rick Stevens, director de laboratorio asociado de Informática, Medio Ambiente y Ciencias de la Vida en Argonne. “La potencia de cómputo de los nuevos sistemas DGX A100 que llegan a Argonne ayudará a los investigadores a explorar tratamientos y vacunas y a estudiar la propagación del virus, lo que permitirá a los científicos realizar años de trabajo acelerado por IA en meses o días”.

Nvidia dice que Microsoft, Amazon, Google, Dell, Alibaba y muchos otros grandes proveedores de servicios en la nube también están planeando incorporar las GPU A100 individuales en sus propias ofertas. “La adopción y el entusiasmo por Ampere de todos los hiperescaladores y fabricantes de computadoras de todo el mundo no tiene precedentes”, dice Huang. “Este es el lanzamiento más rápido de una nueva arquitectura de centro de datos que hemos tenido, y es comprensible”.

Al igual que el sistema de clúster DGX A100 más grande, Nvidia también permite que cada GPU A100 individual se particione en hasta siete instancias independientes para tareas de proceso más pequeñas. Sin embargo, estos sistemas no son baratos. El DGX A100 de Nvidia viene con grandes promesas de rendimiento, pero los sistemas comienzan en $199,000 para una combinación de ocho de estos chips A100.

Foto por Stefan Etienne / La
tarjeta gráfica GeForce RTX 2080
de The Verge Nvidia.

No está claro cómo Nvidia progresará ahora amperio directamente en GPU de nivel de consumidor todavía. Nvidia presentó su arquitectura Volta, con procesadores de inteligencia artificial dedicados (núcleos de tensores) de la misma manera que presenta Ampere de hoy. Pero Volta no encendió la línea de productos de consumo GeForce de Nvidia. En su lugar, Nvidia lanzó un Titan V de $2,999 con motor Volta (que llamó “la GPU de PC más poderosa jamás creada”) centrado en la IA y el procesamiento de simulación científica, no en juegos o tareas creativas.

A pesar de los rumores de que Volta alimentaba futuras tarjetas GeForce, Nvidia introdujo su arquitectura Turing en 2018, que combinaba sus núcleos tensores dedicados con nuevas capacidades de trazado de rayos. Turing pasó a tarjetas eléctricas como la RTX 2080en lugar a Volta, pocas semanas después de que Huang dijera que la siguiente línea de tarjetas gráficas no se lanzaría durante mucho tiempo. Nvidia incluso despojó los núcleos RT y Tensor para tarjetas con turing como la GTX 1660 Ti.

Las nuevas tarjetas “RTX 3080” podrían estar a solo meses de distancia, pero todavía no sabemos con certeza si usarán esta nueva arquitectura Ampere. “Hay una gran superposición en la arquitectura, eso es sin duda”, insinuó Huang. “La configuración, el tamaño de los diferentes elementos del chip es muy diferente.”

Nvidia utiliza memoria HBM para sus GPU de centro de datos, y eso no es algo que la compañía utiliza para las GPU de juegos de PC de consumo. Las GPU del centro de datos también se centran mucho más en las tareas de IA y el proceso, que en los gráficos. “Estaremos mucho más sesgados hacia los gráficos y menos hacia el punto flotante de doble precisión”, añade Huang.

Las especulaciones en torno a los planes Ampere de Nvidia se han intensificado recientemente, y con la PlayStation 5 y xbox Series X listas para lanzarse con soluciones de GPU impulsadas por AMD a finales de este año, Nvidia seguramente necesitará tener algo nuevo para ofrecer a los jugadores de PC más adelante este año.

Contact Information:

Tom Warren
Tags:   Spanish, United States, Wire