header-logo

Comunicación de marketing impulsada por inteligencia artificial

Descargo de responsabilidad: el texto que se muestra a continuación se ha traducido automáticamente desde otro idioma utilizando una herramienta de traducción de terceros.


Nvidia comienza a enviar el A100, su primera GPU de centro de datos basado en Ampere

May 18, 2020 2:48 AM ET

2555435ebb0b0b549420.45298401-Argonne National Laboratory Installs NVIDIA DGX A100 – Image courtesy Argonne National Laboratory

Nvidia anunció hoy que su NVIDIA A100,la primera de sus GPU basadas en su arquitectura Ampere, ahora está en plena producción y ha comenzado a enviar a clientes a nivel mundial. Ampere es un gran salto generacional en el diseño de la arquitectura GPU de Nvidia, proporcionando lo que la compañía dice es el "mayor salto en el rendimiento hasta la fecha" en las ocho generaciones de su hardware gráfico.

Específicamente, el A100 puede mejorar el rendimiento en el entrenamiento e inferencia de IA hasta 20 veces en comparación con las GPU anteriores del centro de datos Nvidia, y ofrece ventajas en casi cualquier tipo de cargas de trabajo de centros de datos con uso intensivo de GPU, incluidos análisis de datos, modelado de proteínas y otros usos informáticos científicos y representación gráfica basada en la nube.

La GPU A100 también se puede escalar hacia arriba o hacia abajo dependiendo de las necesidades, lo que significa que puede utilizar una sola unidad para manejar hasta siete tareas separadas con particiones, y puede combinarlas para trabajar juntas como una GPU virtual grande para abordar las tareas de entrenamiento más difíciles para aplicaciones de IA. La función de particionamiento de "GPU multiinstancia" en particular es novedosa para esta generación, y realmente ayuda a enfatizar la capacidad del A100 para proporcionar el mayor valor para el costo para los clientes de todos los tamaños, ya que teóricamente se podría reemplazar hasta siete GPU discretas en un centro de datos si ya está descubriendo que tiene algo de espacio para la cabeza en sus necesidades de uso.

Junto con el anuncio de producción y envío, Nvidia también anuncia que varios clientes ya están adoptando el A100 para su uso en sus superordenadores y centros de datos, incluidos Microsoft Azure, Amazon Web Services, Google Cloud y casi todos los proveedores de nube significativos que existen.

Nvidia también anunció el sistema DGX A100, que combina ocho de las GPU A100 conectadas utilizando NVLink de Nvidia. También está disponible inmediatamente directamente desde Nvidia y desde sus socios de reventa aprobados.

Contact Information:

Darrell Etherington
Tags:   Spanish, United States, Wire