header-logo

Comunicación de marketing impulsada por inteligencia artificial

Descargo de responsabilidad: el texto que se muestra a continuación se ha traducido automáticamente desde otro idioma utilizando una herramienta de traducción de terceros.


Fichas de IA en 2020: Nvidia y los retadores

May 23, 2020 4:03 AM ET

Ahora que el polvo de la presentación de Nvidia de su nuevo chip Ampere AI se ha asentado, echemos un vistazo al mercado de chips de IA detrás de las escenas y lejos de los focos

Pocas personas, los competidores de Nvidia incluidos, cuestionarían el hecho de que Nvidia está llamando a los tiros en el juego de chips de IA hoy en día. El anuncio del nuevo chip Ampere AI en el evento principal de Nvidia, GTC, robó el protagonismo la semana pasada.

Ha habido una amplia cobertura, incluyendo aquí en ZDNetTiernan Ray proporcionó un análisis en profundidad de lo nuevo y digno de mención con respecto a la propia arquitectura de chip. Andrew Brust se centró en el lado del software de las cosas,ampliando el soporte de Nvidia para Apache Spark,uno de los frameworks de código abierto más exitosos para ingeniería de datos, análisis y aprendizaje automático.

Vamos a retomar desde donde lo dejaron, poniendo la nueva arquitectura en perspectiva comparando con la competencia en términos de rendimiento, economía y software.

LÍNEA DE BOTTOM DOBLE DE NVIDIA

La esencia del análisis de Ray es capturar la intención de Nvidia con la nueva generación de chips: Proporcionar una familia de chips que pueda servir tanto para el “entrenamiento” de redes neuronales, donde el funcionamiento de la red neuronal se desarrolla por primera vez en un conjunto de ejemplos, y también para la inferencia, la fase donde las predicciones se hacen en base a nuevos datos entrantes.

Ray señala que esta es una desviación de la situación actual donde diferentes chips Nvidia aqueman en diferentes sistemas informáticos para entrenamiento o inferencia. Continúa agregando que Nvidia espera hacer un argumento económico a las tiendas de IA de que es mejor comprar un sistema basado en Nvidia que pueda hacer ambas tareas.

“Obtienes toda la sobrecarga de memoria adicional, CPU y fuentes de alimentación de 56 servidores … se derrumbó en uno”, dijo Jensen Huang, CEO de Nvidia. “La propuesta de valor económico está realmente fuera de las listas, y eso es lo que realmente es emocionante”.

Jonah Alben, vicepresidente sénior de ingeniería de GPU de Nvidia, dijo a los analistas que Nvidia ya había empujado a Volta, el chip de la generación anterior de Nvidia, en la medida de lo posible sin incendiarse. Fue aún más lejos con Ampere, que cuenta con 54 mil millones de transistores, y puede ejecutar 5 petaflops de rendimiento, o unas 20 veces más que Volta.

2555435ebb25b4781b28-39429237-first-Nvidia-dgx-a100-at-argonne-national-laboratory-image-courtesy-argonne-national-laboratory.jpg

Nvidia busca un doble resultado: Mejor rendimiento y mejor economía

Por lo tanto, Nvidia está después de un doble resultado: Mejor rendimiento y mejor economía. Recordemos que recientemente Nvidia también agregó soporte para LAS CPU de arm. Aunque el rendimiento del procesador Arm puede no estar a la par con Intel en este punto, sus necesidades de potencia frugal también los convierten en una opción atractiva para el centro de datos, según los analistas.

En el frente del software, además de la compatibilidad con Apache Spark, Nvidia también dio a conocer Jarvis,un nuevo marco de aplicación para crear servicios de IA conversacionales. Para ofrecer experiencias interactivas y personalizadas, señala Nvidia, las empresas necesitan capacitar a sus aplicaciones basadas en el lenguaje en datos específicos de sus propias ofertas de productos y requisitos del cliente.

Sin embargo, la creación de un servicio desde cero requiere una amplia experiencia en IA, grandes cantidades de datos y recursos informáticos para entrenar los modelos y software para actualizar regularmente los modelos con nuevos datos. Jarvis tiene como objetivo abordar estos desafíos ofreciendo una canalización de aprendizaje profundo de extremo a extremo para la IA conversacional.

Jarvis incluye modelos de aprendizaje profundo de última generación, que se pueden afinar aún más con Nvidia NeMo,optimizados para la inferencia utilizando TensorRT,e implementados en la nube y en el borde utilizando gráficos Helm disponibles en NGC, el catálogo de software optimizado para GPU de Nvidia.

INTEL Y GRAPHCORE: CHALLENGERS DE ALTO PERFIL

Trabajando hacia atrás, esto es algo que hemos notado una y otra vez para Nvidia: Su plomo no sólo se encuentra en el hardware. De hecho, el software de Nvidia y el ecosistema de socios pueden ser la parte más difícil para la competencia. Sin embargo, la competencia también está haciendo movimientos. Algunos competidores pueden desafiar a Nvidia en la economía, otros en el rendimiento. Veamos qué están tramando los retadores.

Intel ha estado trabajando en su tecnología Nervana durante un tiempo. A finales de 2019, Intel hizo olas cuando adquirió la startup Habana Labs por 2.000 millones de dólares. Como señala el analista Karl Freund,después de la adquisición Intel ha estado trabajando en el cambio de su aceleración de IA de la tecnología De Nervana a Habana Labs.

Freund también destaca la importancia de la pila de software. Señala que la pila de software de IA de Intel es la segunda sólo de Nvidia, en capas para proporcionar soporte (a través de la abstracción) de una amplia variedad de chips, incluyendo Xeon, Nervana, Movidius, e incluso GPU Nvidia. Habana Labs cuenta con dos chips de IA separados,Gaudí para entrenamiento y Goya para la inferencia.

Intel está apostando a que Gaudí y Goya pueden igualar las fichas de Nvidia. Los resultados de referencia de la inferencia de MLPerf publicados el año pasado fueron positivos para Goya. Sin embargo, tendremos que esperar y ver cómo va contra amperios de Nvidia y la pila de software en constante evolución de Nvidia.

graphcore-popvision.png</img class=”” src=”https://zdnet4.cbsistatic.com/hub/i/r/2020/05/21/647b1229-fb77-490f-aa1f-fa828620f86b/resize/1200xauto/ddab85c3d435416684dcef171b4bc5ca/graphcore-popvision.png” alt=”graphcore-popvision.png” width=”727″ >

height-“273” data-original-“https://zdnet4.cbsistatic.com/hub/i/r/2020/05/21/647b1229-fb77-490f-aa1f-fa828620f86b/resize/1200xauto/ddab85c3d435416684dcef171b4bc5ca/graphcore-popvision.png” />

AI chip challenger GraphCore está reforzando Poplar, su pila de software

Otro retador de alto perfil es GraphCore. El fabricante de chips AI con sede en el Reino Unido tiene una arquitectura diseñada desde cero para un alto rendimiento y un estado de unicornio. GraphCore también ha estado ocupado, ampliando su huella en el mercado y trabajando en su software.

Desde los servidores de Dell hasta la nube de Microsoft Azure y el ecosistema de hardware PaddlePaddle de Baidu,GraphCore tiene una serie de ofertas significativas en su lugar. GraphCore también ha estado trabajando en su propia pila de software, Poplar. En el último mes, Poplar ha visto una nueva versión y una nueva herramienta de análisis.

Si Intel tiene mucho que hacer, eso ciertamente también se aplica a GraphCore. Sin embargo, ambos proveedores parecen estar en una trayectoria similar. Con el objetivo de innovar a nivel de hardware, con la esperanza de poder desafiar a Nvidia con un enfoque nuevo y radicalmente diferente, personalizado para cargas de trabajo de IA. Al mismo tiempo, trabajando en su pila de software, y la construcción de su presencia en el mercado.

FRACCIONALZANDO HARDWARE AI CON UNA SOLUCION DE SOFTWARE POR RUN:AI

Por último, pero no menos importante, hay algunos retadores que son menos de alto perfil y tienen un enfoque diferente. Startup Run:AI recientemente saliódel modo de sigilo, con el anuncio de $13 millones en financiación para lo que suena como una solución poco ortodoxa: en lugar de ofrecer otro chip de IA, Run:AI ofrece una capa de software para acelerar la ejecución de la carga de trabajo de aprendizaje automático, en las instalaciones y en la nube.

La empresa trabaja en estrecha colaboración con AWS y es un socio tecnológico de VMware. Su propuesta de valor principal es actuar como una plataforma de gestión para cerrar la brecha entre las diferentes cargas de trabajo de IA y los diversos chips de hardware y ejecutar una plataforma informática de IA realmente eficiente y rápida.

Ejecutar:AI recientemente dio a conocer su fraccionaria GPU sharing para cargas de trabajo de aprendizaje profundo de Kubernetes. Dirigido a tareas de IA ligeras a escala, como la inferencia, el sistema de GPU fraccionado ofrece a los equipos de ingeniería de iA y ciencia de datos la capacidad de ejecutar varias cargas de trabajo simultáneamente en una sola GPU, lo que reduce los costos.

abstraction-layer-runai.png

Run:AI funciona como una capa de abstracción sobre el hardware que ejecuta cargas de trabajo de IA

Omri Geller, cofundador y CEO de Run:AI dijo a ZDNet que el anuncio de Nvidia sobre “fraccionalizar” LA GPU, o ejecutar trabajos separados dentro de una sola GPU, es revolucionario para el hardware de GPU. Geller dijo que ha visto a muchos clientes con esta necesidad, especialmente para cargas de trabajo de inferencia: ¿Por qué utilizar una GPU completa para un trabajo que no requiere el proceso completo y la memoria de una GPU?

Geller Ella dijo:

“Creemos, sin embargo, que esto se administra más fácilmente en la pila de software que a nivel de hardware, y la razón es la flexibilidad. Mientras que la división de hardware crea “GPU más pequeñas” con una cantidad estática de memoria y núcleos de proceso, las soluciones de software permiten la división de GPU en cualquier número de GPU más pequeñas, cada una con una huella de memoria y una potencia de proceso elegidas.

Además, el fraccionamiento con una solución de software es posible con cualquier acelerador de GPU o IA, no solo con servidores Ampere, lo que mejora el TCO para todos los recursos informáticos de una empresa, no solo los más recientes. Esto es, de hecho, lo que permite la función de GPU fraccionaria de Run:AI.”

UNA CAPA DE ACCESIBILIDAD PARA FPGAS CON INACCEL

InAccel es una startup griega, construida en torno a la premisa de proporcionar un gestor de FPGA que permite la aceleración distribuida de grandes conjuntos de datos en clústeres de recursos de FPGA utilizando modelos de programación simples. El fundador y CEO Chris Kachris dijo a ZDNet que hay varios argumentos con respecto a las ventajas de las FPGA frente a las GPU, especialmente para cargas de trabajo de IA

Kachris señaló que las FPGA pueden proporcionar una mejor eficiencia energética (rendimiento/vatio) en algunos casos, y también pueden lograr una latencia menor en comparación con las GPU para redes neuronales profundas (DNN). Para las DNN, Kachris pasó a agregar, los FPGA pueden lograr un alto rendimiento utilizando un tamaño de lote bajo, lo que resulta en una latencia mucho menor. En las aplicaciones que la latencia y la eficiencia energética son fundamentales, pueden prevalecer las FPGA.

Sin embargo, la implementación escalable de clústeres de FPGA sigue siendo un desafío, y este es el problema que InAccel está a la vez que se resuelve. Sus soluciones tienen como objetivo proporcionar una implementación escalable de clústeres de FPGA, lo que demuestra la falta de abstracción, una capa similar a la del sistema operativo para el mundo de FPGA. El orquestador de InAccel permite una fácil implementación, escalado instantáneo y administración automatizada de recursos de clústeres FPGA.

fpga-manager-small-1-768x887.png

Las FPGA pueden lograr un alto rendimiento utilizando un tamaño de lote bajo, lo que resulta en una latencia menor. Su despliegue sigue siendo complejo, y InAccel tiene como objetivo ayudar allí.

Kachris se ha mide como EnAccel con VMware / Kubernetes, o Run.ai / Bitfusion para el mundo FPGA. También afirmó que InAccel facilita a FPGA a los desarrolladores de software. También señaló que los proveedores de FPGA como Intel y Xilinx han reconocido la importancia de un ecosistema fuerte y han formado alianzas sólidas que ayudan a expandir su ecosistema:

“Parece que los proveedores de la nube tendrán que proporcionar una infraestructura diversa y heterogénea, ya que las diferentes plataformas tienen pros y contras. La mayoría de estos proveedores proporcionan recursos totalmente heterogéneos (CPUS, GPU, FPGA y aceleradores dedicados), lo que permite a los usuarios seleccionar el recurso óptimo.

Varios proveedores de nube, como AWS y Alibaba, han comenzado a implementar FPGA porque ven los beneficios potenciales. Sin embargo, la implementación de FPGA sigue siendo difícil, ya que los usuarios deben estar familiarizados con el flujo de herramientas de FPGA. Permitimos a los desarrolladores de software obtener todos los beneficios de las FPGA utilizando el modelo Familiar de PaaS y SaaS y marcos de alto nivel (Spark, Skcikit-learn, Keras), lo que facilita mucho la implementación de FPGA en la nube.”

Cubrir sus apuestas

Se necesita más que fichas rápidas para ser el líder en este campo. La economía es un aspecto que los usuarios potenciales deben considerar, el ecosistema y el software son otro. Teniendo todo en cuenta, parece que Nvidia todavía es ah

de la competencia.

También es interesante notar, sin embargo, que esto está empezando a parecerse cada vez menos a un monocultivo. La innovación viene de diferentes lugares, y en diferentes formas y formas. Esto es algo que Nvidia Alben reconoció también. Y ciertamente es algo que los proveedores de la nube, los proveedores de servidores y los constructores de aplicaciones parecen estar tomando nota de.

La cobertura de las apuestas en el mercado de fichas de IA puede ser lo más inteligente posible.

Contact Information:

George Anadiotis
Tags:   Spanish, United States, Wire