header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

La revolución de AI ha generado una nueva carrera de armamentos fichas. No hay x86 en el mercado de la viruta de AI, “la gente ver una fiebre del oro; no hay duda.”

Jul 11, 2018 6:00 AM ET
Ampliar / Mucho ha cambiado desde 1918. Pero si es literal (como el atletismo de la escuela de la ciudad de Londres U12) o carrera (desarrollo de chip AI) figurativo, los participantes todavía mucho ganar.
A. R. Coster tópicos/Agencia/Getty Images

Durante años, el mundo semiconductor parecía haber colocado en un equilibrio tranquilo: Intel vencido prácticamente todos los procesadores RISC en el mundo del servidor, excepto la línea de energía de IBM. En otra parte AMD había autodestruido, lo que es bastante mucho un x86 mundo. Y Nvidia, una entrada tardía en el espacio de la GPU, previamente había cortado a todos de muchos competidores en la década de 1990. De repente solo ATI, ahora parte de AMD, permanecía. Tenía sólo la mitad de la cuota anterior de Nvidia.

Frente al más reciente móvil, parecía ser una historia similar cerca monopolístico: brazo gobernaba el mundo. Intel intentó poderosamente con el procesador Atom, pero la empresa reunió rechazo repetido antes de finalmente renunciar en el año 2015.

Entonces apenas como eso, todo cambió. AMD resurgido como un x86 viable competidor; la llegada de procesadores de arreglo programable (FPGA) de puerta de campo para tareas especializadas como Big Data crea un nuevo nicho. Pero realmente, el cambio colosal en el mundo del chip vino con el advenimiento de la inteligencia artificial (IA) y machine learning (ML). Con estas nuevas tecnologías, ha llegado una avalancha de nuevos procesadores, y vienen de fuentes poco probables.

Esa visión macro no siquiera empezar a explicar las startups. The New York Times pone el número de compañías startup dedicada AI — no las compañías de software, empresas de silicio, en 45 y crecimiento, pero incluso esa estimación puede ser incompleta. Es difícil obtener una imagen completa ya que algunas son en China financiados por el gobierno y volando bajo el radar.

¿Por qué la repentina explosión de hardware después de años de estasis de fabricante de chip? Después de todo, hay consenso general que las GPU de Nvidia son excelentes para AI y son ampliamente utilizadas ya. ¿Por qué necesitamos más fichas ahora y los diferentes tantos en aquel?

La respuesta es un poco compleja, al igual que AI sí mismo.

= “https://arstechnica.com/gadgets/2018/07/the-ai-revolution-has-spawned-a-new-chips-arms-race/#” >

Siga el dinero (y uso y eficiencia)

Mientras que x86 en la actualidad sigue siendo una arquitectura de viruta dominante para la informática, es de propósito muy general para una tarea altamente especializada como AI, dice Addison Snell, CEO de Intersect360 investigación, que cubre HPC y AI problemas.

“Fue construido para ser una plataforma de servidor general. Como tal tiene que ser bastante bueno en todo, “él dice. “Con otros chips, son empresas] construyendo algo que se especializa en una sola aplicación sin tener que preocuparse por el resto de la infraestructura. Así que deja la sobrecarga del sistema operativo y la infraestructura para la x86 host y granja las cosas varios aceleradores y co procesadores. “

La tarea de procesamiento de AI es un proceso muy diferente de computación estándar o GPU de procesamiento, por lo tanto, la necesidad percibida de chips especializados. Un x86 CPU puede hacer AI, pero no una tarea en 12 pasos cuando sólo tres son necesarios; un GPU en algunos casos también puede ser excesiva.

En general, cómputo científico se realiza de manera determinista. Desea conocer dos más tres es igual a cinco y calcularlo a todos sus lugares decimales, x86 y GPU hacen eso muy bien. Pero la naturaleza de la IA es decir 2,5 3.5 se observa que seis casi todo el tiempo sin ejecutar realmente el cálculo. Lo que importa con la inteligencia artificial hoy en día es el patrón encontrado en los datos, no el cálculo deterministico.

En términos más sencillos, lo que define AI y el aprender de máquina es que aprovechar y mejorar de la experiencia. El famoso AlphaGo simula toneladas de partidos vaya a mejorar. Otro ejemplo que utilizas todos los días es el reconocimiento facial de Facebook AI, entrenado por años, por lo que con exactitud puede etiquetar tus fotos (debería ser ninguna sorpresa que Facebook también ha realizado tres adquisiciones de gran reconocimiento facial en los últimos años: [Karma 2012], Mascarada [2016] y Faciometrics [2016]).

Una vez que se aprende una lección con AI, lo hace para que no se repita. Es el sello del aprender de máquina, un subconjunto de la definición superior de AI. En esencia, es la práctica de utilizar algoritmos para analizar datos, aprender de ella y luego hacer una determinación o predicción basada en los datos. Es un mecanismo de reconocimiento de patrones, software de aprendizaje de máquina recuerda que dos más tres es igual a cinco para el sistema general de AI puede usar esa información, por ejemplo. Usted puede obtener a partir de pelos sobre si ese reconocimiento es AI o no.

Ampliar / En el futuro, tal vez incluso “jugando Go” será un caso de uso con un chip dedicado de AI…
STR/AFP/Getty Images

AI para la uno mismo-conducción de coches, para otro ejemplo, no utiliza física determinista para determinar la ruta de otras cosas en su entorno. Simplemente está utilizando experiencia previa este otro coche aquí está viajando de esta manera, y todas las otras veces que observé tal vehículo, viajó de esta manera. Por lo tanto, el sistema espera un determinado tipo de acción.

El resultado de esta predicción de problemas es que se pueden hacer cálculos de AI con cálculos de precisión única. Mientras que CPU y GPU pueden tanto hacerlo muy bien, son de hecho demasiado para la tarea. Un chip de precisión simple puede hacer el trabajo y hacerlo en un espacio mucho más pequeño, más energía.

No nos engañemos, el poder y alcance son un gran problema cuando se trata de chips, quizás especialmente para AI, ya que un tamaño no cabe todos en esta área. Dentro de AI es el aprender de máquina, y dentro de eso es aprendizaje profundo y todos que los que se pueden implementar para diferentes tareas a través de diferentes configuraciones. “No cada chip AI es igual,” dice Gary Brown, director de marketing de Movidius, una empresa de Intel. Movidius hizo un chip personalizado sólo para procesos de aprendizaje profundo porque los pasos están muy restringidos en una CPU. “Cada chip puede manejar inteligencia diferentes en momentos diferentes. Nuestra viruta está inteligencia visual, donde algoritmos utilizan cámara de entrada para derivar el significado de lo que se ve. Es nuestro objetivo”.

Brown dice que incluso hay una necesidad y requisito para distinguir a la red, así como en el centro de datos, las empresas en este espacio simplemente encuentran que necesitan para utilizar fichas diferentes en estos diferentes lugares.

«Fichas en el borde no compiten con chips para el centro de datos», dice. “Fichas de centro de datos como el Xeon tienen que tener capacidades de alto rendimiento para ese tipo de AI, que es diferente para AI en smartphones. Allí tienes que bajar por debajo de 1 w. Entonces la pregunta es, ‘ donde [el procesador nativo] no es lo suficientemente buena así que necesita un chip accesorios?’”

Después de todo, el poder es un problema si quieres AI en tu smartphone o aumentada casco de realidad. Procesadores de Volta de NVIDIA son bestias, a procesamiento de AI pero sacar hasta 300 vatios. No vas a calzador en uno de los que en un smartphone.

Sean Stetson, director de avance de la tecnología en Seegrid, un hacedor de la uno mismo-conducción vehículos industriales como montacargas, también se siente AI y ML han sido mal atendidos por general procesadores hasta el momento. “Para que cualquier algoritmo funcione, si es el aprender de máquina o procesamiento de imágenes procesamiento gráfico, todos ellos tienen flujos de trabajo muy específicos,” él dice. “Si no tienes una base de cálculo creada específico para esos patrones, puedes hacerlo mucho desperdicio datos cargas y transferencias. Es cuando están moviendo datos alrededor cuando estás más ineficiente, que es el caso de incurrir en un montón de señalización y transitoria energía. La eficiencia de un procesador se mide en energía utilizada por la instrucción”.

Un deseo de más especialización y mayor eficiencia energética no es toda la razón estos nuevos chips de AI existen, por supuesto. Brad McCredie, un IBM fellow y el Vicepresidente de desarrollo de sistemas IBM Power, añade un incentivo más obvio para todos aparentemente saltando al carro: el premio es tan grande. “La industria está viendo crecimiento por primera vez en décadas, y estamos viendo una inflexión en el crecimiento exponencial,” él dice. “Que toda inflexión nuevo dinero espera a la industria de ti, y es todo AI. Eso es lo que ha causado la inundación de VC en ese espacio. La gente ve una fiebre del oro; no hay duda.”

See Campaign: https://arstechnica.com/gadgets/2018/07/the-ai-revolution-has-spawned-a-new-chips-arms-race/
Contact Information:
ANDY PATRIZIO

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News