header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Cómo la tecnología de videojuegos hace posible las redes neuronales

Oct 31, 2017 7:06 PM ET

 

Cuando id Carry, de Id Software, lanzó Doom en 1993, no tenía la menor idea de que su sangriento shooter en primera persona -uno de los primeros en contar con un entorno 3D y fácilmente el más popular en ese momento- ayudaría a generar una revolución en el proceso de las máquinas. información.

Seis años después , Nvidia lanzó GeForce 256, la primera unidad de procesamiento gráfico (GPU) creada específicamente para producir gráficos en 3D para la floreciente industria de los videojuegos. En los 17 años transcurridos desde entonces, las GPU se han convertido no solo en un elemento básico de los juegos de alta gama, que fue la razón primaria original para su desarrollo, sino también una fuerza impulsora detrás de los principales avances en inteligencia artificial (AI).

Gracias a la creación de GPU cada vez más potentes, el aprendizaje automático en profundidad y las redes neuronales están preparadas para cambiar casi todos los aspectos de la sociedad, desde los trabajos que perseguimos y los autos que conducimos hasta el diagnóstico que recibimos cuando vamos al médico.

En las primeras partes (partes de Neural Networks Made Easy ) y en la segunda ( Why the Future of Deep Learning Depende de Good Data ) de “A Mathless Guide to Neural Networks”, explicamos cómo funciona el aprendizaje profundo y por qué los datos son tan importantes para el éxito de AI, respectivamente. En esta tercera entrega de la serie, nos centraremos en algunos de los desarrollos de procesamiento que ayudaron a marcar el auge del aprendizaje profundo de hoy. Para empezar, ayuda a comprender las diferencias entre cómo funcionan las GPU y las CPU.

GPU vs CPU

Por ahora, está familiarizado con el término ‘unidad de procesamiento central’ o CPU. Son los cerebros dentro de su computadora los que procesan el código, lo que le permite hacer de todo, desde calcular los números para reproducir videos de alta definición, para ejecutar varios programas a la vez y de manera transparente. ¿Recuerdas esa interminable campaña de marketing “Intel Inside”? Todo se trataba de la CPU.

Pero la CPU no es el único cerebro de tu computadora. La máquina también contiene otros bits de silicio que son mejores que la CPU en tareas específicas. El más importante de ellos es la unidad de procesamiento gráfico (GPU). Estos chips son similares a las CPU en algunos aspectos, pero muy diferentes en otros.

La mayoría de las CPU modernas tienen entre dos y ocho “núcleos” (esencialmente, mini-CPU), cada una de las cuales puede manejar una operación diferente al mismo tiempo. Cualquiera de estos núcleos puede manejar cualquier operación que les arrojes, y pueden cambiar sin problemas entre ellos. Es por eso que puedes mirar un video mientras descargas software y Snapchatting con tus mejores amigos sin notar ningún inconveniente.

Imagine a un artista de circo que hace malabares con una pelota de béisbol, un boliche, un hacha, una manzana y un huevo. De vez en cuando, toma un bocado de la manzana, deja caer el hacha y toma una antorcha encendida. Esa es una CPU, esencialmente un juego de todos los oficios que puede realizar múltiples tareas fácilmente.


Por el contrario, las GPU modernas tienen miles de núcleos, pero son mucho más simples en diseño. Cada núcleo solo puede hacer una cosa específica, pero todos pueden hacerlo exactamente al mismo tiempo, muy rápido, una y otra vez.

El intérprete de circo GPU solo puede manejar bolos, pero puede hacer malabarismos de 10,000 a la vez, mientras que una CPU realmente no puede hacer frente a muchos bolos, ya que está muy ocupado siendo flexible y multitarea.

Eso hace que las GPU sean perfectas para operaciones que requieren grandes cantidades de funciones repetitivas, como generar los miles de millones de polígonos utilizados para crear gráficos 3D en entornos de juego. También los hace ideales para entrenar redes neuronales, que deben ejecutar las mismas operaciones una y otra vez en grandes cantidades de datos.

 

GPU en juego

Las GPU funcionan su magia haciendo complejos cálculos matemáticos miles de millones de veces por segundo.

Los entornos de videojuego están formados por triángulos diminutos, que se combinan de diferentes maneras para formar la tierra, el cielo, las montañas, las naves espaciales y los monstruos de ojos saltones que ves en la pantalla. Estos triángulos están formados por diferentes números que indican su ubicación dentro del entorno, su ángulo relativo a otros triángulos, su color, textura, etc. Las GPU reducen estos números y los convierten en píxeles en una pantalla plana. Cada vez que la pantalla se actualiza o la escena cambia, aunque sea levemente, la GPU tiene que hacer más cálculos para generar nuevos píxeles. Así es como terminas con los ricos entornos de juego en 3D de Call of Duty o Grand Theft Auto.

Para una pantalla de alta definición que se ejecuta a 60 cuadros por segundo, la GPU debe generar 120 millones de píxeles a la vez. Incluso una CPU extremadamente poderosa puede tardar uno o dos segundos en dibujar un solo cuadro. Pero divida el trabajo entre miles de núcleos de GPU, todos operando simultáneamente, y ocurre casi instantáneamente (el proceso se conoce como paralelismo).

 

En términos generales, es la diferencia entre contratar a Miguel Ángel para pintar un fresco en el techo, o miles de artesanos, cada uno responsable de una pulgada cuadrada de superficie.

La abrumadora potencia de las GPU es la razón por la cual, en 2010, la Fuerza Aérea de los EE. UU. Pudo construir una supercomputadora encadenando 1,760 consolas de juegos Sony PlayStation 3. En ese momento era la computadora más poderosa en el departamento de Defensa de EE. UU., Sin embargo, era más de 90 por ciento más barata de construir que una supercomputadora tradicional y usaba una décima parte de la electricidad.

El elefante en la RAM

El uso de GPU para reconocimiento de imágenes funciona a la inversa. En lugar de convertir números en imágenes, el procesador convierte las imágenes en números.

Digamos que ha creado una red neuronal que consta de miles de GPU, cada una de las cuales tiene miles de núcleos, esencialmente, una supercomputadora. Quieres enseñar a esta supercomputadora cómo identificar un elefante. Utilizando un método conocido como aprendizaje supervisado, comenzaría por alimentar a la red cientos de miles de imágenes de elefantes, tomadas desde todos los ángulos imaginables, cada una etiquetada como “elefante”. La red mapearía cada borde, textura, forma y color en cada imagen, intentando identificar los patrones matemáticos consistentes con las imágenes que llevan esa etiqueta.

En el camino, deseará arrojar imágenes que no contengan elefantes, por lo que la red no llegará a la conclusión de que todo lo que verá es un elefante. Esto ayuda a la red a ajustar gradualmente su modelo y mejorar su precisión en general. para que la red pueda ajustar su modelo y mejorar su precisión. La red atravesaría este proceso sucesivamente con cada imagen, refinando su algoritmo de búsqueda de elefantes con cada nuevo pase.

Cuando le muestre a su supercomputador una nueva imagen, entonces podría predecir si la imagen es de hecho un paquidérmico. Si la red neuronal se equivoca, la envía para más capacitación (un proceso conocido como retropropagación). Cuando deja de mejorar su capacidad de reconocer imágenes, el entrenamiento está hecho.

Aquí está la parte buena: no le has dicho a la red que un elefante tiene la piel gris oscuro, un tronco largo y flexible, una espalda redondeada y piernas gruesas. Usted acaba de decir: “Aquí hay un grupo de objetos llamados ‘elefantes’, descubra qué tienen en común”. En efecto, la red se enseñó a sí misma qué aspecto tiene un elefante.

Armas de destrucción matemática

Una razón por la cual las GPU son tan buenas para entrenar redes neuronales es que sobresalen en algo llamado multiplicación matricial, lo que significa que pueden tomar una tabla de números (por ejemplo, los valores de píxeles en una parte de la imagen) y multiplicarla por otra tabla ( los valores en otra parte). Debido a que las redes neuronales dependen en gran medida de la multiplicación de matrices, el uso de GPU reduce el tiempo que lleva entrenarlas, desde meses o semanas hasta días o incluso horas, en algunos casos.

Las GPU modernas tienden a tener mucha memoria incorporada, por lo que pueden reducir los números sin tener que transferir datos de ida y vuelta a la memoria principal de la computadora, una tarea costosa desde el punto de vista computacional. Eso los hace más rápidos. También son eminentemente escalables; Cuantas más GPU introduzcas en la mezcla, más cálculos podrán manejar a la vez. Y son programables, por lo que puede enseñarles a realizar diferentes tareas, como la escritura a mano o el reconocimiento de voz.

See Campaign: http://techcrunch.com/2017/10/27/how-video-game-tech-makes-neural-networks-possible/
Contact Information:
Ophir Tanz

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News