Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Jul 26, 2018 11:06 AM ET

Google presenta pequeños nuevos chips de AI para el aprender de máquina en el dispositivo. El hardware está diseñado para aplicaciones de empresa, como controles de automatización de control de calidad en una fábrica de


Google presenta pequeños nuevos chips de AI para el aprender de máquina en el dispositivo. El hardware está diseñado para aplicaciones de empresa, como controles de automatización de control de calidad en una fábrica de

iCrowd Newswire - Jul 26, 2018
Nuevo Edge TPU de Google virutas en una moneda estadounidense standard.
Crédito: Google

Hace dos años, Google dio a conocer sus Unidades de procesamiento de Tensor o TPUs — especializado virutas que viven en centros de datos de la empresa y hacen trabajos ligeros de tareas de IA. Ahora, la compañía está pasando su experiencia de AI de la nube y ha tomado los abrigos de su nuevo Edge TPU; un pequeño acelerador AI que se lleva a cabo trabajos de aprendizaje de máquina en dispositivos de IoT.

El TPU de borde está diseñado para hacer lo que se conoce como “inferencia”. Esta es la parte de la máquina donde un algoritmo realmente lleva a cabo la tarea de aprendizaje fue entrenado para hacer; como, por ejemplo, reconocer un objeto en una imagen. TPUs basada en servidores de Google están optimizados para la parte de la formación de este proceso, mientras que estas nuevas TPUs borde hará la inferencia.

Estos nuevo chips están destinados a utilizarse en trabajos de la empresa, no tu próximo smartphone. Esto significa que tareas como controles de automatización de control de calidad en fábricas. Este tipo de trabajo en el dispositivo tiene un número de ventajas sobre el uso de hardware que ha enviado a datos en internet para el análisis. Aprendizaje automático en el dispositivo es generalmente más seguro; experiencias de menor tiempo de inactividad; y entrega resultados más rápidos. Es el argumento de venta de todos modos.

El borde TPU es el hermano pequeño de la regular Tensor unidad de procesamiento, que Google utiliza su propio AI, y que está disponible para otros clientes utilizar a través de la nube de Google.
Google

Google no es la única empresa de diseño de chips para este tipo de tarea de AI en el dispositivo aunque. ARM, Qualcomm, Mediatek y otros hacen sus propios aceleradores de AI, y hechos famoso por Nvidia GPUs dominan el mercado para los algoritmos de entrenamiento.

Sin embargo, lo que tiene Google que sus rivales no es control de la pila entera de AI. Un cliente puede almacenar sus datos en la nube de Google; tren sus algoritmos usando TPUs; y luego realizar inferencia en el dispositivo utilizando el nuevo TPUs de borde. Y más que probable, que van creando su software de aprendizaje de máquina mediante TensorFlow, un marco de codificación creado y operado por Google.

Este tipo de

href = “https://www.theverge.com/2017/5/18/15657256/google-ai-machine-learning-tensorflow-io-2017-platform-play” > integración vertical tiene ventajas obvias. Google puede asegurar que estas diferentes partes hablan unos a otros como eficiente y fluida posible, haciéndolo más fácil para el cliente para jugar (y mantenerse) en el ecosistema de la empresa.

Vicepresidente de Google nube de IoT, Injong Rhee, describe el nuevo hardware como un “especialmente diseñadas para chip ASIC diseñado para los modelos TensorFlow Lite ML en el borde” en un blog post. Rhee dijo: “borde TPUs están diseñados para complementar nuestra nube TPU ofrece, por lo que puede acelerar la formación de la ML en la nube, entonces tiene inferencia de ML veloz en el borde. Sus sensores se convierten en más que los recopiladores de datos, que toman decisiones locales, inteligentes y en tiempo real. “

Curiosamente, Google está también haciendo el borde TPU disponible como un kit de desarrollo, que facilitará a los clientes a probar la capacidad del hardware y ver cómo pueden encajar en sus productos. Este devkit incluye un sistema en el módulo (SOM) que contiene el borde TPU, un CPU de NXP, un elemento seguro de Microchip y funcionalidad Wi-Fi. Se puede conectar a un ordenador o servidor a través de USB o una ranura de expansión PCI Express. Estos devkits aunque sólo están disponibles en versión beta, y clientes potenciales tendrá que aplicar para el acceso.

Esto puede parecer una pequeña parte de la noticia, pero es notable como Google generalmente no permite que al público tener en sus manos en su hardware de AI. Sin embargo, si la empresa quiere que los clientes a adoptar su tecnología, necesita para asegurarse de que puede realizar la prueba primera, en lugar de simplemente preguntando a un salto de fe en el Googlesphere de AI. Esta placa de desarrollo no es sólo un señuelo para las empresas, es una señal de que Google es serio acerca de ser dueño de toda la pila de AI.

See Campaign: https://www.theverge.com/2018/7/26/17616140/google-edge-tpu-on-device-ai-machine-learning-devkit
Contact Information:
James Vincent

Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish

image




iCrowdNewswire

Tags:    News