Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Jul 24, 2018 7:13 AM ET

Este mod de Amazon eco permite Alexa entender lenguaje de señas. ‘Si la voz es el futuro de la informática, ¿qué pasa con aquellos que no pueden hablar o escuchar?’


Este mod de Amazon eco permite Alexa entender lenguaje de señas. ‘Si la voz es el futuro de la informática, ¿qué pasa con aquellos que no pueden hablar o escuchar?’

iCrowd Newswire - Jul 24, 2018

Parece voz interfaces van a ser una gran parte del futuro de la informática; apareciendo en los teléfonos, altavoces inteligentes y hasta electrodomésticos. ¿Pero lo útil que es esta tecnología para la gente que no se comunica a través de discurso? ¿Estamos creando un sistema que bloquea ciertos usuarios?

Estas fueron las preguntas que inspiraron a Abhishek Singh desarrollador para crear un mod que permite auxiliar de Alexa de Amazon entiende algunos comandos de lenguaje de signos simples. En un video, Singh demuestra cómo funciona el sistema. Eco Amazonia está conectado a un ordenador portátil, con una webcam (y algunos software de aprendizaje de máquina de back-end) descifrar gestos de Singh en texto y discurso.

Hablando con El borde, Singh dice que el proyecto era un “experimento” inspirado en la moda reciente de asistentes basados en voz. “Si estos dispositivos son a convertirse en una forma central en que en interactuar con nuestras casas o realizar tareas entonces algunos pensaron debe ser dado a aquellos que no pueden oír o hablar,”, dice Singh. “Diseño sin costuras debe ser incluido en la naturaleza”.

El mod real sí mismo fue hecho con la ayuda de software de TensorFlow de Google, concretamente TensorFlow.js, que permite a los usuarios de código máquina aprendizaje aplicaciones en JavaScript (lo que es más fácil de ejecutar aplicaciones en navegadores web). Como con cualquier software de visión de máquina, Singh tuvo que enseñar su programa a entender las señales visuales alimentando datos de entrenamiento. Él no podría encontrar cualquier bases de datos de lenguaje de señas online y en su lugar creada su propio conjunto de señales básicas.

El mod comprende sólo algunos gestos, pero Añadir nuevo vocabulario sería fácil.
Crédito: Abhishek Singh

El software es sólo una prueba de concepto en este punto y es incapaz de leer signos que no hizo una demostración en el video. Pero añadiendo más vocabulario es relativamente fácil, y Singh dice que planea código abierto el código y escriba un blog explicativo por su trabajo. “Al”liberar el código personas serán capaces de descargar y construir en él más o simplemente ser inspiradas para explorar este espacio de problema, dice El punto.

Coincidentemente, ayer Amazon lanzó su propia actualización de Alexa que permite a los usuarios con el Show de eco equipada pantalla de interactuar con el asistente virtual sin necesidad de utilizar comandos de voz. Demuestra que la Amazonas por lo menos está empezando a considerar cómo incorporar la accesibilidad a su asistente de voz, y quien sepa, entender el lenguaje de signo podría ser el siguiente paso. Es sin duda técnicamente posible, como se muestra en demo de Singh.

“No hay ninguna razón por la que el Show de Amazon o a alguno de los asistentes de voz basada en cámara y la pantalla no podía construir este derecho de funcionalidad,” dice Signh. “Para mí eso es probablemente el último caso de uso de lo que muestra este prototipo”.

See Campaign: https://www.theverge.com/2018/7/24/17606614/amazon-alexa-echo-mod-sign-language-gestures-ai
Contact Information:
James Vincent

Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish

image




iCrowdNewswire

Tags:    News