header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Nuevo estudio encuentra que es más difícil de apagar un robot cuando está suplicando por su vida. El robot le dijo a sujetos de prueba era miedo de la oscuridad y se declaró ‘ No! Por favor, no desactive me!’

Aug 3, 2018 9:00 AM ET
A Nao robot, el mismo modelo utilizado por los investigadores en su experimento.
Foto de Alexander Koerner/Getty Images

Robots diseñados para interactuar socialmente con los seres humanos poco a poco son cada vez más comunes. Están apareciendo como recepcionistas, guías, guardias de seguridad y porteros. ¿Pero lo buenos en el tratamiento de estos robots como robots? Un cuerpo creciente de evidencia sugiere no es bueno en todo. Los estudios han demostrado repetidamente somos muy susceptibles a señales sociales procedentes de máquinas, y un experimento reciente por investigadores alemanes demuestra que la gente incluso se negará a apagar un robot, si pide por su vida.

En el estudio, publicado en abrir revista acceso PLOS One, se reclutaron 89 voluntarios para completar un par de tareas con la ayuda de Nao, un robot humanoide pequeño. Los participantes dijeron que las tareas (que implicó responder a una serie de bien / o preguntas como “¿usted prefiere pastas o pizza?”; y organizar un programa semanal) fueron para Nao de mejorar el aprendizaje de algoritmos. Pero esto era sólo una historia de la cubierta, y la verdadera prueba llegó después de estas tareas se completaron, y los científicos pidió a los participantes para apagar el robot.

Una foto de la instalación del experimento. Los participantes tuvieron que completar una serie de tareas con el robot Nao antes pide que apague la máquina. 
Crédito: Aike Horstmann et al

En aproximadamente la mitad de los experimentos, el robot protestó, diciendo los participantes era miedo de la oscuridad y aún pidiendo: “¡No! Por favor, no desactive me!” Cuando esto sucedió, los voluntarios humanos fueron capaces de rechazar desactivar el bot. De los 43 voluntarios que escuchó las súplicas de la Nao, 13 se negó. Y los 30 restantes, en promedio, dos veces tan de largo cumplir en comparación con quienes no no escuchó los gritos desesperados a todos. (Imagínese esa escena de El buen lugar de referencia).

Cuando interrogado sobre sus acciones, los participantes que se negaron a apagar el robot le dio una serie de razones para hacerlo. Algunos dijeron que fueron sorprendidos por las súplicas;

otros, estaban asustados que estaban haciendo algo mal. ¿Pero la respuesta más común era simplemente que el robot dijo no quiere apagar, así que estaban en desacuerdo?

Como autores del estudio: “Desencadenada por la objeción, la gente tiende a tratar el robot como una persona real que una máquina siguiendo o considerando por lo menos para seguir su solicitud de permanezca encendida”.

Dio una selección de los participantes de razones para no apagar el robot en el estudio.
Crédito: Aike Horstmann et al

Este hallazgo, dicen, se basa en una teoría más grande conocida como “ecuación de los medios de comunicación.” Esto fue establecido en 1996 del libro del mismo nombre por dos psicólogos: Byron Reeves y Clifford Nass. Reeves y Nass teorizado que los seres humanos tienden a tratar los medios de comunicación no humanos (que incluyen TV, cine, Computadoras y robots) como si fueran humanos. Hablar con máquinas, razonar con nuestras radios y nuestros ordenadores, dijimos Reeves y Nass de la consola.

Diversos estudios desde han mostrado cómo este principio afecta nuestro comportamiento, especialmente cuando se trata de interacciones con robots. Por ejemplo, somos más probable disfrutar interactuando con un bot que percibimos como teniendo la misma personalidad tipo como nosotros, y felizmente le asociamos las máquinas con los estereotipos de género. Observamos lo que se conoce como la “regla de la reciprocidad” cuando interactuar con robots (es decir, tendemos a ser amable con ellos cuando son agradables para nosotros) y que incluso recibe órdenes de uno si se presenta como una figura de autoridad.

“Ahora y en futuro,” escribió un grupo de eruditos en el tema, en 2006, “habrá más similitudes entre las interacciones humano-humano y humano-máquina que diferencias.”

Y esto no es la primera vez que hemos probado el escenario “pidiendo la computadora no quiere morir”. Una investigación similar se llevó a cabo en 2007, con un robot que se asemeja a un gato que también abogó por para su vida. Los participantes se vieron obligados a desactivar mediante la observación de los científicos y todos ellos lo hicieron, pero no antes de pasar por una lucha moral grave.

En un clip video del experimento, se puede ver el robot pide un voluntario: «Realmente no vas a apagarme ¿?» El ser humano, dice: “Sí lo haré!” — mientras que de no hacerlo.

El nuevo estudio, publicado el 31 de julio, se basa en este trabajo anterior mediante el uso de un mayor número de participantes. También prueba si hace una diferencia si el robot fue demostrado para tener habilidades sociales antes de que le pide que no se apaga. En algunos de los ensayos, Nao había expresado opiniones a los voluntarios humanos, contó chistes y comparte información personal. Sorprendentemente, este comportamiento social no tenía un efecto enorme sobre la Nao “salvó” de los voluntarios.

Así que ¿qué significa todo esto para nuestro futuro lleno de máquinas? ¿Estamos destinados a ser manipulados por socialmente sofisticados bots que sabe cómo presionar nuestros botones? Sin duda es algo a tener en cuenta, dice Aike Horstmann, un estudiante de doctorado en la Universidad de Duisburg-Essen, que dirigió el nuevo estudio. Pero, dice, no es una amenaza enorme.

-Oigo esta preocupación mucho,”Horstmann indica El borde. “Pero creo que es algo que tenemos que acostumbrarnos a. La teoría de la ecuación de los medios de comunicación sugiere que reaccionamos a [robots] socialmente porque cientos de miles de años, éramos los seres sociales solo en el planeta. Ahora no somos, y tenemos que adaptarnos a él.

Es una reacción inconsciente, pero puede cambiar.”

En otras palabras: acostumbrarse a apagar las máquinas, aunque no parece que guste. Son silicio y electricidad, no carne y sangre.

See Campaign: https://www.theverge.com/2018/8/2/17642868/robots-turn-off-beg-not-to-empathy-media-equation
Contact Information:
James Vincent

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News