header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Apple actualiza las políticas de privacidad después de la reacción de grabación de audio de Siri

Sep 14, 2019 6:48 AM ET

El proceso de “gradación” de Apple, que escucha las grabaciones de voz de Siri, ahora será interno y tiene una opción para que los usuarios opten por no participar.

Apple está tomando medidas para mejorar la privacidad del audio recogido por su asistente de voz Siri, en los talones de la reacción alrededor de un programa que permite a los contratistas escuchar las conversaciones de Siri.

El miércoles, el gigante del teléfono se disculpó por violar la privacidad de los usuarios a través del programa, que se implementó con el fin de mejorar la precisión del audio, un proceso que Apple llama “gradación”. En el futuro, Apple dijo que los clientes ahora tendrán la opción de optar por no participar en el proceso de “calificación”, y que moverá el programa internamente (frente a antes, cuando estaba contratando contratistas externos para escuchar el audio).

“Sabemos que a los clientes les han preocupado informes recientes de personas que escuchan grabaciones de audio de Siri como parte de nuestro proceso de evaluación de calidad de Siri, que llamamos calificación”, dijo Apple en un post del miércoles. “Escuchamos sus preocupaciones, suspendimos inmediatamente la calificación humana de las solicitudes de Siri y comenzamos una revisión exhaustiva de nuestras prácticas y políticas. Como resultado, hemos decidido hacer algunos cambios en Siri”.

A principios de agosto, Apple suspendió el programa después de que un ex contratista de Apple detallara en The Guardian cómo los contratistas escuchan regularmente grabaciones de voz íntimas, incluyendo ofertas de drogas o grabaciones de parejas que tienen relaciones sexuales. Aunque los clips son anónimos y no se conectan a nombres o ID de individuos, pueden contener información confidencial como datos financieros, lo que provoca una lluvia de reacción con respecto a las implicaciones de privacidad del programa.

Apple dijo el miércoles que el programa se reanudará en el otoño con nuevas mejoras centradas en la privacidad.

Por un parte, los usuarios tendrán la opción de optar por no participar en el programa, por lo que las muestras de sus solicitudes de audio no se incluirán en el proceso de “calificación”.

Apple también ya no conservará las grabaciones de audio de las interacciones de Siri de forma predeterminada, y en su lugar dependerá de las transcripciones generadas por computadora para los esfuerzos para mejorar Siri (para aquellos que optan por no participar en el programa). Las grabaciones de audio se almacenarán solo para los usuarios que opten por la calificación: no se almacenarán de forma predeterminada a menos que los usuarios opten por participar.

Y, si los usuarios optan por participar en el programa, solo los empleados de Apple, no los contratistas, podrán escuchar muestras de audio de interacción de Siri, dijo Apple.

“Esperamos que muchas personas opten por ayudar a Siri a mejorar, sabiendo que Apple respeta sus datos y tiene fuertes controles de privacidad en su lugar”, dijo Apple. “Aquellos que decidan participar podrán optar por no participar en cualquier momento.”

Al mismo tiempo, según un informe de The Guardian, Apple también ha terminado contratos para cientos de trabajadores contratados como parte del programa de “gradación”.

Los procesos han aumentado el escrutinio sobre la cantidad de datos que están recopilando los asistentes de voz, cuáles son esos datos, cuánto tiempo se conservan y quién accede a ellos. Amazon se encontró recientemente en agua caliente por un problema similar de escucha y grabación de empleados, por ejemplo.

Tanto Google Home como Amazon Alexa se han enfrentado a su propia reacción en torno al proceso de los contratistas que escuchan las grabaciones para la precisión del audio: en abril, Amazon se puso en el centro de atención por una razón similar, después de que un informe reveló que la compañía emplea miles de auditores para escuchar las grabaciones de voz de los usuarios de Echo. El informe encontró que los revisores de Amazon tamizar hasta 1.000 clips de audio Alexa por turno – escuchando todo, desde conversaciones mundanas a personas que cantan en la ducha, e incluso grabaciones que son perturbadoras y potencialmente criminales, como un niño gritando por ayuda o una agresión sexual. Amazon también se enfrenta a demandas de padres que dicen que Alexa registra a sus hijos sin consentimiento.

Y en julio, los altavoces inteligentes de Google Home y el asistente virtual del Asistente de Google han sido sorprendidos espiando sin permiso —capturando y grabando audio altamente personal de violencia doméstica, llamadas comerciales confidenciales— e incluso algunos usuarios que preguntan sus altavoces inteligentes para reproducir porno en sus dispositivos móviles conectados.

Contact Information:

threatpost.com
Keywords:  afds, afdsafds

Tags:  Latin America, News, North America, Press Release, South America, Spanish, United States, Wire