header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Reconocimiento facial de Amazon había emparejado a 28 miembros del Congreso a criminales mugshots. Nueva prueba de ACLU ilustra los límites del sistema de Rekognition de Amazon

Jul 26, 2018 11:06 AM ET
Ilustración por James Bareham / al borde

La American Civil Liberties Union probado sistema de reconocimiento facial de Amazon , y los resultados no eran buenos. Para probar la exactitud del sistema, la ACLU escanea las caras de todos 535 miembros del Congreso contra 25.000 mugshots públicos, utilizando la API abierta de Rekognition de Amazon. Ninguno de los miembros del Congreso en la formación de mugshot, pero generados por el sistema de Amazon 28 partidos falsos, un hallazgo que la ACLU dice plantea serias preocupaciones sobre el uso de Rekognition por la policía.

“Una identificación, si precisa o no, podría costar a la gente su libertad o incluso su vida,” el grupo dijo en una declaración que lo acompaña. “Congreso debe tomar estas amenazas seriamente, golpeó los frenos y promulgar una moratoria sobre el uso de aplicación de la ley de reconocimiento de la cara”.

Alcanzado por El borde, un portavoz de Amazon atribuyó los resultados a la mala calibración. Se realizaron pruebas de ACLU con umbral de confianza por defecto de Rekognition de 80 por ciento, pero Amazon dice recomienda por lo menos un umbral de 95 por ciento de ley aplicaciones aplicación donde un ID falso podría tener consecuencias más significativas.

“Si bien la confianza 80% es un umbral aceptable para fotos de perros calientes, sillas, animales, u otras redes sociales casos de uso,” dijo el representante, “no sería apropiado para identificar individuos con un nivel razonable de certeza.” Rekognition no cumplir esa recomendación durante el proceso de instalación, y no hay nada para impedir que organismos policiales utilizando la configuración predeterminada.

Rekognition de Amazon vino a la prominencia en mayo, cuando un informe de la ACLU demostró el sistema utilizado por un número de agencias del orden público, incluyendo un reconocimiento en tiempo real piloto por la policía de Orlando. Vendido como parte de la nube de servicios Web de Amazon que ofrece, el software era extremadamente barato, a menudo cuestan menos de $12 al mes por todo un departamento. El piloto Orlando ya ha caducado, aunque el Departamento continúa utilizando el sistema.

Último experimento de la ACLU fue diseñado con un ojo particular hacia la Asociación de Rekognition con el Departamento del Sheriff del Condado de Washington en Oregon, donde se compararon imágenes contra una base de datos de hasta 300.000 tiros de taza.

“No es hipotético,” dice Jacob Snow, quien organizó la prueba para la ACLU del norte de California. “Esta es una situación que ya se utiliza Rekognition”.

La prueba también mostró indicios de prejuicio racial, un problema de larga data para muchos sistemas de reconocimiento facial. 11 del falso 28 partidos mal identificadas personas de color (aproximadamente 39 por ciento), como líder de los derechos civiles el Representante John Lewis (D -GA) y cinco otros miembros del Caucus negro del Congreso. Sólo el veinte por ciento de los miembros actuales del Congreso son personas de color, que indica que las tasas de falso partido afectaron miembros de color en una tasa significativamente mayor. Esta afirmación se hace eco de las disparidades encontradas por Prueba de vendedor de reconocimiento Facial del NIST, que ha mostrado altos índices de error para las pruebas de reconocimiento facial en las mujeres y los afroamericanos.

Funcionamiento caras contra una base de datos con ninguna coincidencia podría parecer como una receta para el fracaso, pero es similar a las condiciones que los sistemas de reconocimiento facial enfrentan cada día. El sistema utilizado por la policía metropolitana de Londres produce tantos como 49 partidos falsos para cada golpe, que requiere la policía ordenar manualmente a través de los falsos positivos. Es más significativa es la tasa en que los falsos positivos recortadas en las pruebas de Rekognition, con más de cinco por ciento del grupo sujeto provocando a un falso partido de algún tipo.

En la práctica, reconocimiento facial más IDs estaría confirmado por un ser humano antes de que condujeron a nada tan concreto como una detención, pero los críticos dicen incluso comprobación de identidad de una persona puede hacer daño. “Imagine un policía recibiendo un partido falso para alguien con una detención de arma oculta,” dice nieve. “Existe un peligro real si esa información es surgieron al oficial durante una parada. No es difícil imaginarla girando violentos”.

La prueba también suscita preocupaciones sobre cómo fácilmente puede implementarse Rekognition sin supervisión. Datos de ACLU fueron recogidos de fuentes accesibles al público, incluyendo los tiros de taza 25.000. (La organización se negó a nombrar la fuente específica por motivos de privacidad, pero muchos Estados tratan tiros de taza como expedientes públicos). Sistema de Amazon también es significativamente más barato que ofertas no basado en la nube, la ACLU sólo $12,33 para las pruebas de carga.

See Campaign: https://www.theverge.com/2018/7/26/17615634/amazon-rekognition-aclu-mug-shot-congress-facial-recognition
Contact Information:
Russell Brandom

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News