Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Aug 22, 2018 7:00 AM ET

Facebook eliminará 5.000 categorías dirigidos a ad para prevenir la discriminación. Plataforma de anuncios de la compañía todavía es ser escudriñada pesadamente para sus herramientas de segmentación


Facebook eliminará 5.000 categorías dirigidos a ad para prevenir la discriminación. Plataforma de anuncios de la compañía todavía es ser escudriñada pesadamente para sus herramientas de segmentación

iCrowd Newswire - Aug 22, 2018
Ilustración de Alex Castro / al borde

Último intento de Facebook de aplacar activistas y legisladores que dicen que su plataforma de publicidad permite la discriminación es eliminar 5.000 opciones que pueden utilizarse para excluir a ciertos grupos religiosos y étnicos minoritarios.

Respuesta de la empresa, se describe en un blog hoy en día, llega pocos días después de la nosotros Departamento de vivienda y desarrollo urbano (HUD) presentó una denuncia contra la empresa alegando que violó la ley de vivienda equitativa. Los resultados de la investigación de HUD eran sólo el último de una serie de varios meses de litigio permanente de grupos sin fines de lucro y mea culpas de los representantes de Facebook. La queja de HUD también abrió la puerta a una demanda federal, informes de The Washington Post, que tal vez Facebook para emprender acciones más definitivas.

El retiro está programado para suceder este otoño, y evitará que los anunciantes excepto identificadores como “Cultura indígena”, “Cultura islámica” y “Budismo,” entre miles de otros, informes de BuzzFeed. Las categorías se basan en el comportamiento opcional en nombre de los usuarios de Facebook, incluyendo gustos y participación en grupos y páginas. Sin embargo, pueden ser utilizados como proxies discriminar racialmente a ciertos usuarios en los anuncios de vivienda, empleo y otros mercados regulados por el gobierno federal, según periodistas de investigación que han superado varias veces de seguridad de Facebook para comprar prueba de anuncios.

“Estamos comprometidos a proteger a la gente de publicidad discriminatoria en nuestras plataformas. Es por ello que estamos eliminando más de 5.000 a opciones para ayudar a prevenir el uso indebido, “lee el post del blog de Facebook. “Mientras que estas opciones se han utilizado en formas legítimas para llegar a personas interesadas en un determinado producto o servicio, creemos que reducir al mínimo el riesgo de abuso es más importante. Esto incluye limitar la capacidad de los anunciantes excluir a los públicos que se refieren a atributos como origen étnico o religión”.

En 2016, que ProPublica inició una amplia mirada a plataforma de anuncios de Facebook, inicialmente revelar que dirigida a herramientas de Facebook permitieron excluir a afroamericanos de vivienda anuncios, los anunciantes que es una violación de la ley federal. Esto fue posible porque Facebook ha incluido históricamente dirigidos a opciones bajo el nombre de “afinidad étnica,” alegando que la afinidad de un usuario para determinadas páginas, grupos y otros contenidos de Facebook técnicamente no correspondió a su raza o religión fondo. (La empresa ya ha cambiado el nombre de la categoría selección de “afinidad étnica” a “afinidad multicultural”, y ha reclasificado como un comportamiento en lugar de un grupo demográfico).

En informes posteriores numerosos, ProPublica y otros medios de comunicación descubiertas que esas mismas herramientas que los anunciantes excluir múltiples grupos étnicos, grupos religiosos, y otros protegidos las clases no sólo anuncios de viviendas, pero anuncios de empleo y seguro. Las investigaciones también se encuentran que mediante el uso de códigos postales y otras técnicas de segmentación, los anunciantes podrían incluso puente confiando en identificadores raciales por participar en lo que llama contra la discriminación, una técnica milenaria discriminación que priva a ciertas zonas geográficas de los recursos. Incluso después de que Facebook pretendía abordar el problema, las herramientas de discriminación permanecidos intactas y la empresa algorítmicas y humanas revisión sistemas ha podido coger ejemplos obvios.

Este año, Facebook quitar permanentemente la capacidad de los anunciantes a utilizar estos grupos de afinidad multiculturales para cualquier tipo de publicidad, después de una prohibición temporal de la actividad el año pasado. También firmó un acuerdo con el estado de Washington en julio sobre promesas de contribuciones para fregar su plataforma de herramientas dirigida a discriminatorias que iba más allá de raza y religión e incluye veterano y militar del estado, estado de discapacidad, origen nacional y sexual orientación.

Ahora, parece que Facebook va aún más lejos mediante la eliminación de miles de identificadores adicionales en todos los ámbitos y no sólo para anuncios en categorías que invitan a la supervisión federal como vivienda y empleo.

“Queremos ayudar a educar a los anunciantes sobre las obligaciones de nuestras políticas. Para más de un año, hemos requerido los anunciantes nos identificamos ofreciendo vivienda, anuncios de empleo o crédito para certificar el cumplimiento con nuestra política de no discriminación. En las próximas semanas, esta nueva certificación se extienda gradualmente a los anunciantes de Estados Unidos a través de nuestra herramienta de gestión de anuncios,”lee el post del blog. “Los anunciantes será necesarios completar esta certificación para continuar publicidad en Facebook. Hemos diseñado esta educación en consulta con expertos externos para subrayar la diferencia entre ad aceptable focalización y discriminación de ad”.

See Campaign: https://www.theverge.com/2018/8/21/17764480/facebook-ad-targeting-options-removal-housing-racial-discrimination
Contact Information:
Nick Statt

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image




iCrowdNewswire

Tags:    News