header-logo

Comunicación de marketing impulsada por inteligencia artificial

Descargo de responsabilidad: el texto que se muestra a continuación se ha traducido automáticamente desde otro idioma utilizando una herramienta de traducción de terceros.


El CEO de Nextdoor dice que es ‘nuestra culpa’ los moderadores eliminaron las publicaciones de Black Lives Matter

Jul 9, 2020 12:03 AM ET

Foto por ERIC BARADAT/AFP vía Getty Images

Sarah Friar, CEO de la red social centrada en el vecindario Nextdoor, dice que la compañía tiene la culpa después de informes generalizados de que los moderadores estaban eliminando publicaciones que discutían la injusticia racial o expresaron su apoyo al movimiento Black Lives Matter. La aplicación cambiará sus políticas para permitir explícitamente la discusión del movimiento en el futuro, y ofrecerá un nuevo entrenamiento de sesgo inconsciente a sus moderadores no remunerados.

En una entrevista con NPR, Fraile dijo que "en realidad fue culpa nuestra" estos mensajes fueron eliminados, y culpó a las acciones tomadas por los moderadores no pagados de la compañía (conocidos como "líderes") en una política de moderación que prohibía la discusión de cuestiones nacionales en los grupos locales de la aplicación.

"No nos movimos lo suficientemente rápido como para decirle a nuestros protagonistas que temas como Black Lives Matter eran locales en términos de su relevancia", dijo Fraile. "Muchos de nuestros protagonistas vieron Black Lives Matter como un problema nacional que estaba sucediendo. Y así, eliminaron ese contenido, pensando que era consistente con nuestras pautas".

Según NPR, se ha añadido una nueva regla a la política de moderación de Nextdoor para garantizar que tales discusiones no se eliminen en el futuro: "Black Lives Matter es un tema local".

Nextdoor ha sido durante mucho tiempo el tema de bromas y críticas por su llamado "problema Karen" - abreviatura de una gran cantidad de usuarios blancos que toman la aplicación para quejarse de problemas triviales, desde niños riendo demasiado a los vecinos que no dejarán de cepillarse a su gato.

Detrás de los memes, sin embargo, siempre ha estado la verdad más inquietante que Nextdoor permite que el racismo prospere en su plataforma tomando un enfoque de manos libres para la moderación. La compañía ha crecido tan rápido en parte porque depende de sus propios usuarios para eliminar las publicaciones contenciosas. Pero los usuarios negros dicen que esto ha creado un entorno que tolera el racismo.

Los mismos "Karen" que se molestan por los niños ruidosos también pueden ser aquellos usuarios que racialmente perfilan a las personas negras en su vecindario y llaman a la policía en cualquier "adolescente sospechoso" que vean (que son invariablemente personas de color). Nextdoor ha exacerbado estos problemas al ofrecer características como "Adelante a la policía", que permiten a los usuarios enviar rápidamente una "alerta urgente" a las fuerzas del orden. Esta herramienta específica se eliminó el mes pasado.

El racismo fomentado en la plataforma de Nextdoor ha atraído nueva atención después del asesinato policial de George Floyd y las protestas posteriores contra la injusticia racial arrasaron los Estados Unidos. Los usuarios negros que trataron de discutir estos problemas en Nextdoor encontraron que fueron silenciados y sus publicaciones eliminadas. Como un usuario le dijo a The Verge el mes pasado: "Como persona negra, no me siento seguro en absoluto usando [la aplicación] para nada ... Siempre estoy aterrorizada, pensando 'Oh Dios mío. Ya sé lo que piensa de nosotros. Esta es una situación muy horrible para estar en.

Además de cambiar su política de moderación, Nextdoor dice que está iniciando una campaña para reclutar más moderadores negros, y ofrecerá entrenamiento de sesgo inconsciente a todos los clientes potenciales actuales (aunque no está claro si este entrenamiento es obligatorio). La compañía dice que también mejorará los sistemas de IA de la aplicación para identificar con mayor precisión el racismo explícito y "contenido racista codificado".

Sin embargo, mientras que la IA ha sido presentada como una solución por muchas redes sociales criticadas por permitir contenido racista o intolerante en sus plataformas, los expertos generalmente están de acuerdo en que los sistemas automatizados carecen de la comprensión necesaria para moderar este contenido. Como Mark Zuckerberg de Facebook ha demostrado en el pasado, la IA no es una solución a los problemas humanos de la moderación.

"Realmente estamos trabajando duro para asegurarnos de que las declaraciones racistas no terminen en la fuente principal de noticias, asegurándonos de que los usuarios que no actúan las pautas ya no están en la plataforma", dijo Friar a NPR. "Es nuestra prioridad Número 1 en la compañía asegurarnos de que Nextdoor no sea una plataforma donde el racismo sobreviva".

Los grupos que han pedido a Nextdoor que asuma la responsabilidad de las acciones de sus moderadores acogieron con satisfacción los cambios, pero expresaron su cautela sobre el impacto que podrían tener.

"Este es un paso positivo hacia la creación de un verdadero foro comunitario donde todas las personas en nuestros vecindarios se sientan seguras para participar", dijo a NPR la activista Andrea Cervone, de la organización vecinos por más vecinos con sede en Minneapolis, que pidió a la compañía que introdujera capacitación contra el racismo para moderadores, dijo a NPR. "Estaremos atentos a la empresa para asegurarnos de que continúen adelante y cumplan con estos compromisos públicos".

Contact Information:

James Vincent
Tags:   Spanish, United States, Wire