header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Nuevas reglas desafían Google y Facebook para cambiar la forma en que moderan usuarios. Los principios de Santa Clara establecen un nuevo estándar para la moderación de la plataforma, pero Google y Facebook tendrá aviso?

May 8, 2018 7:30 AM ET
Ilustración por William Joel / al borde

En los últimos años, moderación de contenido ha llegado a un punto de ruptura. Hemos visto todo tipo de fealdad prosperar en plataformas como Facebook, Twitter y YouTube, si ha coordinado el acoso, cuentas de impostor, influencia política extranjera o extraña chum algorítmica. Al mismo tiempo moderación inconsistente y a veces mano dura se ha convertido en un problema cada vez más partidista, con los famosos conservadores que aparecen ante el Congreso para reclamar turbia sobre la censura. En ambos casos, la pérdida de confianza es palpable, alimentada por una subyacente falta de transparencia. Una proporción enorme de expresión del mundo ocurre en plataformas cerradas como Facebook y YouTube, y los usuarios todavía tienen poco control o conocimiento de las normas que rigen ese discurso.

En la actualidad, una coalición de grupos sin fines de lucro trató de resolver esa brecha con una lista de normas básicas de moderación llamado los Principios de Santa Clara en la transparencia y rendición de cuentas en la moderación de contenidos, diseñado como un conjunto de normas mínimas para tratar contenido del usuario en línea. El producto final se basa en el trabajo de la American Civil Liberties Union, Electronic Frontier Foundation, centro para democracia y tecnología y de nuevo Estados Unidos Instituto de tecnología abierta, así como un número de expertos independientes. Juntos, piden más completa aviso cuando un post es tomado por un fuerte proceso de apelación y nueva transparencia informes en el número total de los mensajes y las cuentas suspendidas.

Son simples medidas, pero dar a los usuarios mucha más información y recursos que obtienen actualmente en Facebook, YouTube y otras plataformas. El resultado es una nueva hoja de ruta para la moderación de la plataforma y un desafío abierto a cualquier empresa moderación de contenido en línea.

Bajo las reglas de Santa Clara, cualquier momento que se toman una cuenta u otros contenidos, el usuario tendría una explicación específica de cómo y por qué el contenido estaba marcado, con una referencia a la pauta específica que habían violado. El usuario también puede impugnar la decisión, presentando nuevas evidencias a un moderador humano separado en la apelación. Empresas también presentaría un informe regular moderación modelado después de informes actuales sobre las solicitudes de datos del gobierno, listado el número total de cuentas de marcado y la justificación de cada bandera.

“Lo que estamos hablando es básicamente la ley interna de estas plataformas,” dice el director de Instituto de tecnología abierta Kevin Bankston, quien trabajó en el documento. “Nuestro objetivo es que sea como abrir un proceso que posiblemente puede ser”.

Hasta ahora, las empresas han sido silenciosas sobre las nuevas directrices. Google y Twitter declinado comentar sobre las nuevas reglas; Facebook no respondió a varias solicitudes.

Pero mientras que las empresas tienen todavía a opinar sobre las reglas de Santa Clara, algunos se avanza poco a poco medidas similares por su cuenta. Facebook publicó sus directrices de moderación completo por primera vez el mes pasado, establecen normas específicas sobre la violencia y desnudez que había guiado las decisiones de años. La compañía también creó su primer proceso de apelación formal para los usuarios que creen que ha sido suspendidos por error.

YouTube está más cerca de cumplir con las normas, aunque aún se queda corto en materia de transparencia. La plataforma ya tiene un aviso de proceso de Apelaciones, y sus directrices han sido públicas desde el principio. YouTube publicó su primer informe trimestral de la moderación en abril, detallando los videos 8,2 millones durante el último trimestre de 2017. Pero mientras el informe explota las políticas en parámetros humanos, no da el mismo detalle si el contenido estaba marcado por los sistemas automatizados responsables de la mayor parte de la eliminación de contenido en YouTube.

El documento de Santa Clara se limita a cuestiones de proceso, dejando a un lado muchas de las preguntas más espinosos alrededor de moderación. Las reglas de no hablan de qué contenido debe eliminarse o cuando un post determinado puede ser justamente considerado una amenaza para la seguridad del usuario. También no tratar con discurso político o carve-outs de interés periodístico, como política de líderes de controversial mundo de Twitter.

Pero muchos de los expertos dicen que las reglas son más de un conjunto mínimo de normas que una lista final de las demandas. “He sido muy crítico de algunas políticas específicas, de desnudez al terrorismo,” dice Jillian C. York, que trabajó en las reglas para EFF. “en última instancia, sin embargo, no creo que moderación de contenido es va a desaparecer en cualquier momento pronto y así la mediación a través de la transparencia y debida proceso es un gran comienzo”.

See Campaign: https://www.theverge.com/2018/5/7/17328764/santa-clara-principles-platform-moderation-ban-google-facebook-twitter
Contact Information:
Russell Brandom

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News