header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

La escasa capacitación en IA de YouTube provocó el aumento de los videos de explotación infantil. Los trabajadores subcontratados dijeron a 'BuzzFeed' que la plataforma generalmente les da pautas confusas.

Dec 29, 2017 9:00 AM ET

YouTube usa algoritmos y moderadores humanos, pero aún así no pudo evitar el aumento de videos perturbadores y explotadores de niños en la plataforma. ¿Por qué? Bueno, es probable que se deba a varias razones: una de ellas, según un informe de BuzzFeed , es el conjunto confuso de directrices que la empresa da a sus trabajadores contratados para calificar el contenido. La publicación entrevistó a calificadores de calidad de búsqueda que ayudaron a capacitar a la IA de búsqueda de la plataforma para obtener los mejores resultados posibles para consultas mediante videos de calificación. Descubrió que a los trabajadores por lo general se les ordena dar videos con calificaciones altas basadas principalmente en valores de producción.

Como dijo un evaluador:

“Incluso si un video es perturbador o violento, podemos marcarlo pero todavía tenemos que decir que es de alta calidad [si la tarea lo requiere]”.

Eso significa que los evaluadores deben marcar los videos como de “alta calidad”, incluso si tienen contenido perturbador, lo que puede dar un impulso a esos enlaces en los resultados de búsqueda. ¿El problema? Los videos de explotación infantil que se encuentran en la plataforma suelen tener buenos valores de producción: por lo general, requieren un poco de esfuerzo para crearlos y se editan profesionalmente.

Después de que los medios pusieran el foco en la existencia de videos perturbadores dirigidos a niños, YouTube comenzó a pedirles a los evaluadores que decidan si un video es adecuado para espectadores de 9 a 12 años de edad, incluso cuando no están supervisados. Se les dijo que marquen los videos como “OK” si creen que un niño puede verlo o “NO OK” si contienen contenido sexualmente explícito, violencia, lenguaje vulgar, consumo de drogas o acciones que fomentan el mal comportamiento, como las bromas.

Sin embargo, el evaluador BuzzFeed entrevistado encontró los ejemplos que YouTube dio confusos, en el mejor de los casos. El video musical Bad Blood de Taylor Swift, por ejemplo, NO está bien, basado en los ejemplos que dio la plataforma. Pero los videos que contienen violencia animal moderada aparentemente están bien.

Bart Selman, un profesor de inteligencia artificial de la Universidad de Cornell, le dijo a BuzzFeed :

“Es un ejemplo de lo que llamo ‘desalineación de valores’. Es un desalineamiento del valor en términos de lo que es mejor para los ingresos de la empresa versus lo que es mejor para el bien social más amplio de la sociedad. El contenido controvertido y extremo, ya sea video, texto o noticias, se difunde mejor y por lo tanto conduce a más vistas, más uso de la plataforma y mayores ingresos “.

YouTube tendrá que conjurar un conjunto más concreto de pautas y hacer que la calificación sea menos confusa para sus trabajadores humanos si quiere limpiar su plataforma. De lo contrario, alistar a 10,000 empleados para ayudar a revisar videos no tendrá un impacto significativo en absoluto. Nos comunicamos con la respuesta de YouTube al informe de BuzzFeed y actualizaremos esta publicación cuando tengamos noticias.

See Campaign: http://www.engadget.com/2017/12/29/youtube-poor-ai-training-child-exploitation-videos-buzzfeed-report/
Contact Information:
Mariella Moon

Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish

image


Keywords:  afds, afdsafds

Tags:  News