Las políticas de YouTube para frenar la desinformación también tienen efectos positivos en Twitter y Facebook

Alberto Payo

Periodista

Guardar

Hand holds YouTube icon printed on paper
Hand holds YouTube icon printed on paper

Un estudio ha demostrado que si una plataforma social toma medidas contra la desinformación esto influye también en el resto a la hora de reducir esta lacra. Así lo han podido constatar investigadores del Centro De Redes Sociales y Políticas de la Univerisdad de Nueva York.

El estudio muestra que se produjo un aumento significativo en los vídeos de YouTube sobre fraude electoral en EE.UU. compartidos en Twitter durante el 3 de noviembre del año pasado, justo después de las elecciones. Estos llegaron a suponer un tercio de todos los vídeos compartidos en la red social de microblogging en esas fechas.

Sin embargo, las cosas cambiaron cuando YouTube tomó cartas en el asunto y el 8 de diciembre la plataforma audiovisual elimininó multitud de vídeos que apuntaban a fraude en los comicios. Los resultados se dejaron notar el 21 de diciembre. La proporción de contenido de fraude electoral de YouTube que se compartió en Twitter había caído por debajo del 20 por ciento por primera vez desde las elecciones.

Esta tendencia se dejó notar más por el 7 de enero, cuando YouTube advirtió de que aquel canal que violara su política de desinformación electoral recibiría un strike (llamada de atención de la plataforma) y aquellos que obtuvieran 3 strikes en un período de 90 días serían eliminados permanentemente. Así, la proporción de clips problemáticos había bajado al 5%.

Algo similar se repitió en Facebook. Después de las elecciones de noviembre, los vídeos con conspiraciones sobre fraude procedentes de YouTube llegaron a suponer un 18 por ciento del total de los publicados en Facebook el 8 de diciembre. La cifra de vídeos sobre fraude electoral aquí se redujo al 4 por ciento el 20 de enero.

Medidas tardías pero efectivas

YouTube lleva un tiempo yendo al retortero en relación a otros servicios en cuestión de tomar medidas enérgicas contra distintos tipos de desinformación. En varias ocasiones ha anunciado políticas más estrictas varias semanas o meses después de que lo hicieran Facebook o Twitter.

Sin embargo, Google se ha puesto seria en las últimas semanas llegando a eliminar todo el contenido relacionado con los antivacunas. Si tenemos en cuenta el tiempo de pandemia que llevamos, la decisión de la firma de Mountain View es cuanto menos tardía.

Megan Brown, científica investigadora del Centro de Política y Redes Sociales de la Universidad de Nueva York, explica que una vez que YouTube prohibiera el contenido la gente ya no podía compartir los vídeos que promovían el fraude electoral. De ahí la caída de este tipo de contenidos en las otras redes sociales. "Sabemos que estas plataformas están profundamente interconectadas", ha señalado. "Es una gran parte del ecosistema de información. Solo cuando YouTube se vuelve más saludable, otras también lo hacen", añade.

Archivado en: