Twiitter ha anunciado un nuevo proyecto para comprender en profundidad como se comporta su algoritmo en la red social. El objetivo es encontrar los daños plan para entender la forma en que se comporta el algoritmo de su red social, con el objetivo de descubrir los potenciales daños que puedan producirse con su uso, como el sesgo racial y de género en el recorte de imágenes. En resumidas cuentas, si Twitter se comporta de forma racista o machista.
Twitter sabe que el uso de su algoritmo de aprendizaje automático puede tener un impacto en "cientos de millones de tuits al día", y que el diseño del sistema, tal y como ha sido concebido"puede ayudar a iniciar un comportamiento diferente" del que se pretendía.
El blog de la red del pajarito azul anuncia un plan para " evaluar los daños no intencionales posteriores o actuales en los algoritmos" que se usan en la red social para poder priorizar los problemas más importantes a resolver.
El equipo Meta de Twitter llevará a cabo el estudio
Un equipo de trabajo interdisciplinar, denominado equipo 'Ética, transparencia y responsabilidad del aprendizaje automático' (Meta, por sus siglas en inglés) se ocupará de los análisis, que en un primer momento adoptará tres líneas de estudio: el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países diferentes.
Según ha destacado la compañía, "las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas". Por ello, Meta estudiará cómo los sistemas de la plataforma y utilizará sus hallazgos "para mejorar la experiencia que la gente tiene en Twitter", pero aunque se utilicen términos eufemísticos lo que se pretende es que, bajo ningún concepto, la compañía pueda ser acusada de machista o racista.