A principios de marzo, China aprobaba una ley para restringir el uso de recomendaciones algorítmicas por parte de las empresas de tecnología, que facilitará a los usuarios desactivar los algoritmos. Sabido es que hoy día los algoritmos condicionan mucho nuestras vidas: de ellos depende qué publicaciones vemos en nuestras redes sociales, qué resultados aparecen en nuestras búsquedas, a qué contenidos culturales -canciones, series, películas- estamos más expuestos o incluso -en el caso de los trabajadores de las plataformas de economía colaborativa- cuánto vamos a trabajar y qué ingresos vamos a recibir. Las nuevas regulaciones, que también se están planteando en Europa y Estados Unidos, pueden empezar a poner coto a esta influencia. ¿En qué consisten esas regulaciones y qué efectos, beneficiosos y perjudiciales, conllevaría esa limitación de los algoritmos?
El enfoque europeo
Aunque la regulación china de los algoritmos ha sido la primera en entrar en vigor, en realidad se inspira en una propuesta normativa anterior, desarrollada por la Comisión Europea en abril de 2021 bajo el nombre de Artificial Intelligent Act.
La propuesta de Ley de Inteligencia Artificial es el primer marco legal paneuropeo sobre inteligencia artificial (IA), que a la par que busca promover la innovación en el campo de la IA, aborda los riesgos derivados de los diferentes usos de los sistemas inteligentes. En este sentido, clasifica y regula las aplicaciones de inteligencia artificial según su riesgo: mínimo, limitado, alto e inaceptable.
En la definición de sistemas de inteligencia artificial, señala entre sus resultados las “predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan”. Es aquí donde entrarían las limitaciones al desarrollo y uso de los algoritmos. Por ejemplo, la propuesta complementa el Derecho comunitario en materia de no discriminación, al establecer requisitos específicos para reducir al mínimo el riesgo de discriminación algorítmica.
Asimismo, los desarrolladores y propietarios de sistemas de IA de alto riesgo (presentes en sectores esenciales como medicina, infraestructuras energéticas, educación, justicia, trabajo o migraciones) deben facilitar la documentación técnica de sus algoritmos para evaluar si cumplen los requisitos establecidos por las autoridades europeas.
La Ley de Inteligencia Artificial también prohibiría algunas aplicaciones de los algoritmos de IA, las denominadas de “riesgo inaceptable”. Se trata de la vigilancia biométrica masiva, las que manipulan subliminalmente a las personas, aquellas que explotan maliciosamente las vulnerabilidades de ciertos grupos, y las puntuaciones o crédito social.
El uso de sistemas de identificación biométrica remota en tiempo real por parte de las fuerzas del orden en espacios de acceso público estaría prohibido, aunque más que una proscripción total, es parte de un compromiso político.
También serían ilegales los llamados “patrones oscuros”, es decir, las tecnologías que implementen técnicas subliminales para distorsionar el comportamiento de una persona, sin que esta sea consciente y de manera que pueda causarle un daño psicológico o físico. Además, se veta el desarrollo de sistemas de IA que “exploten cualquiera de las vulnerabilidades de un grupo específico de personas, debido a su edad, discapacidad física o mental” para alentarlas a adoptar comportamientos y actitudes potencialmente peligrosas. Para estos dos casos, existirían algunas excepciones limitadas en el contexto de la aplicación de la ley.
Por último, estaría completamente prohibida la calificación social, impulsada por sistemas que monitorizan y algoritmos que evalúan casi todos los aspectos de la vida de las personas. Con ello, la UE intenta garantizar que las autoridades no puedan examinar la confiabilidad de los ciudadanos mediante el uso de inteligencia artificial, manifestando una visión de la IA limitada por los derechos fundamentales.
La propuesta estadounidense
La Artificial Intelligent Act impulsada por la Comisión Europea ha sido vista por los profesores de políticas tecnológicas de la Universidad de Georgetown, Mark MacCarthy y Kenneth Propp, como “un comienzo integral y reflexivo del proceso legislativo en Europa, que podría convertirse en la base para la cooperación transatlántica”. Hay que tener en cuenta que al otro lado del océano también se están llevando a cabo iniciativas para regular la inteligencia artificial y los algoritmos en particular.
En noviembre del año pasado, varios miembros de la Cámara de Representantes de Estados Unidos, integrantes de los partidos Demócrata y Republicano, presentaron una propuesta legislativa para que los usuarios de redes sociales puedan desactivar los algoritmos y facilitar de esta manera la visualización de publicaciones no elegidas por la plataforma.
"La propuesta estadounidense busca sacar a los ciudadanos de lo que los legisladores han denominado la 'burbuja de filtro', limitando la influencia de los algoritmos en el contenido que visualizan en Internet y redes"
El proyecto de ley establece que las compañías propietarias de redes sociales y plataformas de contenidos como Meta y Google deberían permitir a los usuarios desactivar los algoritmos de personalización. La propuesta busca sacar a los ciudadanos de lo que los legisladores han denominado la “burbuja de filtro”, limitando la influencia de los algoritmos en el contenido que visualizan en Internet y redes.
“Los consumidores deben tener la opción de interactuar con las plataformas de Internet sin ser manipulados por algoritmos secretos impulsados por datos específicos del usuario”, declaró Ken Buck, congresista republicano por Colorado y uno de los defensores del proyecto legislativo.
Dos años antes, en abril de 2019, se presentaba ante el Comité de Energía y Comercio de la Cámara de Representantes el proyecto de la Algorithmic Accountability Act, con el fin de exigir a las organizaciones que usan, almacenan o comparten información personal que realicen evaluaciones de impacto y de protección de datos de los sistemas de decisión automatizados. Este año sus promotores han presentado una nueva versión, después de consultar a expertos y grupos de defensa de los derechos de los consumidores. Si finalmente se aprueba, sería una de las primeras regulaciones federales sobre algoritmos, que se sumaría a diversas normas estatales y municipales acerca de casos de uso específicos de IA que ya existen en EEUU.
Por “sistemas de decisión automatizados”, la Algorithmic Accountability Act se refiere a aquellos que toman decisiones, o facilitan la toma de decisiones humanas, basándose en evaluaciones sistemáticas y extensas de sus usuarios, incluyendo el análisis o predicción de aspectos sensibles de sus vidas, como su desempeño laboral, situación económica, salud, preferencias personales, intereses, comportamiento, ubicación o movimientos. También a los que tratan la información de un número significativo de personas relativa a su raza, nacionalidad, opiniones políticas, religión, datos biométricos, salud, género, orientación sexual, condenas penales..., así como a los que supervisan sistemáticamente un lugar de acceso público.
Dichos estudios deberían analizar el impacto en términos de precisión, imparcialidad, sesgo, discriminación, privacidad y seguridad de los algoritmos. Esto incluye a los destinatarios de los resultados de un sistema de decisión automatizado, a la medida en que los consumidores tienen acceso a los resultados de ese sistema y pueden corregir u objetar sus resultados, los riesgos para la privacidad o seguridad de la información personal de los usuarios y la posibilidad de que el algoritmo genere o contribuya a adoptar decisiones inexactas, injustas, sesgadas o discriminatorias que afecten a los usuarios.
La normativa china
Pero el caso chino es el más significativo, toda vez que la regulación de los algoritmos es ya, desde el 1 de marzo, una realidad legal. Ese día entraba en vigor el Reglamento sobre la Administración de Recomendaciones Algorítmicas para los Servicios de Información de Internet, promulgado por la Oficina Estatal de Información de Internet y la Administración del Ciberespacio de China, junto a otras tres entidades gubernamentales.
Esta ley restringe el uso de recomendaciones algorítmicas por parte de las empresas tecnológicas, como buscadores de Internet, redes sociales, ecommerce o casinos online. El reglamento estipula que deberán informar a sus usuarios “de manera visible” si están utilizando algoritmos para mostrarles contenidos, así como de los principios básicos, finalidad y modo de funcionamiento de los mismos. También tendrán que facilitar a sus usuarios más mayores el “uso seguro” de sus aplicaciones para protegerlos contra el fraude y las estafas.
"En China, todas las aplicaciones están obligadas desde ahora a ofrecer a sus usuarios una manera accesible de desactivar los algoritmos."
Asimismo, los usuarios podrán elegir no recibir recomendaciones algorítmicas. Todas las aplicaciones están obligadas desde ahora a ofrecer a sus usuarios una manera accesible de desactivar los algoritmos. De esta forma, los consumidores podrán seleccionar o suprimir las etiquetas usadas en estos servicios, rechazar recomendaciones personalizadas, eliminar la información personal y la llamada “discriminación algorítmica”.
Además, se establecen disposiciones contra la generación y agregación de noticias falsas y contra la explotación de trabajadores temporales, como los conductores de compañías de reparto de comida a domicilio, mediante el uso de algoritmos. Las empresas que incumplan esta ley se enfrentarán a multas de entre 10.000 y 100.000 yuanes (entre 1.400 y 14.000 euros aproximadamente).
El reglamento pretende dar respuesta, según la Oficina Estatal de Información de Internet, a “los problemas causados por la aplicación irracional de algoritmos, como la discriminación algorítmica, el uso malintencionado del big data y la adicción inducida”, que estarían afectando a la sociedad. El objetivo de esta ley es, por tanto, “preservar la seguridad ideológica, la equidad y la justicia social, y los derechos e intereses legítimos de los internautas”.
En la elaboración del reglamento han participado académicos de las Universidades de Tsinghua y Nankai, que asesoraron a los responsables políticos para que tuvieran una mentalidad más liberal sobre las emergentes tecnologías de inteligencia artificial. “El hecho de que China lo haya hecho antes que el resto del mundo es bastante innovador”, declaró a Protocol.com Kendra Schaefer, directora de Tech Policy Research en Trivium China.
Xiaomeng Lu, director de Geotecnología de la consultora de riesgo geopolítico Eurasia Group, considera, por su parte, que “tanto si se sigue el patrón regulatorio europeo de la IA para imponer una evaluación de la conformidad que garantice el cumplimiento normativo de los algoritmos, como si se centran los esfuerzos en explorar los derechos de uso, control y beneficio de los datos, estas políticas se convertirán en el próximo campo de batalla entre las grandes compañías tecnológicas y el Gobierno chino”. Hay que tener en cuenta que, para que las autoridades chinas puedan detectar infracciones, necesitarían acceso al código de los algoritmos, un activo que las tecnológicas mantienen en el más alto secreto.
El impacto de las restricciones a los algoritmos
Resulta evidente, por tanto, que, pese a las diferencias económicas, políticas y culturales, los tres grandes actores tecnológicos, Europa, Estados Unidos y China, coinciden en la necesidad de regular los algoritmos, estableciendo ciertas restricciones a su uso y alcance. Una regulación que se enmarca en el reconocimiento de que es preciso establecer un marco para el desarrollo y uso ético de las tecnologías de inteligencia artificial.
Recientemente, los 193 países integrantes de la Unesco aprobaban la Recomendación sobre la Ética de la Inteligencia Artificial, que aborda el veto a los sistemas de reconocimiento facial, la posibilidad de disponer de un auditor independiente de Ética de la IA, su uso militar, su sostenibilidad, o la conveniencia de que los algoritmos de recomendación de series o canciones que emplean plataformas como Netflix o Spotify sean transparentes y auditables, y no obedezcan a criterios económicos poco justificables.
La entrada en vigor de la normativa china podría dar forma al panorama regulatorio global de los algoritmos, sobre todo si las propuestas de regulación europea y estadounidense salen adelante en los términos en que han sido planteadas. Si las nuevas regulaciones empiezan a limitar la forma en que los algoritmos condicionan nuestra existencia, ¿cómo cambiaría eso nuestras vidas?
Marcos Martino, psicólogo, apunta que “los incentivos, administrados en forma de gratificaciones o recompensas, tanto en redes sociales como en videojuegos, por algoritmos, han llevado a un incremento del uso abusivo o problemático” de las tecnologías de la comunicación, que “afecta significativamente a la salud mental, particularmente de niños/as y jóvenes”.
"Otro problema en alza que se ha asociado a los algoritmos usados por las redes sociales para mostrar contenidos es la polarización política y el auge de posturas más radicales."
Pero habría un problema mayor, derivado de las consecuencias ocultas de que todas nuestras interacciones con estas tecnologías, hasta las más nimias, puedan ser registradas y analizadas mediante inteligencia artificial. Es lo que Zygmunt Bauman y David Lyon denominan “Bannoptikum”, un mecanismo de vigilancia y clasificación social tan sofisticado y sutil que permite establecer criterios de discriminación en función del ajuste de cada individuo a las reglas del sistema, a partir de los datos personales que compartimos profusamente en la Red, como ya está ocurriendo en algunos países. “Un cibertotalitarismo basado en algoritmos que se alimentan con nuestros datos personales”, alerta Martino.
Otro problema en alza que se ha asociado a los algoritmos usados por las redes sociales para mostrar contenidos es la polarización política y el auge de posturas más radicales. A este respecto, Carmen Olmedo, politóloga, considera que “la polarización podría tener algún nexo con los algoritmos, en la medida que nos dirigen a lo que leemos, vemos en una pantalla..., empobreciendo el debate y nuestra idea de cómo funciona la sociedad, la política o la economía, y creando ideas antagónicas del mundo: el conmigo o contra mí”.
La politóloga opina que “en un mundo donde el debate político se hace cada vez más a base de tuit y está más polarizado, creo que puede ser bueno que se conozca que los algoritmos de inteligencia artificial existen y que puedas limitar su uso cuando navegas por Internet, te conectas a plataformas de música, cine y series, interactúas en redes sociales...”
Una limitación de los algoritmos podría traer consigo, por tanto, una disminución del uso abusivo de videojuegos o redes sociales, ponerles las cosas más difíciles a proyectos totalitarios y amortiguar la polarización. Pero, pese a ello, no deberíamos caer en el error de reducir todo al algoritmo; cada individuo también tiene su responsabilidad. “Todos vivimos con contradicciones, y no todo es blanco ni negro... Necesitamos debates más templados, y para eso necesitamos a gente capaz de hacer una reflexión, que comienza por elegir los tuits que leen, las películas que consumen o la publicidad que les llega”, concluye Olmedo.