Idoia Salazar: “Una cosa es la capacidad que tiene una tecnología y otra para qué la debamos usar”

Miguel Angel García

Director de Escudo Digital

Guardar

Idoia Salazar 2
Idoia Salazar 2

Idoia Salazar preside OdiseIA, un observatorio sin ánimo de lucro constituido en noviembre de 2019 como espacio de pensamiento, debate y acción para velar por el buen uso de la Inteligencia Artificial (IA).

Periodista, profesora en la Universidad CEU San Pablo y reciente coautora -junto a Richard Benjamins- del libro El mito del algoritmo: cuentos y cuentas de la inteligencia artificial, ha hecho del desarrollo de la IA y de su impacto social una constante en su carrera profesional.

El uso de tecnología y aplicaciones de IA ha dado un salto en estos tiempos de Covid-19 en los que hemos tenido que desarrollar herramientas que igual no estaban del todo preparadas en distintos ámbitos, pero que nos han permitido seguir adelante. Ahora con el 5G, una tecnología que permitirá una conectividad casi absoluta, parece inevitable el gran desarrollo de la IA, ¿crees que estamos preparados para asumir su imparable ascenso?

Estamos viviendo un momento crucial, porque las posibilidadesde la IA están aumentando exponencialmente con el desarrollo tecnológico; ya noes como antes, que eran una utopía.

Ahora, por un lado, tenemos cada vez más empresas que las están aplicando a sus servicios, aunque muchos de sus directivos no conozcan su potencial. Saben que tienen un futuro muy claro, que las promesas en torno a estas tecnologías son espectaculares, y que quien las adopte va a tener un beneficio muy evidente, pero no son conscientes de lo que puede suponer ese desarrollo.

Y, por otro lado, tenemos a una sociedad que no estápreparada, a la que le falta educación, y que tiene una serie de prejuicios entorno a esta tecnología por lo que nos han trasladado las películas de cienciaficción, por los comentarios de la prensa, y también por algunas de lasaplicaciones que ya ha habido en torno a la robótica y la Inteligencia Artificial.

Teniendo en cuenta todo esto, y ante cierto vacío legal, nos encontramos con un escenario en el que las empresas, sin ninguna mala intención, se han lanzado al desarrollo de esta tecnología sin entender bien que estas nuevas herramientas son diferentes a otras tecnologías aplicadas con anterioridad, y que pueden tener implicaciones sociales importantes, de racismo, de sesgos, de privacidad, que pueden afectar de forma relevante a los ciudadanos. Y enfrente se halla una sociedad que no está preparada para que las cosas se hagan de esa manera, sin explicarles qué es esto, con lo que algo que debe suponer una auténtica revolución puede acabar como un gran fracaso.

¿Y esto cómo se resuelve?

Esto solo se resuelve con educación y conocimiento,recibiendo asesoramiento, y siendo conscientes de que esta no es una herramientacomo otras.

Tú no puedes lanzar una aplicación sin antes educar bien a quien va destinada. Y cuando digo bien me refiero a hacerlo con calma, no de forma apresurada, explicando a la sociedad las implicaciones que puede tener ese nuevo servicio. Es muy necesario el aumento de la consciencia de cuáles son las implicaciones reales de la IA, de cómo nos va a afectar, de cuál es la política real para proteger a los usuarios… Si se hace así, la IA será muy buena para todos en ámbitos tan básicos como la medicina, donde, entre otras cosas, permitirá ahorrar muchos tiempos.

También hay que tener que la IA es una herramienta infalible capaz de hacer ciertos trámites, pero que necesita de un enlace con el ser humano, que es quien ha de tomar las decisiones al final del ciclo. La IA se encarga del trámite para llegar a un punto en cuestiones importantes, como una sentencia o un diagnóstico, pero una vez ahí debe decidir el humano. Si lo hacemos así, sacaremos unas ventajas inmensas que revolucionarán el mundo. Si no, tendremos muchos problemas, porque la sociedad no confiará en algo que se está haciendo de forma imprudente.

"Hablamos mucho de ética e IA, pero antes deberíamos hablar de ética de los humanos, y de los prejuicios que tenemos a la hora de tomar decisiones".

El momento de hacer todos esos ajustes, esa formación, eseste, porque la tecnología ya está aquí…

Ya está desde hace algunos años. Yo alprincipio era muy optimista, pero ya tengo más reservas. Y es que dependiendode lo que hagamos ahora tendremos un gran avance, posiblemente uno de losinventos más revolucionarios de la historia de la humanidad, o un gran fracaso.Depende de las políticas actuales, de las medidas que ahora tomemos, para que estatecnología vaya por uno u otro camino.

En este momento resultan fundamentales las estrategias que están tomando los distintos gobiernos en relación con la IA, que son muchas, aunque en todas ellas la parte del impacto social está un poco un el aire. En lo que lees en las distintas estrategias ves hay mucho incentivo, pero poco de ética, de análisis de las situaciones reales. Y es verdad que no es fácil, pero es muy necesario porque esto no es como el que saca una lavadora nueva.

La sociedad tiene que estar muy informada, hay que vigilarmucho el uso de los datos que se están tratando, no se puede dejar a la máquinasola, y tenemos que conocer los procesos que siguen las máquinas en suprogramación para eliminar sesgos. Hablamos mucho deética e IA, pero antes deberíamos hablar de ética de los humanos, y de los prejuiciosque tenemos a la hora de tomar decisiones. Está íntimamente ligado elsistema de IA con la persona que lo programa, o con la persona que le ha pedidoque lo haga así. El hecho de que una máquina tome decisiones en base de unanálisis objetivo de datos supone eliminar los posibles sesgos que nosotros de manerainconsciente le hemos transmitido.

Hay muchas encuestas en Europa en las que preguntan a la población cuestiones como si preferirían que llegado el caso les juzgara un juez robot o un juez humano, y en función de los países, eligen al robot antes que a una persona que pudiera tener sesgos racistas, sexistas, etc. Y de hecho hay países que ya están usando sistemas de IA para sentencias judiciales, aunque yo no soy partidaria de dejar a las máquinas autonomía en cuestiones fundamentales, ya que estas toman decisiones en función de unos datos, pero también hay que tener en cuenta el contexto, el entorno que envuelve a ese caso y que no puede traducirse a datos. Por eso resulta fundamental el compañerismo entre los sistemas de IA y la labor humana. Esperemos que tendamos a potenciar esa colaboración, y no a la sustitución.

"Resulta fundamental el compañerismo entre los sistemas de IA y la labor humana. Esperemos que tendamos a potenciar esa colaboración, y no a la sustitución".

En el caso de la detección de la Covid-19 se está debatiendo mucho en torno al papel de tecnología con la presión que supone ver cómo día a día suben los contagios, los fallecidos. Y mientras debatimos vemos que en países como China contienen la pandemia con el uso de estas herramientas. ¿Consideras que hay veces en los que debemos ser más prácticos?

Cuando tú sacas una aplicación en China y no tienes que estar tan pendiente de la opinión pública consigues unos resultados muy rápidos, como se ha visto con la prevención del coronavirus. Pero eso en Europa no es posible, generaría una crítica muy fuerte.

A lo mejor en situaciones de urgencia no estaría de más hacer determinadas concesiones y ceder parte de nuestra privacidad para lograr un bien mayor, como puede ser rapidez en las soluciones frente a una pandemia, pero es un tema muy controvertido y habrá gente que prefiera que, por ejemplo, las consultas de rastreo se sigan haciendo manualmente, por teléfono, caso por caso… Yo, desde luego, cuando todo esto se puede hacer de forma automática, no tengo dudas, pero es una cuestión complicada.

En cualquier caso, la Unión Europea tiene registradas estas concesiones en su normativa para casos de extrema urgencia, otra cosa es cómo reaccione la opinión pública si se usan. Yo creo que una vez que se haya educado a la población sobre lo que es su privacidad, todo esto se podrá hacer con mayor facilidad. A mí que me miren mis datos de dónde estoy en un momento determinado no me supone un problema… A lo que voy es que hay cosas que igual no deberíamos considerar tan íntimamente privadas si, y solo si, van a suponer un bien mayor, pero para eso es fundamental conocerlas, que estemos educados.

"Los desarrollos de gran impacto que estamos haciendo ahora mismo pueden tener consecuencias que ni las empresas que están detrás son capaces de prever".

Hay una disyuntiva ya casi clásica entre qué debería elegir un coche autónomo llegado el caso: atropellar a un niño o a un anciano. ¿Piensas que el resultado de esta elección debe ser una de las dos opciones, o, como sucede con humanos, habría que dejarla con cierto margen de error?

No sé si conoces un experimento realizado por el MIT, la Moral Machine, que está aún en Internet, y es el experimento del automóvil. En el experimento te plantean que elijas entre atropellar a una serie de personas con buena reputación social que están cruzando en rojo. Y en el otro lado, atropellarías a un ladrón, un asesino, que cruzan en verde. Lanzaron esta pregunta a la opinión pública y sometieron las respuestas al análisis de la Moral Machine. Los primeros resultados, tras haberlo hecho en más de 200 países, fue que no había una opinión unitaria a nivel global de lo que la máquina debía hacer.

La idea era entrenar con esos datos a los algoritmos de loscoches autónomos, pero se dieron cuenta de que en cada lado del mundo tenemosuna opinión diferente sobre lo que es bueno y malo, incluso en decisiones quetodos deberíamos pensar igual. Los chinos pueden pensar una cosa sobredeterminada materia y nosotros lo contrario, y eso no quiere decir que loschinos tengan la razón, ni que la tengamos nosotros.

https://www.youtube.com/watch?time_continue=26&v=XCO8ET66xE4&feature=emb_title

En este análisis tenemos que tener la mente abierta. Yo soy cada día menos partidaria de buscar un único código internacional en Inteligencia Artificial, sino que se deben estudiar los casos de forma personalizada en función de la cultura donde lo vayas a implementar, porque es imposible ponernos de acuerdo a nivel global en cuestiones fundamentales. Aquí en Europa pensamos mayoritariamente que los sistemas de identificación facial atentan contra nuestra libertad, y sin embargo he hablado últimamente con conferenciantes de China sobre este asunto y lo ven de lo más normal; te dicen que es lo que ha sucedido siempre allí, que siempre han tenido esa falta de privacidad, y valoran ese control social positivamente.  

"Hay cosas que igual no deberíamos considerar tan íntimamente privadas si, y solo si, van a suponer un bien mayor, pero para eso es fundamental conocerlas, que estemos educados".

Ahora se está intentando hacer esta personalización en lanormalización, pero no se debe hacer solo entre Occidente y Oriente, sinotambién dentro de la Unión Europea. En Europa se está tratando de hacer estaregulación, y no se quiere basar sobre la tecnología, sino sobre los usos encada caso. Y en el caso concreto de España, como gobierno, tenemos que estarmuy pendientes con toda esta regulación que se está produciendo, no podemos dejar en manos de la Unión Europa estas políticasen materia de IA. Cada cultura es diferente, y la española difiere de laalemana o de la francesa, y es muy importante que se respeten nuestrasparticularidades a la hora de crear algoritmos en base a los cuales luego setomen decisiones. No basta con acogernos a la normativa europea en IA.No, el gobierno tiene que ser activo en esto, no lavarse las manos y sumarse alas decisiones de Europa. Será la única manera de que podamos repuntar en temasde IA, lo cual puede reactivar nuestra economía y a mejorar nuestra calidad devida.

Elon Musk mostró hace unos días un chip que se implantará en el cráneo y que presumiblemente permitirá leer y escribir en la actividad del sistema nervioso. ¿Qué te parece a priori el hecho de leer nuestro cerebro e intentar alterarlo?

No porque una tecnología que surge tenga la capacidad parahacer algo deba de hacerse. Nosotros, como seres humanos,no debemos explotar todas las posibilidades de una tecnología nueva si no estáclaro el resultado que puede tener. Al igual que un martillo se puedeusar para clavar un clavo o para darle a alguien con él en la cabeza, en elcaso de la tecnología pasa lo mismo; una cosa es la capacidad que tiene esta yotra para qué la debamos usar. En este caso, el chip como tecnología puede serbueno si una persona tiene daños cerebrales, por ejemplo. De ahí a emplearlopara otras cosas como para apagar la luz de la casa o crear supermanes dista unmundo. Tenemos que ser conscientes de que un chip se puede alterar, se puedehackear, y el hecho de que tú tengas eso en el cerebro para otros fines que nosean imprescindibles, puede ser peligroso.

Desde el punto de vista social, habría que estar atentos a lo que se hace si, como en el caso de Neuralink, se pretenden hacer modificaciones en la zona donde se elaboran nuestros pensamientos, ¿no crees?

La legislación la tienen que hacer los gobiernos. En estecaso el de Estados Unidos y, si se exporta, cada uno de los gobiernos quequieran permitir el uso de esos chips.

Hay que tener en cuenta que losdesarrollos de gran impacto que estamos haciendo ahora mismo pueden tenerconsecuencias que ni las empresas que están detrás son capaces de prever.Teniendo en cuenta las herramientas tan potentes que son, y las consecuencias quepueden (muertes, alteraciones muy graves, etc.), resulta fundamental un estudioprevio muy profundo de cada una de ellas antes de sacarlas al mercado.

Yo no tengo claro que esto se vaya a comercializar de una forma tan masiva. Todo lo relacionado con el cerebro es un mundo muy desconocido y no creo que veamos un desarrollo de esta tecnología para un uso de mera diversión.

"Yo soy cada día menos partidaria de buscar un único código internacional en Inteligencia Artificial. se deben estudiar los casos de forma personalizada en función de la cultura donde lo vayas a implementar".

Eudald Carbonell, director general de la Fundación Atapuerca, nos decía en una entrevista que él confía mucho más en una máquina inteligente que en una persona, ya que una máquina inteligente, aun programada por una persona, sigue siendo inteligente, y más estable que la mente humana, que está condicionada por nuestras emociones. ¿Tú en quién confías más?

Depende de la persona y de quién haya programado la máquina. Endeterminados casos confiaría mucho más en un robot que no tiene problemas encasa, no está cansado, que en una persona. Pero en cuestiones en las que elcontexto es importante preferiría que fuera una persona que a su vez podría apoyarseen una máquina para realizar la parte más cuantitativa. Yo abogo porque sigamos avanzando de la mano, que nos complementemos, quela máquina sea un complemento de un profesional que le haga mejor en su trabajo;ese tiene que ser su fin si queremos que la IA revolucione el mundo, como puedehacer.