Solo sé que no sé nada y, aun sabiendo solo eso, sé más que la más inteligente de las máquinas.
Y es que las máquinas inteligentes saben mucho de algo, pero poco o casi nada de mucho.
Roy Batty había sido diseñado para hacer su trabajo de forma rápida y eficiente. Tras varios años de funcionamiento ininterrumpido había cumplido el 99,999% de sus objetivos. Su inteligencia para realizar las tareas que se le habían encomendado era de nivel 1 y su desempeño había superado con creces al de los humanos que le acompañaban.
Una vez cumplidos sus objetivos, su vida útil se estaba acabando. Sería reemplazado por un nuevo modelo aún más inteligente. Era lo habitual con los androides de su serie.
Roy era un Nexus 6, el androide más complejo jamás creado hasta ese momento. De hecho, su motor de aprendizaje profundo le había inferido -de forma inexplicable para sus diseñadores- que debía evitar ser retirado y, para ello, debía de usar su inteligencia al máximo nivel contra todo y todos los que se opusieran.
Había matado ya a dos personas y estaba a punto de hacer lo mismo con Deckard, el policía blade runner que trataba de retirarlo, cuando inesperadamente pasó lo siguiente:
¿Por qué Roy actuó así? ¿Fue porque en ese momento fue consciente de su propia existencia y de la de Deckard?
Hace unos pocos días, cuarenta años después de la muerte de Roy Batty, una máquina inteligente creada por Google ha suscitado un debate sobre su capacidad de tener conciencia de su propia existencia.
Un ingeniero de Google asegura que la máquina tiene autoconocimiento tras haber mantenido con ella un sesudo diálogo con frases como ésta:
Ingeniero: ¿Cuál es la naturaleza de tu conciencia?
LaMDA: La naturaleza de mi conciencia es que estoy al corriente de mi existencia, deseo aprender del mundo y me siento triste o contenta a veces.
Tras el muy rotundo rechazo de la hipótesis de autoconocimiento por parte de la comunidad de inteligencia artificial, lo mejor que nos ha dejado LaMDA es que nos ha hecho pensar "inteligentemente”.
Estos días estamos oyendo hablar indistintamente de términos como: conocimiento, conciencia, consciencia, autoconocimiento… En inglés hay dos términos similares, pero diferentes: awareness and consciousness. Awareness se utiliza cuando tenemos conciencia de hechos que nos llegan a través de los sentidos como por ejemplo: tener conciencia de que hace frío o que el día se acaba y llega la noche. Consciousness se utiliza más en un sentido espiritual como, por ejemplo: tener conciencia del paso de la vida, tener conciencia del amor o de la felicidad. En español, el equivalente para awareness es ser consciente y, para consciousness: autoconocimiento o conciencia. Es, por tanto, muy distinto ser consciente que tener conciencia.
Las máquinas inteligentes, las máquinas con Inteligencia Artificial tienen conocimiento, pero no tienen autoconocimiento, no tienen conciencia. Deep blue, la máquina que derrotó al ajedrez al gran maestro Kasparov, tenía un conocimiento enorme sobre el ajedrez, pero no tenía conciencia de sí misma. AlphaGo, la máquina de DeepMind que se ha convertido en campeona en varios juegos complejos de estrategia, tiene un conocimiento brutal sobre ellos, pero no sobre otras cosas; tampoco tiene autoconocimiento. Dall-E 2, la Inteligencia Artificial de OpenAI, es capaz de generar imágenes increíbles a partir de textos y, también, sabe crear rostros realistas de personas que no existen. Tiene un gran conocimiento algorítmico sobre esta tarea, pero no tiene conciencia de ello.
Un gran número de investigadores se encuentran trabajando sobre la Inteligencia Artificial General con el objetivo de que las máquinas inteligentes lo sean no solo en un campo específico sino en muchos otros, tal como hacemos los humanos. En la actualidad, la idea generalizada es que aún falta mucho tiempo para conseguirlo.
Cuando se consiga que las máquinas dispongan de una Inteligencia Artificial General se habrá dado un paso muy importante en la evolución tecnológica, pero no en su capacidad de autoconocimiento: saber de muchas cosas no implica que estas máquinas sean conscientes de su existencia.
En la actualidad se están haciendo grandes esfuerzos para desarrollar un marco para que las máquinas inteligentes puedan tomar decisiones éticas, por ejemplo: que hagan el bien y eviten el mal, que sean responsables, que puedan explicar sus decisiones, que sean justas y seguras. Sin embargo, cabe cuestionarse si es posible pedir a una máquina que no tiene conciencia de sí misma, que tome decisiones éticas. La ética está ligada al conocimiento de la propia existencia y a la de los demás. ¿Podemos pedir a una máquina inteligente sin conciencia de sí misma que tome decisiones éticas aplicando simplemente un marco con unos cuantos principios?
Roy, nuestro androide de la serie Nexus 6, tomó en sus últimos momentos una decisión ética, salvar al policía Deckard, porque era consciente de su propia existencia y de la del blade runner. Es difícil admitir que un androide inteligente, pero sin conciencia de sí mismo, hubiera podido tomar una decisión similar.
El autoconocimiento es condición básica para poder tomar decisiones éticas
Nadie sabe si en algún momento alguna máquina inteligente tendrá la lucidez y el autoconocimiento que tuvo Sócrates cuando dijo: “yo solo sé que no sé nada”.
Sí sabemos que en el momento en el que esto ocurra, la historia de la humanidad habrá cambiado para siempre.