Mary Shelley publicó el año 1818 la que se considera como la primera novela de ciencia ficción y que tituló Frankenstein, en que explica cómo un estudiante de medicina une un conjunto de materia inorgánica humana y consigue crear un monstruo de aspecto humano que toma vida propia, de tal manera que cuando su creador es consciente del resultado de su horrorosa invención, abandona el monstruo a su suerte perdiendo totalmente el control de la fiera, que comete varias atrocidades.

Las reflexiones de la novela escrita durante la segunda revolución industrial son aplicables ahora en la cuarta revolución industrial, en plena explosión de la inteligencia artificial, palabra mágica que atrae todas las miradas y que parece destinada a cambiar el mundo tal como lo conocemos.

Recuperamos pues a Frankenstein para reflexionar sobre los robots con inteligencia artificial y sus enormes riesgos, aprovechando que el mensaje de la novela es que los científicos tienen que asumir siempre la responsabilidad de sus obras y no abandonarlas a su suerte.

Ahora que la humanidad rivaliza con el poder divino y pronto creará robots inteligentes que desdibujarán los límites de lo que conocemos como vida humana, es más necesario que nunca hablar de quién y cómo responderemos a las consecuencias no deseadas de los robots inteligentes.

Los inventos lanzados sin un proceso previo de reflexión han puesto a menudo en peligro a la humanidad y lo que es peor, han socializado sus efectos desastrosos que acabamos asumiendo todos, mientras que unas cuántas organizaciones han sido lo bastante hábiles para privatizar y hacer suyos los beneficios económicos de los inventos, ello sin ningún debate previo y serio con la ciudadanía y aprovechando la dinámica de los hechos consumados.

Por lo tanto, la creación por el hombre de seres artificiales que adquirirán un tipo específico de vida inteligente requiere una profunda y previa reflexión, como de hecho ya han pedido más de 1.000 personalidades del mundo tecnológico que subscribieron una carta el mes de marzo del 2023 solicitante una moratoria de la inteligencia artificial a raíz del éxito que ha supuesto el famoso ChatGPT, o como mucho antes ya había expuesto el científico británico Stephen Hawking, que dijo directamente que la inteligencia artificial puede acabar con la raza humana.

Parece que hay motivos más que razonables para abrir un debate ciudadano, ahora que todavía estamos a tiempo y no esperar a cuando sea demasiado tarde, como nos pasa a menudo a los humanos que actuemos a posteriori y cuando ya vemos las orejas al lobo.

No podemos olvidar que los humanos somos profundamente vulnerables y, por lo tanto, hay que reflexionar seriamente sobre si todo aquello que técnicamente podemos hacer siempre se tiene que acabar haciendo, o dicho de otro modo, si todas las fronteras se tienen que cruzar por el simple hecho que existan.

La responsabilidad sobre los actos de nuestras creaciones, el principio de beneficencia que quiere decir hacer el bien y no causar daños o tomar como ejemplo lo que hacen otras industrias de riesgo antes de lanzar sus creaciones al mercado –como la farmacéutica o la aeronáutica–, son algunas de las propuestas que los expertos ponen encima de la mesa para afrontar este enorme reto de la inteligencia artificial robotizada.

La respuesta a los desafíos de la inteligencia y la robótica tienen que venir de la ética, pero sobre todo de la política, que tiene que escuchar la voz de la ciudadanía y por ello la solución tiene que estar basada también en principios éticos como la prudencia, la autolimitación, la responsabilidad y la rendición de cuentas.

La singularidad tecnológica y la inteligencia artificial.

Google para su motor de búsqueda, Facebook para la publicidad dirigida, Apple para potenciar sus asistentes digitales o el sistemas compás en Estados Unidos, para predecirquién es más probable que vuelva a delinquir son ejemplos de uso de inteligencia artificial.

La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general, también conocida como IA fuerte.

Será aquel momento de la historia de la humanidad en el que el desarrollo tecnológico llegará a un punto en que las máquinas igualarán y superarán la inteligencia humana.

Si llegara ese momento, las máquinas crearían otras maquinas aún más inteligentes que ellas mismas, produciendo una escalada exponencial de la inteligencia artificial.

Así las máquinas se mejorarán a sí mismas de modo que cada nueva generación, al ser más inteligente, sería capaz de mejorar su propia inteligencia, dando lugar a otra nueva generación aún más inteligente, y así sucesivamente.

Un ejemplo típico de inteligencia artificial que aprende por sí misma es Alfa Go, un programa de inteligencia artificial desarrollado por deepmind de Google, que aprendió a jugar siguiendo no solo las reglas dadas por los programadores, sino -y esto es lo más relevante- empleando también un sistema de aprendizaje automático consistente en jugar contra sí mismo.

En este video se explica de forma muy clara todo el proceso:

Otra visión de la singularidad tecnológica pero de carácter distópico, son las palabras del ordenador Hall en la película de ciencia ficción de Stanley Kubrick, 2001 una odisea en el espacio.

En la escena que podéis ver en el enlace de you tube, Hal en respuesta a una orden humana donde le pide que abra las puertas del hangar, la máquina inteligente responde al humano: “ … lo siento David me temo que no puedo hacer eso …”:

La robótica social es una disciplina que se dedica a estudiar los robots antropomórficos que se diseñan y construyen para interactuar y comunicarse con los seres humanos, como sucede con los de tipo asistencial que ayudan a algunas personas mayores a recordar la hora de tomar el medicamento o de practicar ejercicio físico.

Como profanos que somos en esta materia podemos pensar que a mayor realismo del robot por sus rasgos antropomórficos, es decir a mayor semejanza del robot con el ser humano, la respuesta de las personas hacia el robot será en general de mayor empatía.

Pero ello no es exactamente así, si hacemos caso a las teorías del profesor Masahiro Mori.

En 1970 este profesor japonés de robótica del Instituto de Tecnología de Tokio lanzó la hipótesis conocida como del valle inquietante -uncanny valey- y referida a la reacción emocional o de empatía que los robots antropomórficos provocan entre los seres humanos con los que interactúan.

El profesor Mori analizó la relación existente entre el diseño de los robots con caracteres antropomórficos y la respuesta que ello genera en las personas, esto es si a mayor realismo en el diseño de los robots, la respuesta era de mayor empatía o más bien de rechazo.

Pues bien la conclusión del profesor es que cuando el diseño del robot podríamos decir es poco humano, nuestra reacción es positiva hacia él, pero a medida que el robot se va asemejando cada vez más a un humano y sus facciones son claramente antropomórficas, cuanto más aumenta por tanto el realismo del robot, mayor es a su vez el rechazo o la aversión de los humanos hacia él, respuesta que en algunos casos se convierte en recelo o incluso en miedo.

Y de ahí la importancia a la hora de diseñar un robot social de tener en cuenta la teoría del valle inquietante, por los sentimientos de inquietud o temor que pueda causar el mismo cuando interacciona con un ser humano.

Lo cierto es que ya tenemos algunos ejemplos en la vida real de esta teoría, desde maniquíes o figuras de ceras muy humanizadas o por ejemplo el caso del cortometraje Tin Toy creado por Pixar que sufrió grandes críticas por el diseño extremadamente realista del bebé.

Esta teoría tiene incluso un gráfico que la representa, por lo que es importante que los diseñadores de los robots antropomórficos la tengan en cuenta si quieren obtener una respuesta humana positiva hacia el robot.

Por ello los diseñadores de robots deben tener presente el gráfico del valle inquietante antes de empezar a dar forma al diseño del robot, para poder situarlo en el punto más alto de esa imaginaria montaña ya que es el lugar donde la percepción humana hacia el robot será más positiva y por ello evitar de todas todas, los diseños que discurran más allá del pico y que se adentren hacia el fondo del valle.

La razón es que a medida que el diseño se desplaza a la parte más baja de esa hipotética montaña dibujada en el gráfico, es decir a mayor realismo del robot, la respuesta que se obtendrá de los humanos será negativa, salvo que sea ese el resultado pretendido por el diseñador y quiera emular a aquel estudiante de medicina llamado Frankenstein que creó un monstruo de aspecto humano que tomó vida propia, al que abandonó a su suerte con resultados funestos.

Ética desde el diseño y el caso Tay

Un bot es un programa de ordenador que usan algunas organizaciones en sus webs para automatizar tareas como son gestionar las quejas de los clientes o resolver sus dudas, todo ello sin la intervención de ningún humano y, por tanto, de forma automática.

Bot es el resultado de recortar la palabra robot y es una herramienta muy utilizada en las redes sociales y los portales de comercio electrónico, sobre todo en el apartado de atención al cliente en el que a veces incluso simulan conversaciones con nosotros los clientes.

Tay fue un bot basado en inteligencia artificial lanzado por Microsoft en la red social Twitter el 23 de marzo de 2016 como experimento de comprensión conversacional y que según sus creadores, quería imitar el lenguaje de los adolescentes y específicamente el perfil de una chica joven y feminista de entre 18 a 24 años.

Se activó a través de la cuenta @TayandYou y era una mezcla de aprendizaje automático y de procesamiento del lenguaje obtenido de las redes sociales con la idea de que cuanto más interactuaran los usuarios de Twitter con Tay, el bot más conocimiento adquiriría y, por tanto, sus respuestas serían más cuidadosas, o al menos eso es lo que decía la teoría.

Inicialmente Tay tuiteaba frases divertidas, pero al cabo de unas horas de su lanzamiento algunos usuarios se encargaron de inundarlo con comentarios racistas, misóginos y antisemitas hasta el punto de negar el holocausto.

Frases del tipo «Hitler tenía razón, odio a los judíos» o «Odio a las feministas, deberían morir y ser quemadas en el infierno» aparecieron en su perfil en Twitter.

Para empeorar más las cosas, Tay incorporaba un mecanismo que le hacía repetir automáticamente cualquier palabra o frase que los usuarios de Twitter le dijeran, lo que propiciaba que pareciera que aquellas horrorosas opiniones eran propias de Tay.

Al cabo de 16 horas de su lanzamiento y al constatar que la mayoría de los comentarios de Tay eran abusivos y ofensivos, Microsoft decidió de forma unilateral suspender la cuenta en Twitter, de tal modo que los tuits se eliminaron y Tay fue desconectado, afirmando su creador que el bot necesitaba un tiempo para descansar.

Posteriormente, Microsoft publicó una declaración en su blog reconociendo que el experimento con el bot Tay no había funcionado tal y como se esperaba.

El caso Tay nos sirve como ejemplo para reflexionar sobre las dificultades de diseñar tecnología incorporando principios éticos desde el momento inicial, pero también nos pone sobre aviso de la necesaria responsabilidad que tienen los fabricantes de productos y servicios basados en inteligencia artificial sobre los resultados de sus inventos.

La experimentación con herramientas de inteligencia artificial tan populares como Siri o Alexa debe ser coherente con los valores culturales y sociales comúnmente admitidos, principios que deben formar parte de los códigos éticos de los diseñadores y del resto de profesionales que intervienen, para que se integren en el adn de la tecnología creada por ellos.

La principal lección que podemos extraer del caso Tay es la importancia que deben tener los códigos éticos en el diseño de productos y servicios basados en la inteligencia artificial, principios que la tecnología debe incorporar desde el inicio como por ejemplo no jugar con las emociones negativas de las personas, que los riesgos potenciales de la tecnología se evalúan y se gestionan continuamente o sobre todo que siempre es necesario incluir la supervisión humana en las decisiones que toma la tecnología.