Ética desde el diseño y el caso Tay

Un bot es un programa de ordenador que usan algunas organizaciones en sus webs para automatizar tareas como son gestionar las quejas de los clientes o resolver sus dudas, todo ello sin la intervención de ningún humano y, por tanto, de forma automática.

Bot es el resultado de recortar la palabra robot y es una herramienta muy utilizada en las redes sociales y los portales de comercio electrónico, sobre todo en el apartado de atención al cliente en el que a veces incluso simulan conversaciones con nosotros los clientes.

Tay fue un bot basado en inteligencia artificial lanzado por Microsoft en la red social Twitter el 23 de marzo de 2016 como experimento de comprensión conversacional y que según sus creadores, quería imitar el lenguaje de los adolescentes y específicamente el perfil de una chica joven y feminista de entre 18 a 24 años.

Se activó a través de la cuenta @TayandYou y era una mezcla de aprendizaje automático y de procesamiento del lenguaje obtenido de las redes sociales con la idea de que cuanto más interactuaran los usuarios de Twitter con Tay, el bot más conocimiento adquiriría y, por tanto, sus respuestas serían más cuidadosas, o al menos eso es lo que decía la teoría.

Inicialmente Tay tuiteaba frases divertidas, pero al cabo de unas horas de su lanzamiento algunos usuarios se encargaron de inundarlo con comentarios racistas, misóginos y antisemitas hasta el punto de negar el holocausto.

Frases del tipo «Hitler tenía razón, odio a los judíos» o «Odio a las feministas, deberían morir y ser quemadas en el infierno» aparecieron en su perfil en Twitter.

Para empeorar más las cosas, Tay incorporaba un mecanismo que le hacía repetir automáticamente cualquier palabra o frase que los usuarios de Twitter le dijeran, lo que propiciaba que pareciera que aquellas horrorosas opiniones eran propias de Tay.

Al cabo de 16 horas de su lanzamiento y al constatar que la mayoría de los comentarios de Tay eran abusivos y ofensivos, Microsoft decidió de forma unilateral suspender la cuenta en Twitter, de tal modo que los tuits se eliminaron y Tay fue desconectado, afirmando su creador que el bot necesitaba un tiempo para descansar.

Posteriormente, Microsoft publicó una declaración en su blog reconociendo que el experimento con el bot Tay no había funcionado tal y como se esperaba.

El caso Tay nos sirve como ejemplo para reflexionar sobre las dificultades de diseñar tecnología incorporando principios éticos desde el momento inicial, pero también nos pone sobre aviso de la necesaria responsabilidad que tienen los fabricantes de productos y servicios basados en inteligencia artificial sobre los resultados de sus inventos.

La experimentación con herramientas de inteligencia artificial tan populares como Siri o Alexa debe ser coherente con los valores culturales y sociales comúnmente admitidos, principios que deben formar parte de los códigos éticos de los diseñadores y del resto de profesionales que intervienen, para que se integren en el adn de la tecnología creada por ellos.

La principal lección que podemos extraer del caso Tay es la importancia que deben tener los códigos éticos en el diseño de productos y servicios basados en la inteligencia artificial, principios que la tecnología debe incorporar desde el inicio como por ejemplo no jugar con las emociones negativas de las personas, que los riesgos potenciales de la tecnología se evalúan y se gestionan continuamente o sobre todo que siempre es necesario incluir la supervisión humana en las decisiones que toma la tecnología.

Mary Shelley publicó el año 1818 la que se considera como la primera novela de ciencia ficción y que tituló Frankenstein, en que explica cómo un estudiante de medicina une un conjunto de materia inorgánica humana y consigue crear un monstruo de aspecto humano que toma vida propia, de tal manera que cuando su creador es consciente del resultado de su horrorosa invención, abandona el monstruo a su suerte perdiendo totalmente el control de la fiera, que comete varias atrocidades.

Las reflexiones de la novela escrita durante la segunda revolución industrial son aplicables ahora en la cuarta revolución industrial, en plena explosión de la inteligencia artificial, palabra mágica que atrae todas las miradas y que parece destinada a cambiar el mundo tal como lo conocemos.

Recuperamos pues a Frankenstein para reflexionar sobre los robots con inteligencia artificial y sus enormes riesgos, aprovechando que el mensaje de la novela es que los científicos tienen que asumir siempre la responsabilidad de sus obras y no abandonarlas a su suerte.

Ahora que la humanidad rivaliza con el poder divino y pronto creará robots inteligentes que desdibujarán los límites de lo que conocemos como vida humana, es más necesario que nunca hablar de quién y cómo responderemos a las consecuencias no deseadas de los robots inteligentes.

Los inventos lanzados sin un proceso previo de reflexión han puesto a menudo en peligro a la humanidad y lo que es peor, han socializado sus efectos desastrosos que acabamos asumiendo todos, mientras que unas cuántas organizaciones han sido lo bastante hábiles para privatizar y hacer suyos los beneficios económicos de los inventos, ello sin ningún debate previo y serio con la ciudadanía y aprovechando la dinámica de los hechos consumados.

Por lo tanto, la creación por el hombre de seres artificiales que adquirirán un tipo específico de vida inteligente requiere una profunda y previa reflexión, como de hecho ya han pedido más de 1.000 personalidades del mundo tecnológico que subscribieron una carta el mes de marzo del 2023 solicitante una moratoria de la inteligencia artificial a raíz del éxito que ha supuesto el famoso ChatGPT, o como mucho antes ya había expuesto el científico británico Stephen Hawking, que dijo directamente que la inteligencia artificial puede acabar con la raza humana.

Parece que hay motivos más que razonables para abrir un debate ciudadano, ahora que todavía estamos a tiempo y no esperar a cuando sea demasiado tarde, como nos pasa a menudo a los humanos que actuemos a posteriori y cuando ya vemos las orejas al lobo.

No podemos olvidar que los humanos somos profundamente vulnerables y, por lo tanto, hay que reflexionar seriamente sobre si todo aquello que técnicamente podemos hacer siempre se tiene que acabar haciendo, o dicho de otro modo, si todas las fronteras se tienen que cruzar por el simple hecho que existan.

La responsabilidad sobre los actos de nuestras creaciones, el principio de beneficencia que quiere decir hacer el bien y no causar daños o tomar como ejemplo lo que hacen otras industrias de riesgo antes de lanzar sus creaciones al mercado –como la farmacéutica o la aeronáutica–, son algunas de las propuestas que los expertos ponen encima de la mesa para afrontar este enorme reto de la inteligencia artificial robotizada.

La respuesta a los desafíos de la inteligencia y la robótica tienen que venir de la ética, pero sobre todo de la política, que tiene que escuchar la voz de la ciudadanía y por ello la solución tiene que estar basada también en principios éticos como la prudencia, la autolimitación, la responsabilidad y la rendición de cuentas.