Ética desde el diseño y el caso Tay
Un bot es un programa de ordenador que usan algunas organizaciones en sus webs para automatizar tareas como son gestionar las quejas de los clientes o resolver sus dudas, todo ello sin la intervención de ningún humano y, por tanto, de forma automática.
Bot es el resultado de recortar la palabra robot y es una herramienta muy utilizada en las redes sociales y los portales de comercio electrónico, sobre todo en el apartado de atención al cliente en el que a veces incluso simulan conversaciones con nosotros los clientes.
Tay fue un bot basado en inteligencia artificial lanzado por Microsoft en la red social Twitter el 23 de marzo de 2016 como experimento de comprensión conversacional y que según sus creadores, quería imitar el lenguaje de los adolescentes y específicamente el perfil de una chica joven y feminista de entre 18 a 24 años.
Se activó a través de la cuenta @TayandYou y era una mezcla de aprendizaje automático y de procesamiento del lenguaje obtenido de las redes sociales con la idea de que cuanto más interactuaran los usuarios de Twitter con Tay, el bot más conocimiento adquiriría y, por tanto, sus respuestas serían más cuidadosas, o al menos eso es lo que decía la teoría.
Inicialmente Tay tuiteaba frases divertidas, pero al cabo de unas horas de su lanzamiento algunos usuarios se encargaron de inundarlo con comentarios racistas, misóginos y antisemitas hasta el punto de negar el holocausto.
Frases del tipo «Hitler tenía razón, odio a los judíos» o «Odio a las feministas, deberían morir y ser quemadas en el infierno» aparecieron en su perfil en Twitter.
Para empeorar más las cosas, Tay incorporaba un mecanismo que le hacía repetir automáticamente cualquier palabra o frase que los usuarios de Twitter le dijeran, lo que propiciaba que pareciera que aquellas horrorosas opiniones eran propias de Tay.
Al cabo de 16 horas de su lanzamiento y al constatar que la mayoría de los comentarios de Tay eran abusivos y ofensivos, Microsoft decidió de forma unilateral suspender la cuenta en Twitter, de tal modo que los tuits se eliminaron y Tay fue desconectado, afirmando su creador que el bot necesitaba un tiempo para descansar.
Posteriormente, Microsoft publicó una declaración en su blog reconociendo que el experimento con el bot Tay no había funcionado tal y como se esperaba.
El caso Tay nos sirve como ejemplo para reflexionar sobre las dificultades de diseñar tecnología incorporando principios éticos desde el momento inicial, pero también nos pone sobre aviso de la necesaria responsabilidad que tienen los fabricantes de productos y servicios basados en inteligencia artificial sobre los resultados de sus inventos.
La experimentación con herramientas de inteligencia artificial tan populares como Siri o Alexa debe ser coherente con los valores culturales y sociales comúnmente admitidos, principios que deben formar parte de los códigos éticos de los diseñadores y del resto de profesionales que intervienen, para que se integren en el adn de la tecnología creada por ellos.
La principal lección que podemos extraer del caso Tay es la importancia que deben tener los códigos éticos en el diseño de productos y servicios basados en la inteligencia artificial, principios que la tecnología debe incorporar desde el inicio como por ejemplo no jugar con las emociones negativas de las personas, que los riesgos potenciales de la tecnología se evalúan y se gestionan continuamente o sobre todo que siempre es necesario incluir la supervisión humana en las decisiones que toma la tecnología.