La intel·ligència artificial i Frankenstein

Mary Shelley va publicar el 1818 la que es considera com la primera novel·la de ciència-ficció, que va titular Frankenstein, en què explica com un estudiant de medicina uneix un conjunt de matèria inorgànica humana i aconsegueix crear un monstre d’aspecte humà que pren vida pròpia, de tal manera que quan el seu creador és conscient del resultat de la seva horrorosa invenció, abandona el monstre a la seva sort perdent totalment el control de la fera, que comet diverses atrocitats.

Les reflexions de la novel·la escrita durant la segona revolució industrial són aplicables ara a la quarta revolució industrial, en plena explosió de la intel·ligència artificial, paraula màgica que atreu totes les mirades i que sembla destinada a canviar el món tal com el coneixem.

Recuperem doncs Frankenstein per reflexionar sobre els robots amb intel·ligència artificial i els seus enormes riscos, aprofitant que el missatge de la novel·la és que els científics han d’assumir sempre la responsabilitat de les seves obres i no abandonar-les a la seva sort.

Ara que la humanitat rivalitza amb el poder diví i aviat crearà robots intel·ligents que desdibuixaran els límits del que coneixem com a vida humana, és més necessari que mai parlar de qui i com respondrem a les conseqüències no desitjades dels robots intel·ligents.

Els invents llançats sense un procés previ de reflexió han posat sovint en perill la humanitat i el que és pitjor, han socialitzat els seus efectes desastrosos que acabem assumint tots, mentre que unes quantes organitzacions han estat prou espavilades per privatitzar i fer seus els beneficis econòmics dels invents, sense cap debat previ i seriós amb la ciutadania i aprofitant la dinàmica dels fets consumats.

Per tant, la creació per l’home d’éssers artificials que adquiriran un tipus específic de vida intel·ligent requereix una profunda i prèvia reflexió, com de fet ja han demanat més de 1.000 personalitats del món tecnològic que van subscriure una carta el mes de març del 2023 sol·licitant una moratòria de la intel·ligència artificial arran de l’èxit que ha suposat el famós ChatGPT, o com molt abans ja havia fer el científic britànic Stephen Hawking, que va dir directament que la intel·ligència artificial pot acabar amb la raça humana.

Sembla que hi ha motius més que raonables per obrir un debat ciutadà, ara que encara hi som a temps, i no esperar quan sigui massa tard, com ens passa sovint als humans, que actuem a posteriori i quan ja veiem les orelles al llop.

No podem oblidar que els humans som profundament vulnerables i, per tant, cal reflexionar seriosament sobre si tot allò que tècnicament podem fer sempre s’ha d’acabar fent, o dit d’una altra manera, si totes les fronteres s’han de creuar pel simple fet que existeixen.

La responsabilitat sobre els actes de les nostres creacions, el principi de beneficència que vol dir fer el bé i no causar danys o prendre com a exemple el que fan altres indústries de risc abans de treure les seves creacions al mercat –com la farmacèutica o l’aeronàutica–, són algunes de les propostes que els experts posen damunt de la taula per afrontar aquest enorme repte de la intel·ligència artificial robotitzada.

La resposta als desafiaments de la intel·ligència i la robòtica han de venir de l’ètica, però sobretot de la política, que ha d’escoltar la veu de la ciutadania, i la solució per tant ha d’estar basada també en principis ètics com la prudència, l’autolimitació, la responsabilitat i la rendició de comptes.

Ètica des del disseny i el cas Tay

Un bot és un programa d’ordinador que fan anar algunes organitzacions als seus webs per automatitzar tasques com són gestionar les queixes dels clients o resoldre els seus dubtes, tot això sense la intervenció de cap humà i, per tant, de forma automàtica.

Bot és el resultat d’escurçar la paraula robot i és una eina molt utilitzada en les xarxes socials i els portals de comerç electrònic, sobretot en l’apartat d’atenció al client on de vegades fins i tot simulen converses amb nosaltres els clients.

Tay va ser un bot basat en intel·ligència artificial llançat per Microsoft a la xarxa social Twitter el 23 de març de 2016 com a experiment de comprensió conversacional i que segons els seus creadors, volia imitar el llenguatge dels adolescents i específicament el perfil d´una noia jove i feminista d´entre 18 a 24 anys.

Es va activar a través del compte @TayandYou i era una barreja d’aprenentatge automàtic i de processament del llenguatge obtingut de les xarxes socials amb la idea que com més interactuessin els usuaris de Twitter amb Tay, el bot més coneixement adquiriria i, per tant, les seves respostes serien més acurades, o almenys això és el que deia la teoria.

Inicialment Tay piulava frases divertides, però al cap d’unes hores del seu llançament alguns usuaris es van encarregar d’inundar-lo amb comentaris racistes, misògins i antisemites fins al punt de negar l’holocaust.

Frases del tipus “Hitler tenia raó, odio als jueus” o “Odi a les feministes, haurien de morir i ser cremades en l’infern” van aparèixer al seu perfil a Twitter.

Per empitjorar més les coses, Tay incorporava un mecanisme que li feia repetir automàticament qualsevol paraula o frase que els usuaris de Twitter li diguessin, el que propiciava que sembles que aquelles horroroses opinions eren pròpies de Tay.

Al cap de 16 hores del seu llançament i al constatar que la majoria dels comentaris de Tay eren abusius i ofensius, Microsoft va decidir de manera unilateral suspendre el compte a Twitter, de tal manera que les piulades es van eliminar i Tay va ser desconnectat, afirmant el seu creador que el bot necessitava un temps per descansar.

Posteriorment, Microsoft va publicar una declaració al seu bloc reconeixent que l´experiment amb el bot Tay no havia funcionat tal com s’esperava.

El cas Tay ens serveix com a exemple per a reflexionar sobre les dificultats de dissenyar tecnologia incorporant principis ètics des del moment inicial, però també ens posa sobre avis de la necessària responsabilitat que tenen els fabricants de productes i serveis basats en intel·ligència artificial sobre els resultats dels seus invents.

L’experimentació amb eines d’intel·ligència artificial tan populars com el Siri o l’Alexa ha de ser coherent amb els valors culturals i socials comunament admesos, principis que han de formar part dels codis ètics dels dissenyadors i de la resta de professionals que hi intervenen, per tal que s’integrin a l’adn de la tecnologia creada per ells.

La principal lliçó que podem extreure del cas Tay és la importància que han de tenir els codis ètics en el disseny de productes i serveis basats en la intel·ligència artificial, principis que la tecnologia ha d’incorporar des de l’inici com per exemple no jugar amb les emocions negatives de les persones, que els riscos potencials de la tecnologia s’avaluen i es gestionen contínuament o sobretot que sempre cal incloure la supervisió humana en les decisions que pren la tecnologia.

La família digital ha participat de les celebracions del Dia Mundial de les Telecomunicacions, Internet i la Societat de la Informació del 2022

Aquest any estava dedicat a les tecnologies digitals per a un envelliment saludable.

Hem parlat d´ètica digital des del disseny per a persones grans, el dia 12 de maig de 16.15 a 19h al Recinte Firal Gran Via.

Organitzat per l’Associació Catalana d’Enginyeria de Telecomunicació i Tecnologies Digitals (Telecos.cat), el Col·legi Oficial d’Enginyeria en Informàtica de Catalunya (COEINF) i Ones Associació Catalana d’Enginyers Tècnics de Telecomunicació (GrausTIC)

Aquí el programa:  https://www.telecos.cat/VerNoticias.aspx?Cod=1329

El congrés: https://www.iotsworldcongress.com/

L´iut: https://www.itu.int/es/Pages/default.aspx

La constatació que alguns algorismes que utilitza la intel·ligència artificial fallen a l’hora de reconèixer les persones de color, posa en relleu les dificultats que encara existeixen per incloure la diversitat racial en els productes i serveis que fem servir de manera habitual al món digital.

Les màquines prenen cada vegada més decisions de manera autònoma i per això preocupa que els algorismes perpetuïn en el món digital les mateixes conductes de discriminació racial provinents del món analògic i que els algorismes prenguin decisions clarament discriminatòries.

Per il·lustrar el debat és interessant el vídeo del cas del dispensador de sabó que utilitza un sensor per detectar quan una mà se situa a sota:

El dispensador no planteja problemes quan la mà és de color blanc, ja que dispensa el sabó sense cap dificultat, però curiosament aquest sensor no pot detectar la mà d’un client negre.

Si fos possible tirar enrere en el temps per intentar comprendre la causa d’aquest biaix racial, segurament el problema es va crear -i no es va detectar- en la mateixa fase de disseny del dispensador, quan l’empresa que el va concebre tenia al cap com a prototip un sol tipus d’usuari ideal, sense pensar a reflectir la diversitat de la població a qui anava dirigit.

I segurament la composició del grup de persones que va fer el disseny de la màquina expenedora de sabó tampoc era equitativa, ja que ens aventurem a assegurar que hi havia una clara infrarepresentació de persones de color, tant a la fase de disseny com a la d’entrenament del model, ja que possiblement el mateix no es va testejar amb una varietat àmplia de tons de pell i possiblement cap de color negre.

El biaix possiblement va estar present a la fase de disseny i també a l’elecció de les dades que es van utilitzar per entrenar a la màquina expenedora de sabó.

La manca de representació de la realitat de les persones que utilitzarien aquest servei com a clients o dit altrament, l’homogeneïtat racial de l’equip creador del disseny s’apunta com una de les causes del biaix.

En aquest cas, les conseqüències no van ser greus, però en altres supòsits les conseqüències de les decisions preses poden ser complicades d’assumir.

Per evitar perpetuar les situacions de discriminació racial és clau el disseny inclusiu, la promoció de la diversitat a l’equip que crea i entrena la màquina i sobretot, l’aplicació efectiva de principis de l’ètica digital com l’equitat, la transparència, la confiança i la no discriminació, eines totes que s’apunten com a indispensables per evitar que els biaixos racials es transfereixin de manera automàtica als algoritmes i amb això, a les decisions que les màquines prenen i que ens afecten com a persones.

Els darkpatterns o patrons foscos són aquelles pràctiques de disseny enganyoses, creades expressament per forçar els usuaris d’una web o una app a realitzar accions que en altres circumstàncies no farien, i que normalment tenen com a finalitat manipular de manera més o menys conscient la voluntat de l’usuari.

El terme el va crear el dissenyador d’experiència d’usuari Harry Brignull l’any 2010: www.darkpatterns.org

En aquest perfil de twiter podem veure exemples: https://twitter.com/darkpatterns

Es tracta d’anuncis disfressats de vídeos, d’ofertes de preus baixos que no mostren els costos addicionals, de dissenys que desorienten l’usuari a l’hora de cancel·lar un producte o de donar-se de baixa del compte, de productes que de forma misteriosa es colen al carret de la compra, de dissenys que empenyen l’usuari a acceptar tractaments poc respectuosos amb la privadesa o de subscripcions gratuïtes que per gaudir-les obliguen a introduir la targeta de crèdit, però que després és complicat donar-se de baixa quan es vol cancel·lar el servei .

Des del punt de vista legal són habituals en les polítiques de privadesa de les xarxes socials l’ús de termes redactats de tal manera que són difícils d’entendre, o que ometen informació rellevant a la primera capa i que obliguen l’usuari a anar fent clic a diversos enllaços per poder tenir una comprensió aproximada de la política de tractament de dades personals, dissenys legals que clarament infringeixen la normativa en protecció de dades personals.

La finalitat d’aquests patrons sempre és incrementar les vendes o tractar més dades de les necessàries i van més enllà de les tècniques de simple persuasió o de màrqueting intel·ligent, sense que en cap cas es tracti de simples errors de programació.

Els dissenyadors tenen un paper rellevant davant la pressió dels clients davant d’aquest fenomen, per fer-los comprendre que l’ús d’aquest tipus d’estratègies no fa sinó crear desconfiança i frustració i que els consumidors i usuaris són conscients dels portals que utilitzen aquestes tècniques.

Finalment, no hem d’oblidar que un simple tuit d’un client descontent pot convertir-se en viral i suposar un risc reputacional i econòmic greu per a l’organització.

Ramon Arnó ha participat al Fòrum internacional d´educació i tecnologia (FIET) els anys 2014 i 2018:

a.- L´any 2014 a Tarragona, centrat en l´ètica i la tecnologia.

L´enllaç: https://fietcat.cat/es/linenine

b.- l´any 2017 a Barcelona, parlant d´educació, ètica i civisme digital

L´enllaç: https://fiet2018.fietcat.cat/

Participació el dia 2-11-2009 a les xxiv jornadas de bioética parlant dels  aspectes legals i jurídics del consentiment informat.

L´enllaç: http://www.medicina.udl.cat/ca/

L’Ajuntament de Tarragona va organitzar el 10-7-2014 Ciberàgora 2014, edició que va estar centrada en les qüestions de l’ètica i l’ús cívic de les noves tecnologies, abordant els riscos i perills que plantegen, i les oportunitats que s’obren per fer-hi front.

Ramon Arnó va participar amb una ponència titulada què és delicte a Internet?.

L´enllaç: https://enginyeriainformatica.cat/ciberagora-2014/

El dia 10-12-2019 vàrem estar a la jornada de presentació de la Carta catalana per als drets i les responsabilitats digitals, una eina viva i dinàmica amb vocació normativa i de contribució al debat global.

La jornada: http://smartcatalonia.gencat.cat/ca/projectes/ciutadania/eTic/etic2019/

La carta: https://participa.gencat.cat/uploads/decidim/attachment/file/1523/Carta_catalana_per_als_drets_i_les_responsabilitats_digitals_2.pdf