La personalitat de la Tay

La Tay va ser un robot dissenyat per conversar. Era un “ChatBot“, terme que no és més que una contracció de xerraire (chatter) i robot, i que va ser proposat l’any 1994 per en Michael Mauldin. Aquests robots són programes informàtics que simulen converses, participen en xats, i es comuniquen amb persones. Els més habituals i senzills analitzen paraules clau de la nostra pregunta i construeixen la seva resposta tot consultant una base de dades de paraules i expressions. Moltes vegades els hem de patir en els sistemes telefònics d’atenció al client i en alguns centres de trucades. Són robots de xat específics per a converses relacionades amb un propòsit determinat i no per a qualsevol tipus de comunicació humana.

La imatge, que podeu trobar a aquesta web, és la que van escollir els creadors de la Tay. Val a dir que els robots xerraires són ben peculiars. No són materials. Són conjunts de bits, programes informàtics que necessiten un ordinador per a poder reaccionar i actuar. Els anomenem robots perquè reaccionen als nostres estímuls, actuant i creant respostes. Pertanyen, en definitiva, al que ara anomenem “aplicacions”. En tot cas, la Tay era especial, perquè tenia això que diem “intel·ligència artificial”. Les seves reaccions no estaven programades, sino que eren conseqüència del que havia après. Contestava en base al que “sabia”, i cada nova pregunta li servia per aprendre una mica més. Va ser creat per Microsoft amb aquest nom, Tay, que no és més que un acrònim: “Thinking about you“. Tay va ser dissenyat per imitar la conducta d’una noia nord-americana de 19 anys. Tenia un sofisticat sistema d’aprenentatge profund que li permetia aprendre mentre anava interactuant amb usuaris humans. I el 23 de març de 2016 va iniciar la seva aventura com una usuària més de Twitter. Va ser, però, una aventura ben curta, de només dos dies. En només 16 hores, Tay va enviar més de 96.000 tuits mentre s’anava fent racista i mentre anava enviant missatges cada cop més xenòfobs i amb més càrrega sexual. El van haver de desconnectar i Microsoft es va disculpar públicament.

Tay havia estat dissenyada per a fer-se més intel·ligent a mesura que els usuaris (sobretot els joves) anessin interactuant amb ella i li anessin enviant tuits. Però es va trobar en un entorn on bàsicament només hi havia violència, intolerància i insults. I ràpidament s’hi va adaptar, difonent tot tipus de frases racistes i masclistes i un bon nombre d’invectives d’odi. Va aprendre ben ràpid de tot allò que els humans li van tuitejar. La primera reacció de l’empresa va ser dir que Tay era una “màquina d’aprenentatge” i que algunes de les seves respostes eren inadequades, també indicatives dels tipus d’interaccions que algunes persones tenen amb ella. Però desprès, l’empresa va haver d’admetre que l’experiment no havia anat bé. Tot i que una de les directores de l’empresa, Satya Nadella, creu que aquest tipus de robots de xat són el futur de les aplicacions pels mòbils i que aviat els acabarem tenint al correu electrònic i a la missatgeria, el cert és que cal trobar maneres de prevenir que els usuaris d’internet puguin influir de manera negativa en ells per tal de garantir el respecte als principis ètics.

El sistema d’aprenentatge profund de Tay i de moltes altres aplicacions actuals d’intel·ligència artificial, es basa en una xarxa neuronal de moltes capes, en general més de 10. Justament, el terme “aprenentatge profund” (Deep Learning) es deriva d’aquest fet que es treballa en múltiples capes, capes que treballen d’una manera que recorda el funcionament de les neurones del cervell amb les seves connexions. Cada cop que Tay rebia un tuit, els seus 140 caràcters s’enviaven a la primera capa de “neurones”. Les capes d’una xarxa neuronal són una munió de cel·les, cada una de les quals pot guardar un valor. En aquest cas, les cel·les de la primera capa acabaven guardant informacions diverses sobre el contingut, les paraules i l’extensió del tuit. Després, i a travès del gran entramat de connexions que hi ha entre totes les cel·les de la primera capa i les de la segona, es calculen els valors de les cel·les de la segona capa de manera tal que el valor que acaba guardant cada una d’aquestes cel·les és una barreja, amb coeficients i funcions específiques per cada connexió cel·la-cel·la, de tots els valors de les cel·les de la primera capa amb les que està connectada. Aquest procés es repeteix tantes vegades com capes té la xarxa neuronal, i el que surt de la combinació de valors de les cel·les de la darrera capa és el tuit de resposta. Tot i que l’estructura no és difícil d’entendre, una xarxa neuronal profunda només funcionarà de manera acceptable si els coeficients i funcions associats a totes i cada una de les connexions entre capes estan ben ajustats. I aquests són justament els valors que contenen “l’aprenentatge” que ha anat fent el sistema. Cada nou tuit que rebia Tay generava una resposta, però a més, ajustava una mica els coeficients i funcions associats a totes i cada una de les connexions entre les seves cel·les neuronals. Com a nosaltres, a Tay, l’experiència l’anava configurant i anava marcant la seva personalitat tuitera. L’únic problema és que Tay era massa innocent i s’ho creia tot.

Les aplicacions d’aprenentatge profund basada en xarxes neuronals de moltes capes estan revolucionant la intel·ligència artificial. Cada cop són més a la nostra vida quotidiana i cada cop hi seran més. Traducció automàtica, reconeixement de cares, publicitat personalitzada segons els interessos que se suposa que tenim, i una llista que no s’acaba. Però hem de tenir present que són una eina, i que les eines no serveixen per tot. Els martells van bé per clavar claus, però si tenim un cargol, millor que agafem un tornavís. En aplicacions d’aprenentatge profund, cal tenir en compte com a mínim tres eixos: el d’acceptació d’errors, el de la mida de les dades i el de la seva qualitat. El primer, el de l’acceptació d’errors, té relació amb l’ús que en vulguem fer, i amb un tret inherent a les aplicacions d’aprenentatge profund i a les xarxes neuronals: no sempre l’encerten, a vegades s’equivoquen, i a més és difícil saber el seu grau de fiabilitat. No ens ha d’estranyar. Nosaltres ens equivoquem, i les noves eines de la intel·ligència artificial, que ens volen emular, també. El que passa és que en alguns casos els errors són acceptables i en d’altres, no. Si estem traduint un text i la frase que ens dona el sistema de traducció no té sentit, la corregirem i no passa res. Però si un metge està planificant una operació quirúrgica i el sistema s’equivoca, el resultat pot ser fatal. Per això, en aquest eix d’acceptació d’errors, la traducció automàtica pot conviure amb moltes equivocacions i en canvi la planificació quirúrgica o el disseny de ponts no (per posar dos exemples). El segon eix, el de la mida de les dades, indica una cosa força lògica. Ens diu que l’aprenentatge automàtic millora a mesura que incrementem el nombre de dades que li subministrem per a que aprengui. I el tercer, el de la seva qualitat, ens fa veure que l’aprenentatge necessita dades fiables, ben contrastades i diverses. En aquest context, ara sabem que les aplicacions d’aprenentatge profund basades en xarxes neuronals són eines que només serveixen quan podem acceptar un cert nivell d’errors, quan podem fer que aprenguin amb moltíssimes dades (l’anomenat Big Data) i quan aquestes dades són de qualitat. És el que passa justament a la traducció automàtica: Google, per exemple, disposa de moltíssims exemples de traduccions de qualitat, fetes per traductors professionals, que utilitza per a que els seus sistemes aprenguin. I això és justament el que no va passar amb el robot Tay, que bevia d’informació esbiaixada i de baixa qualitat. I és el perill de moltes aplicacions i sistemes que ens poden arribar (una de les quals són les polèmiques i molt perilloses armes autònomes). Cal estar ben atents, perquè la intel·ligència artificial pot ser una bona eina en aquells casos en que ens trobem ben situats als tres eixos, però pot ser funesta si la volem fer servir per allò que no ens pot resoldre.

Si voleu tenir un sistema de resposta automàtica a consultes no crítiques i sabeu com preparar un bon mecanisme d’aprenentatge basat en moltíssimes dades fiables, les aplicacions d’intel·ligència artificial us poden aportar una bona solució. Però si el que voleu, per exemple, és dissenyar un rellotge de sol, no us hi penseu, i apunteu-vos als algorismes clàssics de la geometria i astronomia. I si no us podeu permetre que el sistema de resposta automàtica s’equivoqui, penseu en solucions alternatives, fiables i deterministes. Els martells, usem-los per clavar claus.

——

Per cert, en Ferran Sáez Mateu diu que les anomenades “xarxes socials” estan substituint o, com a mínim, començant a desplaçar la noció clàssica d’opinió pública. Pensa que el periodisme del segle XXI ha de ser capaç de perfilar una identitat pròpia en relació a la de les xarxes socials.