Traduccions, algorismes i dignitat

La història de la traducció automàtica s’ha anat construint en paral·lel a la de la informàtica. L’any 1954 es va fer el primer intent de traducció, conegut com experiment de Georgetown, en el que els autors van saber traduir unes seixanta frases del rus a l’anglès. Però després, durant molts anys, tots els intents van anar fracassant. Intentaven traduir en base a regles sintàctiques i semàntiques d’un i altre idioma i recollien fracàs darrera fracàs. Van ser cinc dècades d’anar topant contra la paret, fins que l’any 2003, en Franz Josef Och va guanyar el concurs DARPA de traducció automàtica amb un nou algorisme de traducció probabilística o estadística i ens va obrir la porta al que ara tenim. Els sistemes actuals es basen en tres idees bàsiques: un model probabilístic, un sistema d’aprenentatge i un mètode d’optimització en temps real. L’interessant és que aquests algorismes de traducció no tenen en compte ni una sola regla, ni sintàctica ni semàntica. Es basen només en l’anàlisi estadística de parelles de texts o corpus (traduïts bàsicament per professionals). Aprenen de la informació que hi ha al món.

Concretem-nos al traductor de Google. És útil? Funciona? És fiable? De fet, és interessant veure que pot ser-nos útil sense ser del tot fiable. Si demanem la traducció al castellà de “plou a bots i barrals”, el traductor ens dona la resposta “llueve a cántaros”, que és un resultat perfecte i no literal. Però si volem traduir “no por mucho madrugar, amanece más temprano” a l’anglès, la traducció que Google ens ofereix és “not too early, dawns earlier”, que ja no és acceptable. Tenim un traductor que funciona, però no sempre. Fins i tot podríem calcular la seva fiabilitat, si escollíssim 100 frases (no tenen per què ser 100, és clar) de llibres a l’atzar i comptéssim en quantes s’equivoca. L’interessant és que no sempre l’encerta, però tot i així és útil. Jo l’utilitzo molt sovint, i sé de molta gent que fa el mateix. Per què? Doncs perquè no ens en fiem del tot, i comprovem la seva traducció. Si ens agrada, la usem; i, si no, la canviem. Fem una post-supervisió del que ens torna. Tot plegat té relació amb el fet que el traductor de Google utilitza tècniques d’aprenentatge basades en xarxes neuronals “profundes” que tenen un nombre elevat de capes de neurones. La mateixa plasticitat i flexibilitat que fa que ens proposi traduccions no literals, fa que de vegades s’equivoqui.

Podríem dir que, d’algorismes, n’hi ha de dos tipus: els fiables i els que anomenaré incerts. Un exemple paradigmàtic de sistema fiable és el que va conduir la nau “New Horizons fins Plutó i més enllà. Que els humans haguéssim estat capaços de dissenyar i implementar els algorismes que van portar la nostra nau fins aquell punt insignificant als confins del sistema solar durant més de 9 anys i que ho féssim bé, és simplement increïble. Els algorismes fiables, a diferència dels incerts, tenen un marge d’error insignificant. I què podem dir, dels incerts? D’aquests, a més dels de traducció automàtica, podríem citar, per exemple, els podòmetres que ens podem instal·lar al telèfon mòbil. És fàcil fer la prova: només cal instal·lar dues aplicacions diferents de les que compten els passos que fem, i mirar què ens diuen una i altra al final del dia. Ens indicaran valors semblants, però no coincidents. Un cop més, són algorismes que tot i no ser exactes, són útils.

Una altra possible categorització és la que classifica els algorismes segons el seu grau d’autonomia. I, en aquest cas, es diu que un algorisme és autònom si pot assolir els seus objectius sense cap intervenció humana. De fet, el món és ple d’algorismes que funcionen de manera autònoma: en tenim a les portes automàtiques, en els que controlen els robots que treuen la pols del terra a casa, en els algorismes que ens mostren horaris i preus de trens o avions, o en els del GPS que ens diuen on som.

El problema apareix quan barregem les dues categories, i pretenem dissenyar sistemes autònoms amb algorismes incerts. Els sistemes d’intel·ligència artificial que aprenen de la informació que hi ha a internet i de la que obtenen de nosaltres (l’anomenat “big data“) tenen molts més problemes del que ens volen fer creure: no són fiables, són incerts, no són explicables i els seus resultats moltes vegades són esbiaixats. No són fiables perquè, com és ben conegut entre els experts, s’equivoquen un nombre important de vegades. A més, com que es basen en xarxes neuronals no lineals amb moltíssims paràmetres, ningú pot explicar per què arriben a uns resultats i no a uns altres. En no ser explicables, no es pot determinar qui és la persona responsable en el cas d’actuacions que hagin acabat sent legalment incorrectes. I són esbiaixats perquè no fan més que heretar el biaix de la informació que utilitzen per aprendre, que mai complirà els requisits que l’estadística demana a qualsevol mostreig aleatori de la població. Algú de vosaltres pujaria a un cotxe autònom que tingués una probabilitat d’error similar a la que tenen els actuals sistemes de traducció automàtica? Els algorismes incerts, com els d’intel·ligència artificial basats en l’aprenentatge automàtic, poden ser perfectament útils en aplicacions que són tolerants als errors (ningú confia al 100% en les prediccions del temps) o en les que hi ha algú que supervisa els resultats (traducció automàtica). Però poden arribar a ser perillosos si s’apliquen a sistemes autònoms que pretenen funcionar sense cap intervenció humana, com explica la Virginia Eubanks al seu llibre. Hem de veure sempre si podem acceptar resultats i actuacions equivocats o no, perquè no és el mateix trobar-nos una frase surrealista en una traducció, que patir un accident amb un cotxe autònom i fer mal a algú. Les persones tenen dignitat, les frases no.

Ara bé, el cas més dramàtic de sistemes autònoms amb algorismes no explicables i incerts és, però, el de les anomenades armes letals autònomes (les “LAWS“, en anglès) que alguns països ja estan en procès de desenvolupar. Són màquines que podran matar sense una clara intervenció humana, amb tècniques que són especialment preocupants si poden seleccionar automàticament els objectius a atacar, com diu en Noel Sharkey. Perquè en aquest cas, els errors seran vides humanes. Es tracta d’un dels màxims atemptats que es poden fer a la dignitat humana de les persones, moltes d’elles civils.

La imatge de dalt, que podeu trobar en aquesta web, mostra els qui ara mateix demanen la prohibició de les armes robòtiques autònomes: 21 premis Nobel, més de quatre mil experts en intel·ligència artificial, el 61% de la població mundial (segons una recent enquesta), el parlament europeu, 28 països, i l’actual secretari general de Nacions Unides Antonio Guterres, que va declarar que seria moralment repugnant que el món no prohibís les màquines autònomes dissenyades per a poder matar persones sense implicació humana.

Acabo amb una conjectura. Sabem, com bé ens explica la Virginia Eubanks, que és difícil tenir dades objectives sobre el grau d’error de molts sistemes autònoms basats en aprenentatge i xarxes neuronals. La informació que ens arriba de molts d’aquests sistemes (de publicitat, d’ajut a la presa de decisions, de futurs vehicles i sistemes autònoms) és esbiaixada, tendenciosa i no objectiva perquè té finalitats comercials: ens volen convèncer per a que els comprem i/o usem. En altres casos, com el de les armes autònomes, la informació és simplement secreta i no ens arriba. Però jo m’atreviria a afirmar que podem tenir-ne una mesura de fiabilitat, per analogia, mesurant la taxa d’error del traductor de Google. Perquè, atès que el sistema d’aprenentatge d’aquest traductor és altament sofisticat i es nodreix d’una base de dades ingent d’informació, l’error d’altres sistemes autònoms que ens volen vendre (en sentit material o figurat) hauria de ser del mateix ordre de magnitud que el que veiem quan traduïm amb Google.

Cal desemmascarar les informacions falses i intencionades, per respecte a la dignitat de les persones.

———

Per cert, en Peter Tabichi, mestre d’un poble remot al comtat de Nakuru, a Kènia, ha estat escollit millor professor del món. Els seus estudiants han guanyat una competició nacional de ciències, i el seu equip de matemàtiques s’ha classificat per a un campionat als Estats Units. Calen moltes més notícies sobre educació, ciència i Àfrica…