Fa dies dies vaig llegir que la jove enginyera biomèdica Judit Giró ha inventat i dissenyat un dispositiu, el Blue Box, que permetrà a les dones realitzar-se una prova de detecció precoç del càncer de mama a partir d’una mostra d’orina. El sistema funciona amb tècniques d’intel·ligència artificial, i, en paraules de la mateixa Judit, permet detectar bio-marcadors que les persones no som capaços de percebre. La idea és que les dones puguin fer-se elles mateixes una prova de detecció precoç de càncer de mama a partir d’una mostra d’orina. El passat mes de novembre, Judit Giró va rebre el guardó James Dyson Award per la seva troballa.
La Judit Giró certament ha fet un molt bon treball, que ha estat reconegut i premiat. Ens n’hem de congratular. La meva enhorabona!
De totes maneres, pensant amb el cap fred i mirant d’allunyar-me tant de critiques infundades con de l’entusiasme, he de dir que tinc alguns dubtes. De fet, em sorgeixen com a mínim tres preguntes: Els sistemes d’auto-diagnosi del càncer, són sempre recomanables? Segur que la intel·ligència artificial (IA) és la millor solució per a fer proves d’auto-diagnosi de càncer? Els sistemes basats en aprenentatge profund, ens poden ajudar en la diagnosi mèdica?
La meva resposta és negativa en el cas de les dues primeres preguntes, i positiva en el tercer. Les raons, que explico tot seguit, es basen en una reflexió sobre els problemes i les eines i en l’anàlisi de la probabilitat d’error.
Els problemes ens demanen solucions, i les eines ens ajuden a trobar-les. Però cal ser molt curosos en la selecció de l’eina més adient en cada cas, per a que no ens acabi passant allò que diuen que qui té un martell només veu claus a totes bandes. I cal deixar els prejudicis al calaix, no fent cas de les modes. En el cas que ens ocupa, cal tenir en compte que la intel·ligència artificial és només una opció, que ens pot anar bé en alguns casos però que pot no ser la millor eina en d’altres. Estem assistint a una eufòria, alimentada segurament tant pels creatius com pels comercials, que fa que ens pugui semblar que la IA és la solució per a tot. Malauradament, però, les seves limitacions es queden en els àmbits acadèmics i no acaben sent explicades a tothom. Per exemple, i com diu en Ramon López de Mántaras, fundador i ex-director de l’Institut d’Investigació en Intel·ligència Artificial del CSIC, no hi ha cap sistema d’IA capaç de contextualitzar i de fer el tipus d’inferències bàsiques que fins i tot un nen realitza sense esforç. En aquest sentit, conec treballs de recerca en diagnosi mèdica que han acabat descartant les solucions basades en tècniques de IA degut als seus errors, massa grans per a ser admissibles. I, en el cas concret del problema de la diagnosi basada en bio-marcadors a l’orina, sabem que podem disposar de mètodes químics fiables basats en la detecció de proteïnes com la filagrina, mentre que el mètode que he comentat abans basat en IA té actualment un error del 5%. Segur que, en un problema que és d’anàlisi química, és millor decantar-nos per una eina aproximada que per un mètode clàssic basat en reactius?
Pel que fa a la probabilitat d’error, és bo recordar que els sistemes d’intel·ligència artificial tenen un marge d’error inherent que no es pot evitar. Això no impedeix que ens puguin ser útils, si aquests errors són tolerables. És el que passa, per exemple, en els sistemes de traducció automàtica. El problema ve quan parlem d’aplicacions crítiques, com la diagnosi mèdica o els vehicles autònoms, en els que els errors poden acabar generant danys a persones i fins i tot morts. En aquests casos, el consens entre els experts és que cal una post-supervisió per part d’alguna persona que haurà de rendir comptes en cas de problemes. I això no passa en els auto-tests per a la diagnosi. En un sistema amb un 5% d’errors tindrem falsos positius (dones sanes a les que el test indica que tenen càncer) i falsos negatius (dones amb càncer a les que el test els surt negatiu). Quan alguna persona d’aquestes darreres acabi més greu del compte pel fet d’haver fet cas al test sense haver anat a temps al metge i quan aquesta persona presenti una denúncia, qui en serà el responsable?
Val a dir que el tema dels marges d’error cal analitzar-lo en cada cas concret. Una vacuna per a la Covid amb un marge d’error del 10% sabem que contribueix a la immunitat de grup i per tant és acceptable. En canvi, un auto-test pel càncer amb un error del 5% pot ser realment problemàtic.
La diagnosi mèdica (i més la del càncer) és una activitat crítica, que moltes experts com Emma Beede i Will Douglas afirmen que no podem deixar “en mans” de sistemes automàtics (basats en IA o en altres mètodes) perquè requereixen una post-supervisió per part d’experts en medicina. Clar que els sistemes basats en IA i aprenentatge profund ens poden ajudar en la diagnosi mèdica. Però només si hi ha post-supervisió i la diagnosi final la fa un metge, que és qui se’n fa responsable.
Jo, si fos dona, esperaria a disposar de tests basats en reactius químics. O bé, tal vegada, faria un auto-test basat en tècniques de IA i tot seguit, surti el que surti, aniria a la consulta d’un metge.