Algoritmes

Vivim en l’era de les dades i els enginyers han après a gestionar-ne enormes quantitats gràcies als algoritmes. Foto: Barcelona Supercomputing Center/ACN

Els trobem a l’àmbit de la seguretat, l’educació, les finances, la feina, el medi ambient o els serveis socials. Avui dia són molts els algoritmes que defineixen i organitzen les nostres vides. En veiem alguns dels més freqüents i ens preguntem quins són els inconvenients de fiar-ho tot a la tecnologia predictiva.

Algoritme. Què és un algoritme? Quan la majoria pensem en la definició d’aquest concepte, ens venen al cap Google o Facebook. Sovint, es relacionen els algoritmes amb el sistema que fan servir les grans companyies tecnològiques per ordenar els resultats de les cerques. Malgrat això, lluny del relat lluminós de Silicon Valley, els algoritmes, avui dia, poden ser molt més simples i estan presents a la nostra vida sense que ens n’adonem.

La periodista Karma Peiró, en la seva recerca Intel·ligència Artificial. Decisions Automatitzades a Catalunya, defineix els algoritmes com “un conjunt d’ordres que cal seguir per resoldre un problema o una tasca”. Quelcom similar a una recepta de cuina. Amb l’arribada de les noves tecnologies, aquesta funció, que temps enrere era manual, ara es fa de forma automatitzada. En un exemple senzill es pot entendre millor: abans, els mestres havien de determinar la nota mitjana de totes les assignatures dels seus alumnes amb la calculadora o fent sumes i divisions en un paper. Ara, els docents introdueixen les notes en un programa i aquest, sense mediació humana, determina la nota mitjana dels estudiants. Això és un algoritme? Sí, un de molt senzill. Els algoritmes són, per tant, un conjunt d’ordres que donem a una màquina perquè ens doni un resultat, ordeni una llista o faci una predicció. El problema de tot plegat és que aquests sistemes s’han estès sense aturador i ara juguen un paper destacat en el nostre dia a dia. Alhora, s’han sofisticat i generen debat.

Algoritmes quotidians

D’ençà que ens llevem al matí estem generant dades que poden ser aprofitades per algoritmes. Apaguem l’alarma del mòbil, mirem les nostres xarxes socials, anem en transport públic, som captats per les càmeres que hi ha a la nostra ciutat, fem un pagament amb targeta, demanem hora al CAP per internet, retirem diners del banc… Fins i tot hi ha empreses que intenten extreure’ns dades mentre dormim, amb rellotges intel·ligents que ens mesuren les pulsacions. Vivim en l’era de les dades i, el que és més important, els enginyers han après a gestionar-ne enormes quantitats gràcies als algoritmes. Així, decisions que abans es prenien de forma lenta, ara en pocs segons poden quedar resoltes.

“En el sector privat és obvi que s’utilitzen algoritmes”, explica el periodista especialitzat en noves tecnologies Pablo Jiménez. “Un banc, per estimar si dona un crèdit a un client, fa servir sistemes d’aquesta mena”, afegeix. De fet, és en les finances on més algoritmes ens afecten. Les asseguradores, per exemple, determinen amb dades si un jove de 18 anys té més probabilitats de patir un accident de cotxe que una dona de 50 i, en funció d’això, els ofereixen productes diferents. Els bancs, per altra banda, tenen prou informació per saber si un client podria voler una hipoteca aviat i d’aquesta manera oferir-li el servei abans que l’hagi demanat. També existeixen sistemes automatitzats que determinen si a un client li han robat la targeta perquè les compres que està fent no tenen res a veure amb els seus moviments de diners freqüents.

Aquests, però, no són els únics algoritmes amb els quals ens topem diàriament. En el seu estudi, Peiró n’identifica més de 50 que s’utilitzen a Catalunya.

Un dels camps en els quals n’hi ha més és la medicina. Hi ha sistemes que s’estan començant a implementar als hospitals de Barcelona i que permeten determinar quina quantitat exacta de medicaments ha de rebre un pacient que acaba de viure un trasplantament de ronyó. D’aquesta manera, s’evita que el cos rebutgi el nou òrgan. També hi ha algoritmes que permeten saber si una persona patirà cirrosis o saber si un pacient tornarà a l’hospital.

En altres sectors, com el de l’educació, també estem veient casos similars. “Diversos instituts de Catalunya ja han provat un algoritme que fa els grups a classe”, assenyala Peiró. Partint de 20 preguntes als estudiants, el sistema estableix quina és la millor manera d’agrupar-los. Per fer-ho, la màquina determina el caràcter dels estudiants segons si són introvertits o extravertits, assenyats o intuïtius, analítics o emotius i resolutius o reflexius. Segons explica la periodista, aquest algoritme ha millorat el rendiment dels grups “entre un 25% i un 30%”.

Els bancs tenen prou informació per saber si un client podria voler una hipoteca abans que l’hagi demanat

En el món de l’empresa, el nombre de sistemes de decisió automatitzada és cada vegada més gran. Les companyies hoteleres o d’avions poden determinar –tot i que el grau d’encert és qüestionable– si un client anul·larà una reserva a última hora i així poden oferir els seus productes a altres consumidors. Els diaris, per la seva banda, ja fa temps que escriuen notícies amb algoritmes. Quan es tracta d’un partit de futbol, el periodista només ha d’introduir el nombre de gols i algunes estadístiques més i l’algoritme fa la resta. Un cop acabat, el lector està llegint una notícia redactada per una màquina.

A rebuf de l’àmbit privat, en els últims anys hem vist com les administracions públiques estan creant els seus propis sistemes de decisió automatitzada. “El sector públic va per darrere i contracta empreses privades per desenvolupar algoritmes, però moltes vegades no sap el que està pagant”, considera Jiménez.

Sigui com sigui, l’Ajuntament de Barcelona ha desenvolupat un algoritme per determinar quina mena de recursos poden oferir els treballadors socials a la ciutadania. El sistema va llegir els informes de milers de primeres cites i va determinar quina ajuda es donava en cada cas. Actualment, a alguns centres de serveis socials, l’algoritme suggereix als treballadors quins recursos poden oferir. Amb això es facilita enormement la feina, però és el treballador qui té l’última paraula.

Així mateix, hi ha altres aplicacions dels algoritmes, com el que la Seguretat Social va encarregar a la Universitat de Barcelona per detectar les persones que, per allargar la baixa, fingeixen tenir més dolor del real.

O fins i tot hi ha algoritmes en temes mediambientals, com el que l’Agència Catalana de l’Aigua i l’empresa Amphos 21 van crear i que permet predir el grau de salinitat del riu Llobregat.

Com demostren tots aquests casos a tall d’exemple, alguns algoritmes són útils. “Poden ser un bon aliat”, puntualitza l’experta en l’àmbit digital de l’entitat en defensa dels drets humans Lafede, Judith Membrives. Amb tot, els algoritmes també generen problemes, com l’excessiva confiança que hi tenen les administracions i la possibilitat de no assumir conseqüències derivades de les seves decisions polítiques. “El tecnosolucionisme fa que, un cop l’algoritme ha pres una decisió, no hi hagi rendició de comptes, perquè no hi ha un humà a qui adreçar-se”, considera. I això passa encara que siguin decisions errònies.

Problemes algorítmics

L’Anna i l’Albert són una parella que vol assegurar la furgoneta que s’acaben de comprar. Han decidit fer-ho amb una gran companyia de la qual no volen donar el nom. A ella, que és veterinària i fa més de 10 anys que treballa en la mateixa empresa, li demanen 700 euros l’any. A ell, que és artista i no té una feina estable, 400. “L’home que va fer les gestions ens va dir que les grans empreses tenen centenars de dades nostres i que ell no podia dir-nos per què aquesta diferència de preus”, relaten. La majoria d’algoritmes són com caixes negres. No sabem les dades que utilitzen, com funcionen ni el motiu de les seves decisions.

Com en el cas de l’Anna i de l’Albert, l’algoritme que gestiona les comandes a domicili que cada repartidor de Glovo ha de fer també és opac. “Es tracta d’una estafa, ja que t’enganxa perquè treballis molt al principi i després, quan baixa la feina, acabis marxant pel teu propi peu i no puguis denunciar l’explotació que vius”, considera Dani Gutiérrez, de Riders x Derechos. Per saber com gestiona el repartiment de la feina, el govern espanyol va impulsar l’anomenada Llei Rider, que obliga la companyia a mostrar als comitès d’empresa els criteris segons els quals un repartidor té unes comandes determinades.

“El tecnosolucionisme fa que, un cop l’algoritme ha pres una decisió, no hi hagi rendició de comptes”

Amb tot, si parlem d’opacitat, el cas més paradigmàtic és el de Bosco. Aquest sistema és l’encarregat de determinar si una família rep el bo social de l’Estat espanyol. La plataforma d’investigació periodística Civio va descobrir que hi havia persones, com els membres de les famílies nombroses, que per llei l’havien de rebre, però a les quals el programa denegava l’ajuda. És per això que Civio ha demanat accedir, per via judicial, al codi de l’algoritme. Tanmateix, la justícia mai ho ha permès, al·legant arguments tan diversos com la seguretat pública, la seguretat nacional o la propietat intel·lectual. Per a Paula Guerra, de l’organització que analitza els biaixos racistes i masclistes dels algoritmes AlgoRace, no hi ha dubte que “si un algoritme no funciona bé, s’ha de poder revisar per dins”. Alhora, el cas demostra un element més: la fe cega en la tecnologia. “Es creu que les tecnologies són neutres”, diu Membrives, assegurant que “són productes creats per una societat concreta i estan travessats pels eixos de poder”.

Seguretat predictiva

Els algoritmes s’utilitzen en molts camps de la vida quotidiana. Malgrat tot, on més controvèrsia generen és en l’àmbit de la seguretat.

A casa nostra, des del 2009 les institucions penitenciàries empren RisCanvi. Aquest sistema es fa servir per donar o no permisos de sortida als presos, en funció de la possibilitat que tenen de cometre un delicte de nou. “El programa acumula el comportament de l’intern a la presó: si ha agredit algú altre, si ha intentat autolesionar-se o suïcidar-se”, explica la periodista Karma Peiró. L’algoritme, però, funciona amb altres paràmetres més sensibles, com la nacionalitat, la renda de les famílies del pres o el seu nivell d’estudis. En la mateixa línia s’inscriu SAVRY, un algoritme que valora el risc de reincidència en joves i que fa servir la Generalitat.

Els sistemes automatitzats s’estan estenent arreu de l’Estat. És l’exemple de VeriPol, un algoritme que utilitza la Policia Nacional i que, per tant, no està en funcionament a Catalunya, que determina si una denúncia és falsa. Ho fa a través de les paraules que utilitza qui posa la denúncia. “En realitat, és un sistema creat per un sol policia a partir de 1.122 denúncies”, assenyala Paula Guerra, del col·lectiu AlgoRace. “La policia va dir que era un agent amb molta experiència… Si dius la paraula navalla, per exemple, hi ha molts números que la teva denúncia sigui falsa”, afirma Guerra. “Això és una anàlisi esbiaixada, perquè què passa amb les persones que no són natives del territori i tenen un vocabulari diferent?”, afegeix.

Per altra banda, des de la mateixa organització també critiquen l’algoritme VioGén, que s’encarrega de determinar si una dona que denuncia ser víctima de violència masclista necessita més protecció pel risc de ser assassinada. “A més de preguntar si el maltractador és estranger, assumeix que si no hi ha violència física, una dona no patirà una situació de més violència, i això pot deixar dones fora de la protecció”, lamenta.

Finalment, a l’Estat s’ha començat a veure com algunes policies locals –de moment cap a Catalunya– estan emprant Eurocop. “Aquest algoritme determina a quins barris s’ha de patrullar perquè hi ha més possibilitats que hi hagi delictes”, expliquen des d’AlgoRace. Amb tot, denuncien que “no s’entrena l’algoritme amb delictes com els de coll blanc, sinó amb informació esbiaixada de classe i d’ètnia”.

WhatsAppEmailTwitterFacebookTelegram