Susana Pérez Soler

A hores d’ara, el més probable és que sigui hiperconscient de l’impressionant progrés recent en intel·ligència artificial a causa del desenvolupament de grans models de llenguatge com ChatGPT, d’Open AI, Copilot, de Microsoft, i Bard, de Google, i que sigui també una mica conscient dels perills que plantegen aquests sistemes, que sempre tenen una resposta per a qualsevol pregunta. Sobre la veracitat i la moral d’aquesta resposta, malgrat el seu to de suprema confiança i infal·libilitat, ja en parlarem, si de cas, en un altre moment.

A hores d’ara, hi ha armes letals autònomes, és a dir, drons que escullen l’objectiu i disparen pel seu compte. Els hem vist actuar a la guerra d’Ucraïna, per exemple. També hi ha joguines sexuals que comencen a fer servir la intel·ligència artificial. En un futur no gaire llunyà, aquestes nines parlaran i podran imitar veus, de manera que algú podrà fabricar-se’n una que sigui i parli exactament com Scarlett Johansson o qualsevol altra celebritat que satisfaci les seves fantasies sexuals.

A hores d’ara, hi ha algorismes que discriminen des del punt de vista de gènere o raça. Amazon, per exemple, va reconèixer que un algorisme intern utilitzat per promoure els seus treballadors perpetuava el biaix de la indústria tecnològica contra les dones: una universitat de dones a la secció d’educació d’un currículum era un demèrit automàtic. Per contra, la presència de vocabulari típicament masculí, com ara la paraula “executiu”, era un punt a favor.

A mi el que em fa por, més que la intel·ligència artificial, és l’estupidesa humana

No pot ser que hi hagi màquines que prenguin decisions morals ni que la majoria d’algorismes amb els quals interactuem diàriament tinguin biaixos per motius de raça o de gènere, o simplement vulguin segrestar la nostra atenció. El desenvolupament de la IA no fa més que agreujar problemes no resolts que fa temps que tenim sobre la taula. Però no ens confonguem: que hi hagi màquines que disparen soles, nines sexuals hiperrealistes o algorismes discriminatoris no és una qüestió tecnològica, sinó humana.

Darrere de cadascuna d’aquestes tecnologies hi ha empreses que han detectat algun problema i ofereixen una solució. I hi ha també uns treballadors que han dissenyat aquestes tecnologies i uns consumidors que les han emprat. A mi no em fa por ChatGPT, ni Copilot, ni Bard ni com sigui que es digui la pròxima tecnologia disruptiva que transformarà la nostra manera de relacionar-nos amb el món. A mi el que em fa por és un sistema que prioritza el creixement il·limitat per damunt dels drets laborals i del benestar de les persones.

I és per això que cada vegada que algú es pregunta si podria quedar-se sense feina per culpa de ChatGPT, jo em pregunto si no som més a prop d’assolir la jornada laboral de quatre dies. ChatGPT farà el que nosaltres decidim què fem. Per això a mi el que em fa por, més que la intel·ligència artificial, és l’estupidesa humana.

WhatsAppEmailTwitterFacebookTelegram