Aquest és un article original publicat a LaMarea.
Des de fa una dècada, els debats sobre la intel·ligència artificial han girat al voltant de qüestions de seguretat, automatització laboral i biaixos algorítmics. Tanmateix, amb l’aparició dels models generatius —capaços de redactar textos, produir imatges, programar codi o diagnosticar malalties— el focus s’ha desplaçat cap a un interrogant més estructural: serà la intel·ligència artificial un factor que acceleri les desigualtats socials o, per contra, un recurs per combatre-les?
Sovint, l’arribada d’una nova tecnologia irromp com un llampec: sobtat, salvatge i lluminós, com si es tractés d’un fenomen espontani que esquincés la continuïtat del que coneixem. Tanmateix, l’auge de sistemes com GPT-4 o DALL·E no es produeix en un buit neutral: es construeix amb recursos naturals, treball humà i infraestructures globals d’extracció i explotació. Cada avenç tecnològic és també una operació política i econòmica que concentra poder, recursos i beneficis en mans d’actors concrets.
Bona part del problema rau en les dades, la matèria primera amb què s’entrenen aquests sistemes. I és que a mesura que els algorismes d’IA s’introdueixen en la gestió pública, des de l’educació fins a la salut, sorgeix una qüestió fonamental: qui hi ha darrere de la construcció d’aquests algorismes?
En molts casos, la resposta és un grapat d’empreses privades que, sota la façana de la neutralitat tècnica, prenen decisions crucials sobre qui accedeix a recursos, qui n’és exclòs i com es distribueixen els beneficis de l’automatització. Com recorda Virginia Eubanks a Automating Inequality, els sistemes automatitzats d’assignació de recursos socials als Estats Units penalitzen sistemàticament les classes treballadores i les minories racials.
Biaixos des de l’origen
Dades històriques esbiaixades produeixen algorismes esbiaixats. La diferència adverteix Eubanks, és que en els processos automatitzats és molt més difícil impugnar la decisió o reclamar-ne una correcció. Les bases de dades massives amb què s’han entrenat contenen biaixos culturals, lingüístics i racials que poden reproduir-se en les respostes dels sistemes, afectant decisions automatitzades en àmbits tan sensibles com la contractació laboral, l’avaluació creditícia o el diagnòstic mèdic.
Diversos estudis recents adverteixen d’aquest risc. Sandra Wachter i Brent Mittelstadt, en el seu article A right to reasonable inferences (2019), sostenen que els sistemes algorítmics «hereten i amplifiquen els biaixos històrics a menys que es corregeixin activament, subestimant sovint el risc de reforçar jerarquies socials preexistents». En contextos on les decisions automatitzades afecten l’accés a habitatge públic, assistència sanitària o feina, les conseqüències poden ser greus per als col·lectius vulnerables.
En aquesta línia s’hi pronuncia l’antropòleg Jose Mansilla: «Marx deia que l’atac contra la maquinària per part dels luddites era una ràbia mal dirigida, perquè el problema no era la tecnologia en si, sinó qui la controla i per a què. Per a Marx, la tecnologia no és ni bona ni dolenta per se; el conflicte està en el fet que avui aquests algorismes són en mans d’una elit econòmica que prioritza l’eficiència sobre el benestar col·lectiu».
El filòsof i escriptor Fabian Scheidler, autor de El fin de la megamàquina (Icaria), alerta que «la intel·ligència artificial podria ser l’espoli més gran de la història humana, convertint el patrimoni col·lectiu de coneixement i creativitat de la humanitat en una mercaderia en mans dels ultrarics. A més, atorga als multimilionaris que controlen els algorismes i les plataformes d’oportunitats sense precedents per influir en l’opinió pública mitjançant la microsegmentació i altres mètodes, amb l’objectiu de manipular els processos de decisió política i continuar incrementant la seva riquesa».
Tanmateix, no tot apunta cap a un escenari distòpic. Alguns investigadors defensen que, sota determinades condicions, la intel·ligència artificial podria utilitzar-se per reduir desigualtats. Autors com Rediet Abebe, Solon Barocas i Jon Kleinberg assenyalen a Roles for Computing in Social Change que «els sistemes d’IA integrats en infraestructures públiques dissenyades amb cura poden mitigar desigualtats, sempre que els seus incentius s’alineïn amb objectius redistributius i d’equitat». Ja existeixen experiències en salut pública, predicció de riscos socials o millora de l’accés educatiu on algorismes oberts i auditables han reduït barreres històriques d’accés.
Això sí, tot depèn del model polític i cultural que emmarqui el seu desplegament. La intel·ligència artificial no determinarà per si sola el futur de les desigualtats socials. Ho farà en la mesura que el seu desenvolupament i aplicació estiguin governats per interessos públics o privats, per lògiques redistributives o extractives. En aquesta bifurcació política es juga bona part del seu potencial emancipador o regressiu.
Com apunta Mansilla: «Evidentment, la IA empenyerà cap a la direcció que aquests interessos marquin: més concentració de riquesa, polarització laboral (precarietat per a molts, superbeneficis per a pocs) i una creativitat mercantilitzada. Si estigués en mans d’un altre sistema —per exemple, un orientat al comú—, podria democratitzar l’accés al coneixement, alliberar temps per a relacions socials genuïnes o potenciar la creativitat col·lectiva. Però sota el capitalisme, reprodueix la mateixa lògica: la tecnologia com a arma de desigualtat».
Finalment, Scheidler hi afegeix una dimensió ambiental al conflicte: «En la seva forma actual, la intel·ligència artificial també accelera la destrucció de la biosfera, ja que consumeix una part cada cop més gran de la producció energètica mundial, cosa que fa inviable una transició ràpida i sostenible cap a energies renovables».
La intel·ligència artificial hegemònica —aquella que optimitza beneficis per a Silicon Valley mentre precaritza el treball i mercantilitza fins i tot el llenguatge— no és un monòlit sense esquerdes. En els seus intersticis creixen pràctiques que encarnen allò que Paolo Virno anomenaria «el comunisme de les capacitats intel·lectuals»: projectes on la tecnologia es desconnecta de l’acumulació privada per esdevenir bé comú. Aquestes escletxes no són alternatives tècniques, sinó espais de conflicte polític on es disputa la batalla pel valor en l’era digital.