Aquest és un reportatge original publicat en LaMarea.
Des de fa una dècada, els debats sobre la intel·ligència artificial han girat entorn de qüestions de seguretat, automatització laboral i biaixos algorítmics. No obstant això, amb la irrupció dels models generatius –capaços de redactar textos, produir imatges, programar codi o diagnosticar malalties mèdiques– el focus s’ha desplaçat a un interrogant més estructural: serà la intel·ligència artificial un factor que acceleri les desigualtats socials o, per contra, un recurs per a combatre-les?
Sovint, l’adveniment d’una nova tecnologia irromp com un llampec: sobtat, salvatge i lluminós, com si es tractés d’un fenomen espontani que estripa la continuïtat del conegut. No obstant això, l’auge de sistemes com GPT-4 o DALL·E no ocorre en un buit neutral: es construeix amb recursos naturals, treballo humà i infraestructures globals d’extracció i explotació. Cada avanç tecnològic és també una operació política i econòmica que concentra poder, recursos i beneficis en mans d’actors específics.
Bona part del problema radica en les dades, la matèria primera amb la qual s’entrenen aquests sistemes. I és que a mesura que els algorismes de IA s’introdueixen en la gestió pública, des de l’educació fins a la salut, sorgeix una qüestió fonamental: qui està darrere de la construcció d’aquests algorismes?
En molts casos, la resposta és un grapat d’empreses privades que, sota la façana de la neutralitat tècnica, prenen decisions crucials sobre qui accedeix a recursos, qui és exclòs i com es distribueixen els beneficis de l’automatització. Com recorda Virgínia Eubanks en Automating Inequality, els sistemes automatitzats d’assignació de recursos socials als Estats Units penalitzen sistemàticament a les classes treballadores i a les minories racials.
Biaixos d’origen
Dades històriques esbiaixades produeixen algorismes esbiaixats. La diferència, adverteix Eubanks, és que en els processos automatitzats és molt més difícil impugnar la decisió o reclamar una correcció. Les bases de dades massives amb les quals s’han entrenat contenen biaixos culturals, lingüístics i racials que poden reproduir-se en les respostes dels sistemes, afectant decisions automatitzades en àrees tan sensibles com la contractació, l’avaluació creditícia o el diagnòstic mèdic.
Diversos estudis recents adverteixen d’aquest risc. Sandra Wachter i Brent Mittelstadt, en el seu article «A right to reasonable inferences» (2019), sostenen que els sistemes algorítmics «hereten i amplifiquen els biaixos històrics tret que es corregeixin activament, subestimant amb freqüència el risc de reforçar jerarquies socials preexistents». En contextos on les decisions automatitzades afecten l’accés a habitatge públic, assistència sanitària o ocupació, les conseqüències poden ser greus per a col·lectius vulnerables.
En aquesta línia es pronuncia l’antropòleg José Mansilla: «Marx deia que l’atac contra la maquinària per part dels ludites era una ràbia mal dirigida, perquè el problema no era la tecnologia en si, sinó qui la controla i per a què. Per a Marx, la tecnologia no és ni bona ni dolenta per se; el conflicte està en el fet que avui aquests algorismes estan en mans d’una elit econòmica que prioritza l’eficiència sobre el benestar col·lectiu».
El filòsof i escriptor Fabian Scheidler, autor de La fi de la megáquina (Icària), alerta per la seva part que «la intel·ligència artificial podria ser el major espoli de la història humana, convertint el patrimoni col·lectiu de coneixement i creativitat de la humanitat en una mercaderia en mans dels ultrarricos. A més, atorga als multimilionaris que controlen els algorismes i les plataformes oportunitats sense precedents per a influir en l’opinió pública mitjançant microsegmentació i altres mètodes, amb la finalitat de manipular els processos de decisió política i continuar incrementant la seva riquesa».
No obstant això, no tot apunta cap a un escenari distòpic. Alguns investigadors defensen que, baix determinades condicions, la intel·ligència artificial podria emprar-se per a reduir desigualtats. Autors com Rediet Abebe, Solon Barocas i Jon Kleinberg assenyalen en Rols for Computing in Social Change que «els sistemes de IA integrats en infraestructures públiques acuradament dissenyades poden mitigar desigualtats, sempre que els seus incentius s’alineïn amb objectius redistributius i d’equitat». Existeixen ja experiències en salut pública, predicció de riscos socials o millora d’accessos educatius on algorismes oberts i auditables han reduït barreres històriques d’accés.
Això sí, tot depèn del model polític i cultural que emmarqui el seu desplegament. La intel·ligència artificial no determinarà per si sola el futur de les desigualtats socials. Ho farà en la mesura en què el seu desenvolupament i aplicació estiguin governats per interessos públics o privats, per lògiques redistributives o extractives. En aquesta bifurcació política es juga bona part del seu potencial emancipador o regressiu.
Com apunta Mansilla: «Evidentment, la IA empenyerà cap a la direcció que aquests interessos marquin: major concentració de riquesa, polarització laboral (precarietat per a molts, superbeneficis per a pocs) i una creativitat mercantilitzada. Si estigués en mans d’un altre sistema –per exemple, un orientat al comú–, podria democratitzar l’accés al coneixement, alliberar temps per a relacions socials genuïnes o potenciar la creativitat col·lectiva. Però sota el capitalisme, reprodueix la mateixa lògica: la tecnologia com a arma de desigualtat».
Finalment, Scheidler afegeix una dimensió ambiental al conflicte: «En la seva forma actual, la intel·ligència artificial també accelera la destrucció de la biosfera, ja que consumeix una part cada vegada major de la producció energètica mundial, la qual cosa fa inviable una transició ràpida i sostenible cap a energies renovables».
La intel·ligència artificial hegemònica –aquesta que optimitza beneficis per a Silicon Valley mentre precariza el treball i mercantilitza fins al llenguatge– no és un monòlit sense fissures. En els seus intersticis creixen pràctiques que encarnen el que Paolo Virno diria «el comunisme de les capacitats intel·lectuals»: projectes on la tecnologia es desenganxa de l’acumulació privada per a esdevenir ben comuna. Aquestes esquerdes no són alternatives tècniques, sinó espais de conflicte polític on es juga la batalla pel valor en l’era digital.


Catalunya Plural, 2024 