El filòsof
té un perfil poc habitual. Especialitzat en l’impacte social i ètic de la intel·ligència artificial, els algorismes i els mitjans digitals, també ha desenvolupat tecnologies en l’àmbit de la realitat virtual, de la computació i, en general, de la robòtica, una de les seves grans passions. L’any 2009 va cofundar el Comitè Internacional per al Control de les Armes Robòtiques (ICRAC, per les sigles en anglès), una entitat que dos anys després formaria part de la creació de la coalició d’ONG que conformen la campanya Stop Killer Robots, dedicada a exigir la prohibició de les armes autònomes letals.
Asaro és un dels grans experts mundials en roboètica. Realitzem aquesta entrevista l’octubre del 2023 a la seu de les Nacions Unides, a Nova York, durant les sessions preparatòries per a la primera resolució contra les armes autònomes.
Després de l’aprovació de la resolució, quins serien els següents objectius?
Quan l’any 2012 vam començar la campanya Stop Killer Robots, buscàvem impedir el desenvolupament d’aquests sistemes. Avui tenim models d’armes que identifiquen i ataquen objectius de manera autònoma, sense mediació humana, basant-se en uns algoritmes desenvolupats per uns programadors que no saben com ni on s’estan utilitzant. Ara esperem que la majoria dels països s’uneixin per exigir un tractat legalment vinculant que prohibeixi aquestes armes. El secretari general, António Guterres, ha manifestat el seu interès per aconseguir-ho abans del 2026.
Amb l’oposició d’alguns dels principals productors, com Rússia o Turquia, creu que és realment possible controlar-ne l’ús?
L’objectiu és impedir que els Estats adquireixin aquestes armes i que es creï un mercat internacional. Així, tampoc no proliferaran entre actors no estatals i organitzacions terroristes. Rússia ha estat el país que més obstacles ha posat als debats mantinguts fins ara. Turquia i Israel ja les estan produint i també s’oposen a un tractat. Els Estats Units i la Xina lideren el desenvolupament d’aquests sistemes, però no sembla que s’oposin a la regulació, sinó que volen que es reflecteixin les seves condicions. L’altre país complicat és Corea del Sud, que té sistemes altament automatitzats i que compta amb suport social per a què els robots puguin actuar com a combatents en lloc d’humans. Hem d’aconseguir que s’uneixin al tractat o esbrinar què voldrien que s’hi incorporés sense perdre de vista els objectius.
Com s’implementarien aquestes armes als països en pau?
La majoria es faran servir al sud global, contra poblacions minoritàries i col·lectius que ja estan essent perseguits, com passa amb totes les armes. Si no establim normes per controlar-ne l’ús militar, veurem la seva proliferació en l’ús policial, civil, per al control fronterer… I els governs autoritaris les faran servir amb les seves poblacions.
Quins efectes poden tenir en el desenvolupament dels conflictes?
Se sol parlar de la precisió de les armes guiades i dels drons per impactar un lloc o posar fi a una persona en concret. La conseqüència és que els governs estan més disposats a atacar zones poblades per civils, perquè creuen que el cost en termes de danys col·laterals serà menor i perquè poden atacar més objectius. El resultat és que poden acabar amb més víctimes civils perquè fan més atacs. I si es tracta de la lluita contra el terrorisme, acaben generant més terroristes entre els familiars de les víctimes. Per això, encara que pensem que una tecnologia és precisa i quirúrgica, els efectes reals no són diferents dels bombardejos indiscriminats. En el cas de les armes autònomes, poden arribar a ser millors a l’hora de distingir un objectiu o apuntar amb més precisió, però quants errors es cometran fins a arribar a aquest punt? I també hi ha qüestions bàsiques: una màquina no hauria de poder decidir si una persona viu o mor.
I, alhora, el teu suposat enemic també les desenvolupa.
I així és com arribem a la situació en què s’acaba desconeixent la veritable capacitat de l’altre, la sobreestimen o subestimen, cosa que converteix els conflictes en molt més perillosos. I si introduïm sistemes que responen sense intervenció humana, la possibilitat d’iniciar un conflicte o d’agreujar-lo és increïblement més gran. I amb les guerres cibernètiques i la possibilitat de piratejar els sistemes, augmenta moltíssim el risc per a l’estabilitat internacional. Recordem que Israel va fer servir una metralladora a control remot per assassinar un iranià que no sabem si era un general, un científic o què. Aquest tipus d’assassinats tenen repercussions geopolítiques. També hem vist intents de posar fi al president de Veneçuela amb avions no tripulats proveïts de bombes. El fet que no sapiguem a qui atribuir aquests atacs ho complica tot més. Quan va sobrevenir la crisi dels míssils cubans, van ser els canals de comunicació oberts entre Khrusxov i Kennedy els que els van permetre acordar que seguirien dient certes coses davant de la premsa per mantenir el seu estatus, però que per la via secreta calmarien la situació. Això no passarà amb els robots. I espanta.
No hi ha un rebuig social ampli a aquestes armes, potser perquè hem normalitzat viure vigilats pels nostres mòbils, per drons, per càmeres…
Una de les vies per les quals s’ha normalitzat l’ús de la força per part de la policia és amb l’argument de la defensa davant d’una amenaça imminent de violència o de dany corporal. Com que un robot no és una persona, no s’ha de defensar, només intervenir quan algú estigui en risc. Però la qüestió és que, si un sistema és prou sofisticat per comprendre la naturalesa física d’una amenaça, així com la seva intenció, també hauria de ser capaç d’intentar desactivar-la per mitjans psicològics abans d’actuar físicament. Amb aquests dos escenaris s’acaben els casos en què es justifica l’ús de la força per part dels robots. Els estàndards per a que aquesta tecnologia faci servir la violència han de ser molt més alts que per als éssers humans. Ja l’any 1960, Hannah Arendt advertia que una bomba nuclear pot provocar una destrucció massiva de vides i infraestructures, però no és útil en termes de poder perquè el territori ja no serveix de res. Però amb les armes autònomes, els governants ja no necessiten una força policial o una agència d’intel·ligència secreta per controlar la població. Senzillament els poden ordenar que matin o amenacin a qui vulguin sense cap cost per al seu poder.
Aquesta entrevista s’ha publicat originalment a LaMarea