El 1973, quan enfilava el final d’una llarga i exitosa carrera cinematogràfica, l’actor nord-americà d’origen rus Yul Brynner va tornar a enfundar-se el seu vestit negre de l’Oest per encarnar un pistoler sense nom. Un pistoler implacable i sense emocions. La pel·lícula, titulada Westworld –en català, Ànimes de metall –, era una distopia futurista desenvolupada en un parc temàtic que oferia als visitants la possibilitat de protagonitzar aventures ambientades en la Roma imperial, l’edat mitjana i el Salvatge Oest, on afrontaven –sense risc aparent– tota classe de perills. Tots els figurants de l’espectacle eren robots programats per donar veracitat a la història. Naturalment, les coses no surten com estaven previstes i un error inexplicable fa que els robots es descontrolin i comencin a perseguir a mort tots els humans. La pel·lícula, amb prou èxit com per fer-ne una seqüela tres anys després, Futureworld, va donar lloc a l’actual sèrie homònima d’ HBO, va ser una de les primeres a plantejar el risc de rebel·lió de les màquines contra els homes (que ja havia desenvolupat Stanley Kubrick el 1968 a 2001: Una odissea de l’espai , on el computador de la nau Discovery , Hal-9000, agafava el control i intentava eliminar els seus astronautes). Després n’han vingut moltes més.

El temor que els éssers humans puguin arribar algun dia a ser tiranitzats o aniquilats per les màquines que ells mateixos han creat ve de lluny. L’escriptor i bioquímic Isaac Asimov, autor de novel·les de ciència- ficció i divulgador científic, ja va abordar la qüestió en la col·lecció de relats que va escriure entre el 1940 i el 1950 reunits sota el títol Jo, robot. Asimov va establir allà el que al seu parer haurien de ser les tres lleis fonamentals de la robòtica. La primera diu així: “Un robot no pot fer mal a un ésser humà o, per la seva inacció, permetre que un ésser humà pateixi cap mal”. Les altres dues remeten a la primera...

Fa temps que alguns dels països més avançats tecnològicament treballen en el desenvolupament de robots destinats a matar, màquines-soldat que vulneren des del primer moment de la concepció la ­primera llei d’ Asimov. I fa el mateix temps que un grup de països i organitzacions internacionals no governamentals lluiten agosaradament –fins ara sense èxit– per prohibir, o com a mínim enquadrar restrictivament, aquests artefactes, que s’han batejat oficialment com a sistemes d’armes autònomes letals ( LAWS, en les sigles en anglès). Això és, robots assassins. Però la realitat avança molt ràpid i l’amenaça tant temps temuda ha deixat de ser virtual per convertir-se en un fet. No es tracta d’un risc futur o d’una fantasia. Els robots assassins ja han començat a matar. I han començat a fer-ho a la guerra civil de Líbia.

Un informe remès el 8 de març passat pel Grup d’ Experts de l’ONU sobre Líbia al Consell de Seguretat va constatar per primera vegada que drons militars completament autònoms havien atacat humans sense intervenció directa de cap persona. Els drons, de fabricació turca, van ser utilitzats en l’ofensiva llançada el març del 2020 –o sigui, un any abans– per les forces governamentals líbies contra les milícies del mariscal Khalifa Haftar. L’informe ­dedica només tres paràgrafs de les seves 555 pàgines a aquesta qüestió. Tanmateix, llegir-lo té un efecte desestabilitzador.

“Els combois logístics i les forces afiliades a Haftar en retirada van ser posteriorment perseguits i atacats a distància per vehicles aeris de combat no tripulats o sistemes d’armes autònomes letals com l’ STM Kargu-2 i altres municions de ronda”, assenyala l’informe, que precisa que “els sistemes d’armes autònomes letals es van programar per atacar objectius sense requerir la connectivitat de dades entre l’operador i la munició”. És a dir, d’alguna manera, al seu lliure albir. El Kargu-2 és un dron quadricòpter de 7 quilos de pes desenvolupat per la companyia turca STM, capaç un cop llançat de buscar, seleccionar i atacar els seus objectius de manera automàtica. Turquia ha utilitzat drons en les seves últimes intervencions militars a l’exterior, com Síria o Nagorno-Karabakh, però el cas de Líbia és el primer que es documenta sobre l’ús totalment autònom d’aquest tipus d’armes. Sense direcció humana.

“Les unitats (de Haftar) no estaven ni entrenades ni motivades per defensar-se de l’ús efectiu d’aquesta nova tecnologia i normalment es retiraven en desbandada. Un cop en retirada –prossegueix l’informe de les Nacions Unides– van ser sotmeses a un assetjament continu per part dels vehicles aeris de combat i els sistemes d’armes autònomes letals”. No hi ha una avaluació sobre el nombre de víctimes que van causar. Però es pot intuir el terror de les tropes perseguides per un eixam de drons atacant sense consciència ni pietat.

Tot el debat és aquí. Fins a quin punt és moralment acceptable permetre que una màquina intel·ligent pugui decidir de manera completament autònoma, sense una decisió humana explícita, sobre la vida i la mort de persones. Des de l’any 2016 l’ONU canalitza, a través d’un grup d’ experts governamentals, la discussió internacional de cara a acordar una legislació respecte d’això. Les coses no han avançat gaire, sobretot a causa dels frens que imposen els països més reticents a la regulació: els Estats Units i Rússia. Tots dos països defensen la idea que aquest nou tipus d’armes poden ser fins i tot beneficioses per la seva fiabilitat, ja que minimitzarien els riscos d’un error humà. Els països contraris i les oenagés més implicades, com la Creu Roja Internacional o Human Rights Watch –coordinadora de la campanya Stop Killer Robots –, consideren, en canvi, que són èticament inacceptables i en reclamen la prohibició.

Però mentre es discuteix, els robots ja han començat a matar. A matar-nos. Ahir a Líbia. Demà... - Lluís Uria - lavanguardia.com.