Un soldat opera un gos robot durant un exercici de l'OTAN a Alemanya  Liesa Johannssen / Reuters. La disputa entre el Govern nord-americà i Anthropic fa més probable una catàstrofe provocada per la intel·ligència artificial.  L'ús militar de la IA és al centre del debat entre l'Administració Trump i Anthropic LV - THE ECONOMIST

La darrera setmana s'ha desencadenat una disputa extraordinària al voltant de la intel·ligència artificial (IA). L'enfrontament entre l'Administració Trump i Anthropic, un dels principals laboratoris d'IA dels Estats Units, per accedir al Pentàgon als seus models serà una prova de qui controla la tecnologia més poderosa del món. El resultat d'aquest conflicte influirà tant en la seguretat nacional nord-americana com en el desenvolupament de la intel·ligència artificial. A més, podria augmentar el risc que es produeixi una catàstrofe provocada per la IA.

Per cadascun d'aquests motius, hauríem d'estar preocupats. En el primer gran enfrontament entre la preocupació per la seguretat de la intel·ligència artificial i l'impuls per avançar tant sí com no per dominar la tecnologia, el Govern nord-americà ha deixat clar que aposta per la rapidesa. Atès que els riscos per a la seguretat, temuts des de fa temps, ja s'estan materialitzant amb la intel·ligència artificial, s'acosten més proves. Experts adverteixen que el món avança a tota velocitat cap a una apocalipsi de la intel·ligència artificial. L'actitud temerària dels Estats Units davant del risc ho fa encara més probable.

El Pentàgon va trencar relacions amb Anthropic per les exigències del Govern de poder utilitzar els models de l?empresa per a qualsevol propòsit legal. Anthropic (patrocinador dels programes “Insider” de The Economist) es va negar per dos motius.

En primer lloc, Dario Amodei, director executiu d'Anthropic, tem que algun dia la intel·ligència artificial es pugui utilitzar per analitzar les empremtes digitals de ciutadans nord-americans corrents, una forma de vigilància per a la qual les lleis actuals no estan preparades. Amb Trump, el Servei d'Immigració i Control de Duanes ja utilitza intel·ligència artificial per analitzar grans quantitats de dades i accelerar les deportacions. Estendre aquest ús als nord-americans no sembla desgavellat.

Anthropic està preocupat per l'ús d'armes autònomes, amb una IA poderosa però immadura i impredictible

En segon lloc, Amodei està preocupat per fer servir armes autònomes. La intel·ligència artificial continua sent impredictible, immadura i, alhora, extraordinàriament poderosa. Com que la tecnologia podria actuar de forma incontrolada, sosté que encara és aviat per eliminar la supervisió humana.

L'Administració ha respost Anthropic amb fúria i represàlies. Trump va qualificar l'empresa de “pirats d'esquerres” que intenten “dictar” com el “gran exèrcit dels Estats Units combat i guanya guerres”. Ha donat al govern federal sis mesos per trencar els contractes amb Anthropic. Pete Hegseth, el secretari de Guerra, afirma que designarà l'empresa com un “risc per a la cadena de subministrament”.

Podria ser una fanfarronada: els models d'Antropic estan sent utilitzats en els atacs a l'Iran. Però si l'amenaça es duu a terme, per primera vegada una empresa nord-americana serà considerada un risc per a la seguretat i se li prohibirà fer negocis amb contractistes de defensa. El 4 de març, Anthropic va haver de gestionar una crisi després que es filtrés un memoràndum d'Amodei en què afirmava que l'empresa estava sent criticada per no oferir “elogis a l'estil dictatorial a Trump”.

Potser caldria esperar que els governs de la Xina i els Estats Units, que allotgen els laboratoris d'intel·ligència artificial més avançats del món, s'unissin per establir estàndards globals i després s'asseguressin de no veure's perjudicats imposant-los a la resta. Però les dues superpotències estan embrancades a la seva pròpia carrera, perquè consideren que dominar la intel·ligència artificial és la clau per dominar la resta del segle XXI.

No és estrany que, a mesura que la intel·ligència artificial avança a un ritme vertiginós, els experts en la matèria prediguin amb preocupació una catàstrofe. Alguns adverteixen d'un moment Txernòbil: l'ús de la intel·ligència artificial que podria desembocar en un desastre i provocar danys econòmics greus o pèrdua de vides humanes.

La paràbola d'Anthropic porta a la conclusió ombrívola que aquest perill és cada vegada més probable. Potser el millor al que pot aspirar el món sigui un desastre a petita escala, que sacsegi la Xina i els Estats Units i els impulsi a exigir mesures de seguretat; no tant un Txernòbil com un Three Mile Island. Però també és possible que passi alguna cosa pitjor. Per desgràcia, és poc probable que es prenguin mesures fins que ja sigui massa tard.

© The Economist Newspaper Limited. La Vanguardia