El gran salt endavant de la intel·ligència artificial amb el GPT-4 va pel camí de convertir-se més en un risc que no pas en un avenç per a la societat. Les últimes setmanes s’ha passat de la sorpresa agradable que aporten els grans avantatges de la nova tecnologia a un creixent temor per l’amenaça que suposa per la pèrdua de llocs de treball, la desinformació, la utilització armamentista o la facilitat per fomentar la ciberdelinqüència. Governs i grans corporacions s’han llançat en bloc a experimentar amb la nova joguina, però també ho estan fent tota mena d’organitzacions amb finalitats espúries. Els avenços de la IA van tan ràpid que un grup de més de mil experts de la intel·ligència artificial, executius del sector i filòsofs han firmat un manifest en què demanen una pausa “immediata” de sis mesos perquè hi hagi temps de regular-los. Entre els signants, referents com Yuval Noah Harari, Elon Musk o Steve Wozniak.

El que demanen els signants és que un grup d’experts independents desenvolupin, implementin i auditin protocols de seguretat per delimitar-ne el poder i que es creïn organismes reguladors per poder castigar-ne els excessos. Si els gegants tecnològics tradicionals com Amazon, Google, Meta o Microsoft han estat tan difícils de controlar pels governs mundials i gaudeixen d’una gran llibertat per campar al seu aire, no cal ni imaginar el que podria succeir ara amb aquesta nova aplicació.

Ja fa temps que diversos especialistes alertaven d’aquests riscos, però és la primera vegada que hi ha un manifest conjunt tan clar i directe. La influència d’aquest col·lectiu és gran, però les possibilitats que aturin aquest procés són limitades. És l’etern problema de voler posar portes al camp. L’ús del GPT-4 està disparat i, com informàvem diumenge passat, la informació comença a ser-ne la primera víctima per la fàcil manipulació que es pot fer de notícies, fotografies o vídeos. A falta d’una governança mundial, costa de pensar com es pot aturar aquesta voràgine. El manifest és una alerta mundial que hauria de ser escoltada.

M'encanta, especialment, una de les preguntes de la carta oberta: “Ens hem d'arriscar a perdre el control de la nostra civilització?”. Un altre acudit, potser. es pregunta Francesc Marc Álvaro, i afegeix. Això del control de la nostra civilització té broma, a la llum de tantes coses que ja sabem. Parlem del canvi climàtic? Parlem de desigualtats? Parlem de manipulació genètica? Parlem d'Ana Obregón i els ventres de lloguer? Parlem de la dificultat dels joves a l'hora de mantenir l'atenció i de concentrar-se? Parlem dels aliments processats? Parlem dels populismes rampants? Parlem de migracions?

Podríem obrir molts debats sobre el que alguns entenen per “la nostra civilització” sense esmentar gens ni mica la IA. Però el GPT-4 i d'altres sistemes d'IA han fet saltar unes alarmes que, habitualment, no salten. Per què? Perquè podríem entrar en una nova època mai vista en relació amb la veritat, la mentida i el saber com a forma de poder.

Si la postveritat implica que s'esborra la frontera entre la veritat i la falsedat a partir de l'imperi incessant de les emocions portades al límit, el que ens espera costa d'imaginar. En el fons, sorgeix un terror atàvic, ancestral, semblant al de l'home que, al Paleolític, començava el dia buscant aliment, mentre intentava evitar que un animal més fort, més ràpid i més silenciós que ell el convertís al menú del migdia. Amb la IA desbordant les nostres vides, és com si haguessin despertat milions de dinosaures embogits, solts pels nostres carrers.

Les distòpies de la nostra infància han deixat de ser arguments de ciència ficció. La màquina fabricada per l'home acabava sempre desafiant i suplantant (o esclavitzant) el seu creador. L'ordinador HAL 9000 està esperant a la cantonada?,Quan es rebelarà Skynet?. No ho sé. Les incubadores de Matrix em fan més por. No trec ferro a l'assumpte, però crec que segueix sent més perillosa l'estupidesa natural que la IA.