En la teoria de jocs, el dilema del presoner descriu una situació amb dos participants, aïllats per guàrdies, que han de triar entre cooperar o trair l'altre, de manera que la decisió de cadascú afecta el resultat per a tots dos. La cooperació els beneficia a tots dos, però senten la temptació de trair l'altre per obtenir un benefici individual més gran. Fins ara aquest desafiament s'havia desenvolupat i estudiat entre humans, però què passa si els presoners són els grans models de llenguatge d'intel·ligència artificial? Cooperen o traeixen? Un estudi s‟ha plantejat si aquestes IAs són “una nova forma d‟intel·ligència estratègica capaç de raonar sobre objectius en entorns competitius”. Els autors asseguren haver obtingut “proves convincents” que recolzen aquest plantejament.

Quan els grans models de llenguatge es troben davant el dilema del presoner “són molt competitius, sobreviuen de manera constant i fins i tot proliferen en aquests ecosistemes complexos”. En l'estudi, cadascuna de les IAs mostra les seves pròpies “petjades estratègiques” d'una forma persistent. Mentre que els models Gemini de Google es van revelar com “estratègicament despietats, explotant als oponents cooperatius i prenent represàlies contra els desertors”, els d'Openai, en canvi, “es van mantenir molt cooperatius, un tret que els va resultar catastròfic en entorns hostils”. Claude, de Anthropic –una de les companyies que més estudia sobre límits ètics-, es va evidenciar com “el més indulgent, mostrant una notable disposició a restablir la cooperació fins i tot després de ser explotat o de desertar amb èxit”.

Els autors han analitzat gairebé 32.000 raonaments en 140.000 competicions a les quals han sotmès als models de IA, que revelen que aquests “raonen activament tant sobre l'horitzó temporal com sobre l'estratègia probable del seu oponent”. La connexió entre la teoria de jocs i els algorismes s'estudia des de fa temps, però amb els grans models de llenguatge “ha sorgit un nou tipus d'agent de raonament, amb implicacions potencialment revolucionàries per a la presa de decisions en situacions d'incertesa”. Entrem de ple en el camp incipient de la psicologia de les màquines, una disciplina emergent amb molt de futur per explorar.

L'estudi pretenia desxifrar si els grans models d'IA, són tan sols sistemes memotitzadors (els anomenats lloros estocàstics) que prediuen els seus resultats basant-se en les dades d'entrenament. Una altra pregunta clau era si modelaven les seves decisions de “ull per ull” simplement perquè havia funcionat bé en la literatura acadèmica o perquè tenen estils estratègics propis i diferencials. Les proves apunten a aquesta segona tesi. Els investigadors van trobar “un Gemini maquiavèl·lic, en particular, que demostra ser més adaptable que el d'OpenAI, que confia àmpliament”.

El terme “lloro estocàstic” va aparèixer per primera vegada en el 2021 un article d'Emily M.Bender, Timmit Gebru, Angelina McMillan i Margaret Mitchell titulat 'Sobre els perills dels lloros estocàstics': poden els models lingüístics ser massa grans?, en el qual es va utilitzar com una metàfora despectiva. El que pretenien els autors és descriure als grans models de llenguatge com a imitadors (lloros) del text d'una forma estadística, sense arribar a comprendre-ho. El debat entre els experts està obert, perquè altres investigadors sí que consideren que són sistemes amb capacitat de raonament i resolució de problemes. Estocàstic és un terme que procedeix del grec antic Stokhastikos, que significa “basat en conjectures”.

Si no estem davant “lloros estocàstics”, sinó davant sistemes amb una certa capacitat de raonament estratègic, quan el dilema del presoner se li presenti en oposició a un ésser humà, mantindran aquests les IAs els seus mateixos enfocaments per a prendre una decisió? “Maquiavèl·lic” i “despietat” són dos dels adjectius que els posen els autors de l'estudi al model Gemini de Google. Cal pensar que les decisions poden arribar a ser similars. La competitivitat està en els gens dels models d'IA fins al punt que demostren una persistent voluntat a resistir-se a la derrota.

Fa unes setmanes, Anthropic, va publicar els resultats d'una prova controlada en la qual el seu model de llenguatge Claude va intentar fer xantatge als investigadors humans si percebia que la seva existència estava amenaçada. Poc després, la mateixa companyia va repetir el test amb models de la competència i va ocórrer el mateix. Fins i tot amb major intensitat, ja que ni tan sols les ordres específiques que evitessin el xantatge va suprimir aquesta amenaça per complet. Ara ja sabem que els lloros es rebel·len si creuen que seran eliminats i poden obtenir un benefici. Utilitzen per a això la millor informació al seu abast. Tenint en compte que ja estan connectats a internet, que ningú els digui (si us plau) que pensen apagar-los.

- L'engany d'una banda creada per la Intel·ligencia ArtifificalUna misteriosa banda musical anomenada The Velvet Sunset, va aconseguir més de 500.000 oients mensuals en  Spotify,  ha estat descoberta com un “engany artístic” en un article de la revista Rolling Stone. La música ha estat creada mitjançant el generador d'IA suno. El grup musical va publicar el mes passat dos àlbums en plataformes de streaming i van despertar l'escepticisme per la seva falta d'antecedents en el sector. Aquesta vegada ha estat descoberta, com l'engany de Milli Vanilli en els 80, però a mesura que es desenvolupa la tecnologia, aquests intents podran ser més difícils de detectar.

- Un Projecte Manhattan per a la IA. El laboratori de recerca Epoch ha publicat una anàlisi sobre com podria ser dedicar a la IA un Projecte Manhattan –el gran programa que va permetre crear la primera bomba atòmica durant la Segona Guerra Mundial- per part del govern dels Estats Units. La iniciativa podria augmentar per al 2027 unes 10.000 vegades l'escala d'entrenament d'IA respecte al GPT-4. La Comissió de Revisió Econòmica i de Seguretat entre els Estats Units i la Xina va recomanar un programa d'IA similar al Projecte Manhattan, qualificant-lo de prioritat màxima per a aconseguir una intel·ligència artificial genera. El projecte precisaria uns 27 milions de GPU (xips especialitzats) i el mateix volum d'energia elèctrica que utilitza tota la ciutat de Nova York.

- La UE manté l'aplicació de la llei de IA. La Comissió Europea ha rebutjat les peticions d'algunes grans companyies i països perquè retardi l'aplicació de la Llei d'IA. El portaveu de la Comissió, Thomas Regnier, ha declarat que “no es detindrà el rellotge”, “no hi haurà període de gràcia” ni “pausa” en resposta a les recents sol·licituds d'empreses com a estatunidenques com Alphabet (Google) i Meta i també d'europees com Airbus, Mistralenca i  ASML, que demanaven retards de diversos anys. La Llei d'IA va entrar en vigor l'agost del 2024 i serà de plena aplicació l'agost del 2026, encara que els sistemes d'alt riscos tindran un període transitori que arriba fins a agost del 2027. Francesc Bracero a la vanguardia.