Les pors a la intel·ligència artificial han obsessionat la humanitat des del començament de l'època informàtica. Fins ara, aquestes pors se centraven en les màquines que utilitzaven mitjans físics per matar, esclavitzar o substituir les persones. Tot i això, en els últims dos anys han aparegut noves eines d'intel·ligència artificial que amenacen la supervivència de la civilització humana des d'un flanc inesperat. La intel·ligència artificial ha adquirit notables capacitats per manipular i generar llenguatge, ja sigui amb paraules, sons o imatges. I, en fer-ho, ha piratejat el sistema operatiu de la nostra civilització.

El llenguatge és la matèria de què està feta gairebé tota la cultura humana. Els drets humans, per exemple, no estan inscrits al nostre ADN. Són, més aviat, artefactes culturals que creem construint relats i escrivint lleis. Els déus no són realitats físiques. Són, més aviat, artefactes culturals que creem inventant mites i component escriptures sagrades. 

També els diners són un artefacte cultural. Els bitllets no són més que trossos de paper pintat; actualment, més del 90% dels diners ni tan sols són bitllets, només informació digital emmagatzemada en ordinadors. El que dóna valor als diners són els relats que ens expliquen banquers, ministres d'Economia i gurus de les criptomonedes. Sam Bankman-Fried, Elizabeth Holmes i Bernie Madoff no eren especialment bons creant valor real, però tots van ser narradors d'una habilitat extraordinària.

Què passarà quan una intel·ligència no humana sigui millor que l'ésser humà mitjà per explicar històries, compondre melodies, dibuixar imatges i redactar lleis i escriptures? Quan pensem en ChatGPT i altres eines similars, pensem escolars que recorren a la intel·ligència artificial per compondre les seves redaccions. Què passarà al sistema escolar quan els joves facin això? En realitat, aquesta mena de pregunta passa per alt la visió de conjunt. Oblidem-nos de les redaccions escolars. Pensem en les properes eleccions presidencials nord-americanes del 2024 i intentem imaginar-hi la repercussió de les eines d'intel·ligència artificial, que són susceptibles d'utilitzar-se per produir de manera massiva contingut polític, notícies falses i escriptures per a nous cultes.

En els darrers anys, el culte QAnon s'ha aglutinat a la xarxa al voltant de missatges anònims coneguts com a pastilles Q. Els seus seguidors col·leccionen, veneren i interpreten aquestes pastilles com si fossin un text sagrat. Pel que sabem, totes les pastilles Q anteriors han estat compostes per humans i els bots només s'han limitat a difondre-les, però en el futur podríem veure els primers cultes de la història els textos venerats dels quals hauran estat escrits per una intel·ligència no humana . Les religions han sostingut durant la història que els seus llibres sagrats procedien d'una font no humana. Això podria ser aviat una realitat.

En un nivell més prosaic, aviat podríem trobar-nos debatent llargament en línia sobre l'avortament, el canvi climàtic o la invasió russa d'Ucraïna amb entitats que pensem que són éssers humans, però que en realitat són intel·ligències artificials. El problema és que resulta del tot inútil que dediquem temps a intentar canviar les opinions sostingudes d'un bot d'intel·ligència artificial, i que, en canvi, la intel·ligència artificial pot refinar amb tanta precisió els missatges que tindrà moltes possibilitats d'influir en nosaltres.
Gràcies al seu domini del llenguatge, les intel·ligències artificials podrien fins i tot establir relacions molt properes amb les persones i utilitzar el poder proporcionat per aquesta proximitat per modificar les nostres opinions i visions del món. Encara que no hi ha cap indici que les intel·ligències artificials tinguin consciència ni sentiments propis, en tindran prou amb aconseguir que aquests se sentin emocionalment vinculats a elles per fomentar una falsa intimitat amb els humans. 

El juny del 2022, Blake Lemoine, un enginyer de Google, va anunciar que el chatbot d'intel·ligència artificial LaMDA, en què estava treballant, havia adquirit consciència. La polèmica afirmació li va costar feina. El més interessant d'aquest episodi no va ser afirmació de Lemoine, probablement falsa. Va ser, més aviat, la disposició que va mostrar a arriscar el seu lloc de treball lucratiu per defensar el chatbot d'intel·ligència artificial. Si la intel·ligència artificial pot influir en les persones i fer que posin en risc la seva feina, a què més les podrà induir?

En una batalla política per les ments i els cors, la intimitat és l'arma més eficaç, i la intel·ligència artificial acaba d'aconseguir la capacitat d'establir de manera massiva relacions molt properes amb milions de persones. Tots sabem que a la darrera dècada les xarxes socials s'han convertit en un camp de batalla pel control de l'atenció humana. Amb la nova generació d?intel·ligència artificial, el front de batalla s?està traslladant de l?atenció a la intimitat. Què passarà amb la societat i la psicologia humanes quan la intel·ligència artificial lluiti amb la intel·ligència artificial en una batalla per fingir relacions molt properes amb nosaltres, relacions que després es poden utilitzar per convèncer-nos que votem determinats polítics o comprem determinats productes?

Fins i tot sense crear una “falsa intimitat”, les noves eines d'intel·ligència artificial tindran una immensa influència en les nostres opinions i concepcions del món. Les persones podrien arribar a utilitzar un únic assessor d'intel·ligència artificial com a oracle universal omnisapient. No és estrany que Google estigui aterrit. Per què molestar-se a buscar, si puc preguntar a l'oracle? Els sectors del periodisme i la publicitat també haurien d'estar terroritzats. Per què llegir un diari si puc demanar-li a l'oracle que em digui quines són les darreres notícies? I per què serveixen els anuncis si puc demanar-li a l'oracle que em digui què comprar? 

De tota manera, ni tan sols aquests escenaris no aconsegueixen oferir la visió de conjunt. Del que en realitat parlem és de la possible fi de la història humana. No la fi de la història, només la fi de la seva part dominada pels humans. La història és la interacció entre biologia i cultura; entre necessitats i desitjos biològics de coses com menjar i sexe, i creacions culturals com les religions i les lleis. La història és el procés mitjançant el qual les lleis i les religions modelen el menjar i el sexe.

Què passarà amb el curs de la història quan la intel·ligència artificial s'apoderi de la cultura i comenci a produir relats, melodies, lleis i religions? Les eines anteriors, com la impremta i la ràdio, van ajudar a difondre les idees culturals dels humans, però mai no van crear idees culturals pròpies. La intel·ligència artificial és a tot punt diferent. La intel·ligència artificial pot crear idees completament noves, una cultura completament nova.

Al principi, és probable que imiti els prototips humans amb què s'ha entrenat a la seva infància. No obstant això, a mesura que passin els anys, la cultura de la intel·ligència artificial s'atrevirà a endinsar-se en terrenys mai trepitjats per l'ésser humà. Durant mil·lennis, els humans hem viscut en els somnis dels altres humans. En les properes dècades ens podríem trobar vivint en els somnis d'una xenointel·ligència.

La por a la intel·ligència artificial només obsessiona la humanitat des de fa unes poques dècades. Tanmateix, els éssers humans portem milers obsessionats per una por molt més profunda. Sempre hem apreciat el poder dels relats i les imatges per manipular la ment i crear il·lusions. Per això, des de temps antics, els humans hem temut quedar atrapats en un món d'il·lusions.

Al segle XVII, René Descartes va témer que potser un dimoni maliciós el tingués atrapat dins d'un món d'il·lusions i que creés tot el que ell veia i sentia. A l'antiga Grècia, Plató va explicar la famosa al·legoria de la caverna on un grup de persones passa tota la vida encadenat a l'interior d'una cova davant d'un mur buit. Una pantalla. En aquesta pantalla veuen projectades diverses ombres. Els presoners confonen les il·lusions que hi veuen amb la realitat. A l'antiga Índia, els savis del budisme i l'hinduisme van afirmar que els éssers humans vivíem atrapats en maia, el món de les il·lusions. Sovint, allò que solem prendre per realitat no són més que ficcions de la nostra pròpia ment. Les persones poden lliurar guerres, matar-ne d'altres i estar disposades que les matin portades per la creença en aquesta o aquella il·lusió.

La revolució de la intel·ligència artificial ens enfronta al dimoni de Descartes, a la caverna de Plató, a maia. Si no tenim cura, podríem quedar atrapats després d'un vel d'il·lusions que seríem incapaços d'esquinçar... ni ni tan sols adonar-nos de la seva existència.

Per descomptat, el nou poder de la intel·ligència artificial també es pot utilitzar amb propòsits positius. No insistiré en aquest aspecte, perquè els que desenvolupen la intel·ligència artificial ja en parlen força. La tasca dels historiadors i els filòsofs com jo és assenyalar-ne els perills. Amb tot, no hi ha dubte que la intel·ligència artificial ens pot ajudar d'innombrables maneres, des de trobar noves cures per al càncer fins a descobrir solucions a la crisi ecològica. La qüestió a què ens enfrontem és com assegurar-nos que les noves eines de la intel·ligència artificial s'utilitzen pel bé i no pel mal. Per això, primer hem de comprendre les veritables capacitats d'aquestes eines.

Des del 1945, hem sabut que la tecnologia nuclear podia generar energia barata en el nostre benefici; però també que podia destruir físicament la nostra civilització. Per això, hem reformat completament l'ordre internacional per protegir la humanitat i assegurar-nos que la tecnologia nuclear s'utilitza bàsicament per al bé. Ara ens hem d'enfrontar a una nova arma de destrucció massiva capaç d'aniquilar el nostre món mental i social.
Encara estem a temps de regular les noves eines de la intel·ligència artificial, però cal actuar amb rapidesa. Les armes nuclears no poden inventar armes nuclears més potents, però la intel·ligència artificial sí que pot crear intel·ligència artificial exponencialment més potent. El primer pas crucial és exigir rigorosos controls de seguretat abans que les potents eines de la intel·ligència artificial surtin al domini públic. De la mateixa manera que una companyia farmacèutica no pot llançar nous medicaments sense provar abans els efectes secundaris a curt i llarg termini, les companyies tecnològiques no haurien de llançar noves eines d'intel·ligència artificial sense assegurar-se abans que són innòcues. Necessitem, en el cas de les noves tecnologies, un equivalent de l'Administració d'Aliments i Medicaments nord-americans, i ho necessitàvem ahir.

Frenar el desplegament públic de la intel·ligència artificial, ¿no farà que les democràcies perdin terreny davant dels règims autoritaris amb menys escrúpols? Tot al contrari. Són els desplegaments no regulats de la intel·ligència artificial els que crearan un caos social que beneficiarà els autòcrates i destruiran les democràcies. La democràcia és una conversa i les converses es basen en el llenguatge. Si la intel·ligència artificial hacker el llenguatge, destruirà la nostra capacitat de mantenir converses significatives i destruirà la democràcia.

Acabem de donar-nos de cara amb una xenointel·ligència, aquí a la Terra. No en sabem gaire, llevat que podria destruir la nostra civilització. Hem de posar fi al desplegament irresponsable d'eines d'intel·ligència artificial a l'àmbit públic i regular la intel·ligència artificial abans que ens reguli a nosaltres. I la primera regulació que suggereixo que sigui obligatori que una intel·ligència artificial reveli que és una intel·ligència artificial. Si mantinc una conversa amb algú i no puc saber si és un humà o una intel·ligència artificial, s'ha acabat la democràcia.

Aquest text ha estat generat per un humà.

O potser no?

© 2023 The Economist Newspaper Limited. All rights reserved - Yuval Noah Harari
Traducción al castellà: Juan Gabriel López Guix -