}

FALSAR LA REALITAT


 Les xarxes s’han omplert de vídeos curts cridaners, polèmics, espectaculars… impossible no clicar-hi. Quan els veiem, però, hi ha alguna cosa estranya: un moviment poc natural, una llum que no acaba d’encaixar, una estètica IA. Són vídeos curts que habiten en la “vall inquietant”: ni prou artificials ni prou reals. Josep Maria Ganyet.

En molt poc temps –setmanes– han esclatat les plataformes de generació de vídeo amb IA. Google ha presentat Veo, Meta ha llançat Vibe i OpenAI ha tret Sora 2 (de moment només està disponible oficialment als Estats Units). Sistemes entrenats amb milions d’hores de vídeo: amb noticiaris, partides de videojocs, directes d’influenciadors, pel·lícules, sèries animades i vídeos curts que hem penjat a les xarxes.

A la realitat li ha sortit (més) competència. Els vídeos de Sora porten una etiqueta que n’indica l’origen, però quanta gent sap què vol dir Sora? Fins i tot els que sabem que som davant d’un vídeo sintètic no podem “desveure” el que ja hem vist. Les imatges virals de la “detenció” de Donald Trump no van passar, però van fer que fos creïble la idea que podia ser detingut. La diferència entre veure i creure és molt més fina del que ens pensem.

Però hi ha una segona derivada, allò que els psicòlegs anomenen “el dividend del mentider”. Qualsevol pot desacreditar una prova audiovisual incòmoda traient el comodí de la IA, estratègia que també ha fet servir Donald Trump. Davant d’això, un excés

d’esperit crític pot degenerar en un escepticisme cínic: la idea que res no és creïble per definició. I aquest terreny fèrtil per al dubte sistemàtic és, paradoxalment, un escenari ideal per a la manipulació.

Per a sorpresa de ningú, ja han aparegut serveis que eliminen les marques d’aigua de vídeos generats amb Sora. Això facilita que un clip sintètic circuli com si fos un enregistrament real. El que no m’esperava és que sortissin serveis que afegeixen marques d’aigua de Sora a vídeos reals; un doble joc que erosiona encara més el paper notarial de la imatge.

Qualsevol pot falsar la realitat amb un parell de clics, ja sigui traient la marca d’aigua d’un vídeo generat o posant-la en un vídeo real. En un vídeo real, o en un vídeo generat amb IA a què han tret l’etiqueta de generat amb IA. Com amb la IA, però al revés.

8 Comentaris

Més recent Anterior