El passat 29 de gener el periodista Michael Talen publicava al seu compte de Twitter un vídeo en què es podia veure la cara de l'actor Steve Buscemi completa i naturalment embeguda en el cos de Jennifer Lawrence. La veu que escoltem és la de Jennifer però sembla com si es tractés d'una nova persona. Una creació monstruosa bastant realista. El seu creador és un analista de dades que aparentment fa això com a hobbie i que fins i tot es mostrava sorprès al seu compte de Twitter que s'hagués viralitzat. En el seu compte de Youtube ha pujat un altre vídeo titulat: "Kevin Spacemi" en què combina un discurs de Kevin Spacey de nou amb Bucemi. Tots dos vídeos són el que es coneix com Deepfakes.


Es coneix com Deepfake a una tècnica d'Intel·ligència artificial basada en sintetitzar la imatge humana combinant i superposant imatges creades per ordinador, utilitzant per a això tecnologia d'intel·ligència artificial i aplicada a vídeos ja existents. El resultat final d'aquesta tècnica és, generalment, un vídeo completament fals, però en molts casos, prou realista com per poder induir a error i presentar com a fets una cosa que és pura ficció.
Alguns polítics als EUA ja han mostrat la seva preocupació: si les eleccions presidencials de 2016 van estar marcades per les mentida news, les eleccions de 2020 podrien estar marcades per les deepfakes. "La comunitat que treballa en Intel·ligència està realment preocupada per l'increment de la tecnologia deepfake", va dir a CNN el senador Mark Warner, responsable del Comitè d'Intel·ligència del partit Demòcrata. "Ja ens costa revisar i combatre altres activitats malignes en xarxes socials i l'explosió dels vídeos deepfake va a fer-ho encara més complicat".
L'actriu Scarlett Johansson es declarava escèptica fa unes setmanes: "El fet és que tractar de protegir-se de Internet i la seva depravació és bàsicament una causa perduda". L'actriu ha estat superposada en múltiples escenes de sexe explícit al llarg de l'any 2018. Encara que ella ho accepta amb esportivitat "res pot impedir que algú talli i enganxi la meva imatge o la d'una altra persona en un altre cos i faci que es vegi tan realista com vulgui". De fet, la intel·ligència artificial s'està usant des de fa un temps en la indústria del porno. No obstant això, alguns portals de continguts com Pornhub sí que han considerat necessari posar límits i han retirat vídeos realitzats amb Intel·ligència Artificial per considerar-los "no consentits".
L'autor del llibre "L'ascens de les màquines" Thomas Rid declarava fa poc a Twitter no entendre la importància que se li està donant a aquesta tecnologia: "No entenc el bombo que se li està donant a les 'deepfakes'. Som a la era de la conspiració i tot va segons el previst. l'únic aspecte preocupant és la 'negació profunda', l'habilitat de qüestionar prèviament proves no impugnades ". De fet, hi ha investigadors que ja treballen en com combatre i detectar aquest tipus de tècniques. Sorprendemente, el parpelleig humà sembla ser una de les eines més efectives fins al moment.
La tecnologia utilitzada per les deepfake en realitat està molt més present del que sembla. Aplicacions com snapchat o Instagram porten anys experimentant amb aquest tipus d'eines i encara que el resultat estigui lluny de confondre ficció amb realitat, la veritat és que al mateix temps que es desenvolupen tècniques per falsejar la realitat, també es desenvolupen altres per detectar-: FaceForensic analitza imatges en moviment on apareguin rostres per revelar si han estat manipulades digitalment.

Imagineu ara que Trump declara la guerra a Rússia. O que Puigdemont anuncia que es suïcidarà en dues hores amb un tret al cap si no s'allibera als presos. O que Pedro Sánchez apareix al telenotícies mantenint relacions sexuals amb un porc a la granja de Campofrío en un vídeo filtrat per internet. 'Black Mirror' va haver d'imaginar el segrest d'una princesa perquè el primer ministre britànic fes el mateix, però això ja no seria necessari en el món real. Son les deepfakes tan aterridores com semblen? Hi ha qui creu que no. I que de fet poden ser divertides. L'investigador Sven Charleer va escriure un article titulat "Perquè les Deepfakes són bones" en què explicava que aquest mateix por sorgeix amb cada tecnologia que ens permet ficcionar la realitat: "Les Deepfakes acaben d'afegir un altre nivell de preocupacions. Es pot falsificar el vídeo? ¿Tot el que veiem i sentim és real? No. Res ho és. Així com no has de creure cada paraula a la televisió, en el diari o [insereix el teu llibre religiós favorit aquí], el video és només un altre mitjà a punt per ser manipulat. Però no culpis als Deepfakes. no demonices la tecnologia ". De fet, Charleer va fer una prova i va inserir a la seva dona en el seu programa de televisió preferit. Perquè com va dir el famós artista (fals) Marcel Descans: "Internet és com qualsevol altre estri: pots produir bellesa o maldat, depèn de tu". el diario.es