La policia holandesa ha creat un vídeo fals d'un nen de 13 anys per intentar recollir pistes del seu assassinatfa prop de dues dècades. El nen es diu Sedar Soares i el van matar a trets mentre jugava a llançar-se boles de neu amb els seus amics, davant de l'estació de metro de Rotterdam, l'any 2003. El vídeo està fet amb tecnologia "deepfake", que utilitza intel·ligència artificial per emular la gesticulació facial sobre un vídeo a partir d'imatges d'una persona. Així, es pot falsificar com parla, per exemple. En aquest cas, i amb permís de la seva família, han donat vida a en Sedar. Envoltat d'amics i familiars, el nen agafa una pilota de futbol --perquè volia ser jugador professional-- i, després de recórrer uns metres amb ella, es dirigeix a la càmera i demana ajuda per resoldre el seu assassinat: "En saps res més? Aleshores, parla".
Deepfake es podria escriure en català com 'permutació intel·ligent de rostres', per la nostra incapacitat de simplificar el nom de les coses que tan bé saben fer els anglòfils. El Deepfake és una tècnica d'Intel·ligència artificial basada en sintetitzar la imatge humana combinant i superposant imatges creades per ordinador, utilitzant per a això tecnologia d'intel·ligència artificial i aplicada a vídeos ja existents. El resultat final d'aquesta tècnica és, generalment, un vídeo completament fals, però en molts casos, prou realista com per poder induir a error i presentar com a fets una cosa que és pura ficció.
L'autor del llibre "L'ascens de les màquines" Thomas Rid declarava fa poc a Twitter no entendre la importància que se li està donant a aquesta tecnologia: "No entenc el bombo que se li està donant a les 'deepfakes'. Som a la era de la conspiració i tot va segons el previst. l'únic aspecte preocupant és la 'negació profunda', l'habilitat de qüestionar prèviament proves no impugnades ". De fet, hi ha investigadors que ja treballen en com combatre i detectar aquest tipus de tècniques. Sorprendemente, el parpelleig humà sembla ser una de les eines més efectives fins al moment.
La tecnologia utilitzada per les deepfake en realitat està molt més present del que sembla. Aplicacions com snapchat o Instagram porten anys experimentant amb aquest tipus d'eines i encara que el resultat estigui lluny de confondre ficció amb realitat, la veritat és que al mateix temps que es desenvolupen tècniques per falsejar la realitat, també es desenvolupen altres per detectar-: FaceForensic analitza imatges en moviment on apareguin rostres per revelar si han estat manipulades digitalment.
L'investigador Sven Charleer va escriure un article titulat "Perquè les Deepfakes són bones" en què explicava que aquest mateix por sorgeix amb cada tecnologia que ens permet ficcionar la realitat: "Les Deepfakes acaben d'afegir un altre nivell de preocupacions. Es pot falsificar el vídeo? ¿Tot el que veiem i sentim és real? No. Res ho és. Així com no has de creure cada paraula a la televisió, en el diari o [insereix el teu llibre religiós favorit aquí], el video és només un altre mitjà a punt per ser manipulat. Però no culpis als Deepfakes. no demonices la tecnologia ". De fet, Charleer va fer una prova i va inserir a la seva dona en el seu programa de televisió preferit. Perquè com va dir el famós artista (fals) Marcel Descans: "Internet és com qualsevol altre estri: pots produir bellesa o maldat, depèn de tu". Un exemple `positiu de deepfake a banda d'aquests anuncio de la policia holandesa, es l'anunci que fan amb la cara de Salvador Dalí sobre el Parkinson, dins de la nova campanya de la Fundació Reina Sofía per investigar en malalties neurodegeneratives.
Me da cierto pánico todo esto, tal vez porque desconozco sus efectos. No se si será bueno o malo, no lo se.
ResponEliminaA mi m'acolloneix bastant, per el mal ús que se'n pot fer...
Eliminahttps://www.youtube.com/watch?v=xweTStMMWBE