Estava esverada la Melero al Tot es mou d'ahir dijous, en veure com gracies a l'aplicació deepfake l'Empar Moliner la substituía i talment semblava ella. No és nou, pero preocupa pel mal us que se'n pot fer d'aquesta aplicació, un mal ús que de fet ha s'ha produït.
Fa un any, el periodista Michael Talen va publicar al seu compte de Twitter un vídeo en què es podia veure la cara de l'actor Steve Buscemi completa i naturalment embeguda en el cos de Jennifer Lawrence. La veu que escoltem és la de Jennifer però sembla com si es tractés d'una nova persona. Una creació monstruosa bastant realista. El seu creador és un analista de dades que aparentment fa això com a hobbie i que fins i tot es mostrava sorprès al seu compte de Twitter que s'hagués viralitzat. En el seu compte de Youtube ha pujat un altre vídeo titulat: "Kevin Spacemi" en què combina un discurs de Kevin Spacey de nou amb Bucemi. Tots dos vídeos són el que es coneix com Deepfakes.
Es coneix com Deepfake a una tècnica d'Intel·ligència artificial basada en sintetitzar la imatge humana combinant i superposant imatges creades per ordinador, utilitzant per a això tecnologia d'intel·ligència artificial i aplicada a vídeos ja existents. El resultat final d'aquesta tècnica és, generalment, un vídeo completament fals, però en molts casos, prou realista com per poder induir a error i presentar com a fets una cosa que és pura ficció.
Alguns polítics als EUA ja han mostrat la seva preocupació: si les eleccions presidencials de 2016 van estar marcades per les mentida news, les eleccions de 2020 podrien estar marcades per les deepfakes. "La comunitat que treballa en Intel·ligència està realment preocupada per l'increment de la tecnologia deepfake", va dir a CNN el senador Mark Warner, responsable del Comitè d'Intel·ligència del partit Demòcrata. "Ja ens costa revisar i combatre altres activitats malignes en xarxes socials i l'explosió dels vídeos deepfake va a fer-ho encara més complicat".
L'actriu Scarlett Johansson es declarava escèptica fa unes setmanes: "El fet és que tractar de protegir-se de Internet i la seva depravació és bàsicament una causa perduda". L'actriu ha estat superposada en múltiples escenes de sexe explícit al llarg de l'any 2018. Encara que ella ho accepta amb esportivitat "res pot impedir que algú talli i enganxi la meva imatge o la d'una altra persona en un altre cos i faci que es vegi tan realista com vulgui". De fet, la intel·ligència artificial s'està usant des de fa un temps en la indústria del porno. No obstant això, alguns portals de continguts com Pornhub sí que han considerat necessari posar límits i han retirat vídeos realitzats amb Intel·ligència Artificial per considerar-los "no consentits".
L'autor del llibre "L'ascens de les màquines" Thomas Rid declarava fa poc a Twitter no entendre la importància que se li està donant a aquesta tecnologia: "No entenc el bombo que se li està donant a les 'deepfakes'. Som a la era de la conspiració i tot va segons el previst. l'únic aspecte preocupant és la 'negació profunda', l'habilitat de qüestionar prèviament proves no impugnades ". De fet, hi ha investigadors que ja treballen en com combatre i detectar aquest tipus de tècniques. Sorprenenment, el parpelleig humà sembla ser una de les eines més efectives fins al moment.
Alguns polítics als EUA ja han mostrat la seva preocupació: si les eleccions presidencials de 2016 van estar marcades per les mentida news, les eleccions de 2020 podrien estar marcades per les deepfakes. "La comunitat que treballa en Intel·ligència està realment preocupada per l'increment de la tecnologia deepfake", va dir a CNN el senador Mark Warner, responsable del Comitè d'Intel·ligència del partit Demòcrata. "Ja ens costa revisar i combatre altres activitats malignes en xarxes socials i l'explosió dels vídeos deepfake va a fer-ho encara més complicat".
L'actriu Scarlett Johansson es declarava escèptica fa unes setmanes: "El fet és que tractar de protegir-se de Internet i la seva depravació és bàsicament una causa perduda". L'actriu ha estat superposada en múltiples escenes de sexe explícit al llarg de l'any 2018. Encara que ella ho accepta amb esportivitat "res pot impedir que algú talli i enganxi la meva imatge o la d'una altra persona en un altre cos i faci que es vegi tan realista com vulgui". De fet, la intel·ligència artificial s'està usant des de fa un temps en la indústria del porno. No obstant això, alguns portals de continguts com Pornhub sí que han considerat necessari posar límits i han retirat vídeos realitzats amb Intel·ligència Artificial per considerar-los "no consentits".
L'autor del llibre "L'ascens de les màquines" Thomas Rid declarava fa poc a Twitter no entendre la importància que se li està donant a aquesta tecnologia: "No entenc el bombo que se li està donant a les 'deepfakes'. Som a la era de la conspiració i tot va segons el previst. l'únic aspecte preocupant és la 'negació profunda', l'habilitat de qüestionar prèviament proves no impugnades ". De fet, hi ha investigadors que ja treballen en com combatre i detectar aquest tipus de tècniques. Sorprenenment, el parpelleig humà sembla ser una de les eines més efectives fins al moment.
La tecnologia utilitzada per les deepfake en realitat està molt més present del que sembla. Aplicacions com snapchat o Instagram porten anys experimentant amb aquest tipus d'eines i encara que el resultat estigui lluny de confondre ficció amb realitat, la veritat és que al mateix temps que es desenvolupen tècniques per falsejar la realitat, també es desenvolupen altres per detectar-: FaceForensic analitza imatges en moviment on apareguin rostres per revelar si han estat manipulades digitalment.
Imagineu ara que Trump declara la guerra a Rússia. O que Puigdemont anuncia que es suïcidarà en dues hores amb un tret al cap si no s'allibera als presos. O que Pedro Sánchez apareix al telenotícies mantenint relacions sexuals amb un porc a la granja de Campofrío en un vídeo filtrat per internet. 'Black Mirror' va haver d'imaginar el segrest d'una princesa perquè el primer ministre britànic fes el mateix, però això ja no seria necessari en el món real.
Són les deepfakes tan aterridores com semblen? Hi ha qui creu que no. I que de fet poden ser divertides. L'investigador Sven Charleer va escriure un article titulat "Perquè les Deepfakes són bones" en què explicava que aquesta mateixa por sorgeix amb cada tecnologia que ens permet ficcionar la realitat: "Les Deepfakes acaben d'afegir un altre nivell de preocupacions. Es pot falsificar el vídeo? ¿Tot el que veiem i sentim és real? No. Res ho és. Així com no has de creure cada paraula a la televisió, en el diari o [insereix el teu llibre religiós favorit aquí], el video és només un altre mitjà a punt per ser manipulat. Però no culpis als Deepfakes. no demonices la tecnologia ". De fet, Charleer va fer una prova i va inserir a la seva dona en el seu programa de televisió preferit. Perquè com va dir el famós artista (fals) Marcel Descans: "Internet és com qualsevol altre estri: pots produir bellesa o maldat, depèn de tu".
Són les deepfakes tan aterridores com semblen? Hi ha qui creu que no. I que de fet poden ser divertides. L'investigador Sven Charleer va escriure un article titulat "Perquè les Deepfakes són bones" en què explicava que aquesta mateixa por sorgeix amb cada tecnologia que ens permet ficcionar la realitat: "Les Deepfakes acaben d'afegir un altre nivell de preocupacions. Es pot falsificar el vídeo? ¿Tot el que veiem i sentim és real? No. Res ho és. Així com no has de creure cada paraula a la televisió, en el diari o [insereix el teu llibre religiós favorit aquí], el video és només un altre mitjà a punt per ser manipulat. Però no culpis als Deepfakes. no demonices la tecnologia ". De fet, Charleer va fer una prova i va inserir a la seva dona en el seu programa de televisió preferit. Perquè com va dir el famós artista (fals) Marcel Descans: "Internet és com qualsevol altre estri: pots produir bellesa o maldat, depèn de tu".
De igual manera y al mismo ritmo que se desarrollan técnicas para falsear la realidad, también surgen otras para detectarlo, viene a decir el texto. Y es cierto. No obstante, está de moda decir que los medios nos engañan y confunden nuestros pensamientos. Pues no nos confundamos y pensemos un momento. Es práctica generalizada adoptar como propio el pensamiento de otros, normalmente el que más nos satisface o se acomoda a nuestros deseos, sin darnos cuenta de que eso no es pensar. Eso lo que hace es pensarnos a nosotros, marcarnos un trayecto e inhibir nuestro pensamiento. Solo filtrando y cuestionándonos las cosas mil veces lograremos algo. Usemos alguna vez nuestro intelecto. (Mañana sin falta lo intento)
ResponEliminaDe hecho el deepfake no deja de ser otra muestra de la colonización de nuestro pensamiento. Algo habremos aprendido porqué cada vez desconfiamos más de cualquier información venga de donde venga. Hemos aprendido a separar el trigo de la paja, o a intentarlo al menos
ResponElimina¿En serio te parece que ya sabemos separar la paja del trigo? Yo no estoy segura porque la ornamentación enmascara mucho. Recuerda que la trampa está presente en todas las culturas y en todos los tiempos. En cualquier caso, lo grave no es que intenten engañarnos, sino engañarnos a nosotros mismos.
EliminaEn otro momento te contaré sobre mi percepión in situ del coronavirus.
...ya digo a intentarlo, además en mi caso al publicar noticias en Collonades, me ayuda a filtrar muchas fakenews
ResponElimina