El gran salt endavant de la intel·ligència artificial amb el GPT-4 va pel camí de convertir-se més en un risc que no pas en un avenç per a la societat. Les últimes setmanes s’ha passat de la sorpresa agradable que aporten els grans avantatges de la nova tecnologia a un creixent temor per l’amenaça que suposa per la pèrdua de llocs de treball, la desinformació, la utilització armamentista o la facilitat per fomentar la ciberdelinqüència. Governs i grans corporacions s’han llançat en bloc a experimentar amb la nova joguina, però també ho estan fent tota mena d’organitzacions amb finalitats espúries. Els avenços de la IA van tan ràpid que un grup de més de mil experts de la intel·ligència artificial, executius del sector i filòsofs han firmat un manifest en què demanen una pausa “immediata” de sis mesos perquè hi hagi temps de regular-los. Entre els signants, referents com Yuval Noah Harari, Elon Musk o Steve Wozniak.
El que demanen els signants és que un grup d’experts independents desenvolupin, implementin i auditin protocols de seguretat per delimitar-ne el poder i que es creïn organismes reguladors per poder castigar-ne els excessos. Si els gegants tecnològics tradicionals com Amazon, Google, Meta o Microsoft han estat tan difícils de controlar pels governs mundials i gaudeixen d’una gran llibertat per campar al seu aire, no cal ni imaginar el que podria succeir ara amb aquesta nova aplicació.
Ja fa temps que diversos especialistes alertaven d’aquests riscos, però és la primera vegada que hi ha un manifest conjunt tan clar i directe. La influència d’aquest col·lectiu és gran, però les possibilitats que aturin aquest procés són limitades. És l’etern problema de voler posar portes al camp. L’ús del GPT-4 està disparat i, com informàvem diumenge passat, la informació comença a ser-ne la primera víctima per la fàcil manipulació que es pot fer de notícies, fotografies o vídeos. A falta d’una governança mundial, costa de pensar com es pot aturar aquesta voràgine. El manifest és una alerta mundial que hauria de ser escoltada.
M'encanta, especialment, una de les preguntes de la carta oberta: “Ens hem d'arriscar a perdre el control de la nostra civilització?”. Un altre acudit, potser. es pregunta Francesc Marc Álvaro, i afegeix. Això del control de la nostra civilització té broma, a la llum de tantes coses que ja sabem. Parlem del canvi climàtic? Parlem de desigualtats? Parlem de manipulació genètica? Parlem d'Ana Obregón i els ventres de lloguer? Parlem de la dificultat dels joves a l'hora de mantenir l'atenció i de concentrar-se? Parlem dels aliments processats? Parlem dels populismes rampants? Parlem de migracions?
Podríem obrir molts debats sobre el que alguns entenen per “la nostra civilització” sense esmentar gens ni mica la IA. Però el GPT-4 i d'altres sistemes d'IA han fet saltar unes alarmes que, habitualment, no salten. Per què? Perquè podríem entrar en una nova època mai vista en relació amb la veritat, la mentida i el saber com a forma de poder.
Si la postveritat implica que s'esborra la frontera entre la veritat i la falsedat a partir de l'imperi incessant de les emocions portades al límit, el que ens espera costa d'imaginar. En el fons, sorgeix un terror atàvic, ancestral, semblant al de l'home que, al Paleolític, començava el dia buscant aliment, mentre intentava evitar que un animal més fort, més ràpid i més silenciós que ell el convertís al menú del migdia. Amb la IA desbordant les nostres vides, és com si haguessin despertat milions de dinosaures embogits, solts pels nostres carrers.
Les distòpies de la nostra infància han deixat de ser arguments de ciència ficció. La màquina fabricada per l'home acabava sempre desafiant i suplantant (o esclavitzant) el seu creador. L'ordinador HAL 9000 està esperant a la cantonada?,Quan es rebelarà Skynet?. No ho sé. Les incubadores de Matrix em fan més por. No trec ferro a l'assumpte, però crec que segueix sent més perillosa l'estupidesa natural que la IA.
Esto es una realidad, no es broma. La IA esta de las narices, puede hablar en tu nombre y hacer disparates. Puede poner la foto y trucarla, hacer un discurso, decir que el coreano lanza un pepino y acabar con todo.
ResponEliminaA mi edad aún me abro a las sorpresas, y esta de la IA no deja de hacerlo cada día.
Tot això que dius ja es feia abans del ChatGPT, això de posar la cara d'un altre és de fa temps i les informacions falses són de tota la vida, El que fins ara es feia més o menys manualment ara ho simplifica el ChatGPT això si.
Eliminahttps://www.iskysoft.com/es/video-editing/change-face-in-video.html
això de canviar cares en diuen deepfake:
Eliminahttps://blocfpr.blogspot.com/2020/02/deepfake-tot-es-mou.html
Ja veus, no tinc ni flowers de tot això, però que et poden estafar emocionalment, això és segur, i poca broma.
EliminaOI tant, que en fa de temps que ens estafen, i no només les religions.
ResponElimina"Si la postveritat implica que s'esborra la frontera entre la veritat i la falsedat a partir de l'imperi incessant de les emocions portades al límit, "
ResponEliminaEsto si que es para pensarlo...
Un saludo
Es que se trata de eso Daniel, pero eso es tan antiguo como la humanidad.
ResponEliminaSaludos.
A mí em sembla també un tema molt seriós i perillós, gens exagerat. Efectivament, el punt central es que s'arribés a la situació de no saber si les informacions són veritat o són falses, no poder distingir ja veritat de mentira, que porta un graó més amunt el tema de la postveritat en la que ja vivim. Pot causar de tot, moviments a les borses o el principi d'una guerra. El que dius tu, molt cert, que tot això ja es feia, no em sembla "excusa" ni suficient raó per un motiu molt senzill: aquesta eina ho pot fer amb un nivell se sofisticació brutal, éssent impossible identificar els fakes. Per tant s'ha d'agafar això molt seriosament. Una altra qüestió és que efectivament es pugui acabant controlant o no. En definitiva, molts gegants que anomenes no sabem com funcionen per dins, el tema dels famosos algoritmes...
ResponElimina