Em va costar molt trobar-ne el motiu, perquè quan preguntes a Youtube et contesta un algorisme de molt parces explicacions. Hi ha la possibilitat d'insistir-hi fins que aconsegueixes contactar amb una persona humana. Després de molt estirar la llengua els humans suposadament responsables, se'm va comunicar més o menys la situació següent: l'algorisme de Youtube havia considerat que al meu canal s'exhibia pornografia infantil (“imatges de menors sexualitzats o on se'ls exploti sexualment”) . Això havia provocat que se m'adjudiqués un número que tornava sospitosa cada cosa que intentés pujar, de manera que, cada vegada més, tots els meus continguts eren rebutjats. I com més insistia, més sospitós em tornava. Fins i tot alguns dels meus vídeos van passar a ser qualificats de “incitació a l'odi”. A això es va sumar que, segons sembla, ja fa anys, l'algorisme m'havia qualificat de negacionista de les vacunes, cosa que em convertia en reincident.
He hagut de rebobinar. En efecte, he recordat que fa temps Youtube va retirar un vídeo del meu canal en què retòricament venia a dir que el més perillós del negacionisme durant la pandèmia era l'afany que es posava a negar el capitalisme i els seus terribles efectes en la indústria farmacèutica. Però l'algorisme havia entès que el que negava era les vacunes. Investigant una mica més, he arribat a entendre que el motiu pel qual se m'ha classificat d'“incitador a l'odi” és que havia pretès titular 'L'ésser humà a les escombraries' el capítol 5 de la meva sèrie d'antropologia, cosa que venia força a tomb si es considera que tot el capítol era un comentari d'un text de Claude Lévi-Strauss en què diu que “els antropòlegs busquem el nostre tresor als cubs de les escombraries dels historiadors”. I així vaig arribar a entendre també allò de la pornografia infantil. L'algorisme havia localitzat una cosa semblant a les fotos dels nambikares (homes, dones i nens) que Lévi-Strauss va incloure al seu llibre 'Tristes Trópicos', un clàssic immortal de l'antropologia, traduït a totes les llengües del món i del qual es hauran venut milers de milions d'exemplars sense que l'algorisme de Youtube se n'hagi adonat. Tampoc ha caigut en el compte, el maleït algorisme, que els nambikares de les fotos, en realitat, no estan nus, perquè porten un cordó a la cintura; i, de fet, se senten molt avergonyits de mostrar-se sense, perquè se senten nus.
Un gran malentès, sens dubte. Però a partir d'aquí és quan tot es torna oníric. Els humans que hi ha darrere de l'algorisme asseguren que no hi ha mitjans per intervenir en el criteri de la màquina (si és que és una màquina). L'única possibilitat seria “ensenyar-lo”, fer que canviï la seva opinió sobre mi. I no poden informar sobre com es podria fer això. Tothom sap que és un error, però no es pot fer res, no es pot dir a l'algorisme que s'ha equivocat. L'única possibilitat és ensenyar-li a canviar el seu criteri, una veritable endevinalla o potser un sortilegi que recorda els contes de fades. Finalment, després de molt meditar, hem recorregut a una mena de tractament conductista: pujar centenars i centenars de continguts per “reeducar” l'algorisme, a veure si s'acostuma al fet que sóc una persona normal. Alguns youtubers més experimentats m'han assegurat que així acaba per entendre una cosa de dos o tres mesos. Pel que fa al capítol 5 de la sèrie d'antropologia, hem recorregut provisionalment a una estratagema de les antigues: hem vestit amb fotoshop els indígenes amb uns grans calçons blancs (abans provarem a pixelar els mugrons i els culs, però l'algorisme no es va donar per satisfet).
Parlar amb els humans de Google ha estat com estavellar-se contra un mur, perquè això dels algorismes és una mica com un “gran secret”, una mena de “pedra filosofal” que ningú sap bé com funciona i que els influencers creadors de contingut estan tot el temps intentant esbrinar (“escolta, que sembla que em va millor si la gent comenta molt, o si comparteix el link o si li donen like...”) i és tot com anar donant pals de cec. De fet, cada vegada que hi ha algun canvi en com els algorismes consideren que ets rellevant, hi sol haver una mica d'enrenou entre la gent que s'hi dedica, intentant esbrinar com en poden sortir beneficiats; i d'això sempre hi ha molta literatura i molta llegenda (que si l'algorisme de TikTok beneficia les cares de dones i el d'Instagram les d'homes sempre que siguin guapos, que si TikTok et beneficia si surts somrient o ballant... De fet, durant un temps, sortia la gent llançant missatges polítics a TikTok mentre ballava, perquè l'algorisme els donés visibilitat).
A mi, tot això em fa molta por. Jo recordo molt bé el que era enfrontar-se a un professor que et tenia mania a l'escola. Alguns eren sàdics diagnosticables, altres de dolents i tristos, bèsties franquistes que no tenien dos dits de front. Però mai em vaig haver d'enfrontar a algú tan rematadament estúpid com aquest algorisme generat per la imbatible Intel·ligència Artificial, la que va guanyar Kaspárov jugant als escacs. No sé què opinarà el ChatGPT sobre això.
Del que no tinc cap dubte és que és imprescindible començar a pensar a controlar políticament els algorismes. Val més fer-ho ara que encara són relativament estúpids que quan ja ens donin cent voltes. Que jo sàpiga, encara que sé molt poc, només recordo Iñigo Errejón, des de Más País, alertant sobre l'assumpte, proposant crear una Agència Estatal d'Algorismes. La cosa és gravíssima, al fons. El que m'ha passat a mi és una ximpleria, sens dubte. Però personalment, m'ha fet entendre la que s'acosta. L'algorisme ha pres una decisió errònia. Això ho saben perfectament i així ho reconeixen els qui van crear la màquina. Però, però, ells no hi poden intervenir, és impossible.
Per part meva, he hagut d'investigar com funciona i com aprèn aquesta màquina (cosa que, a més, és un secret), per intentar convèncer-la que ha comès un error. Ens trobem davant d'un ostracisme inapel·lable, en què, fins i tot sabent tots que hi ha hagut un error, no hi ha més remei que intentar convèncer aquest ens estrany i secret que és així. En aquest cas, cal ensenyar-li la diferència entre la pornografia infantil i l'etnografia. Però això és el menys important. Ja estem administrats per algorismes en massa àmbits. Un exemple significatiu és el que es pot llegir en aquesta notícia: Treball exigirà a les empreses de repartiment compartir els algorismes que utilitzen per decidir quin treballador envien a cada trajecte.
Per descomptat, no crec que calgui demanar un algorisme perfecte, capaç de picar-nos quan es torni boig. L'important és demanar la possibilitat de sotmetre'l a un control humà. És una cosa que es repetix des dels temps d'Asimov (“Article primer: els robots obeiran els humans”) i '2001. Una odissea a l'espai'. Abans era el futur. Ara és un present distòpic que ja està en marxa. Hem creat algorismes perquè ens ajudin, no perquè se'ns respongui “no hi podem fer res, perquè ho diu l'algorisme”. Exactament la mateixa barbaritat, per cert, a què ens té acostumats el capitalisme: no es pot fer res, perquè ho diuen els mercats. Cap Parlament no s'atrevirà a portar la contrària als mercats. I se suposava que els mercats, per criminals que fossin, eren tan intel·ligents com una mà invisible. Els algorismes seran igualment criminals i, per ara, ni tan sols semblen gaire intel·ligents. Almenys pel que fa a qüestions d'interès humà. Perquè no estan administrant res que tingui interès humà. Estan administrant, com bé demostra Johann Hari al seu esplèndid llibre 'El valor de l'atenció', els incommensurables negocis que es poden fer amb la nostra atenció a la pantalla. I això, sens dubte, ho fan molt bé. Però mentrestant, no saben distingir entre un indígena vestit amb un cordó i un amulet i la pornografia infantil. Són molt intel·ligents, però no estan interessats en les mateixes coses que ens interessen a nosaltres. Exactament, el mateix que ha passat amb el capitalisme des del segle XIX.
I el problema no només és a Youtube, no fa gaire a Feisbuc, em van censurar un article en què sortia un nen al qual un soldat israelià li va trencar un braç, van considerar que el contingut era violent. És clar que ho era, però no el contingut sinó l'acció del soldat israelià. Però a aixó a l'algoritme no l'importa, el que el preocupa és la foto del nen amb el braç trencat.
Quien controle el algoritmo controla todo. Es el último Poder en manos del Poder. Desvirtuar la realidad es otro de esos crímenes que acumula el que ejerce y oprime con su fuerza de poder.
ResponEliminaDentro de unos años, o ahora mismo, podríamos decir aquello de: sin el algoritmo vivíamos mejor.
EliminaLo hemos hablado muchas veces, Francesc.
ResponEliminaHemos pasado de la sociedad de la obediencia a la sociedad del control.
Hoy, los carteles de tráfico, ya te lo indican: velocidad controlada por radar.
Bezoz, el de Amazón acaba de comprar la Roomba. Un aparato que sabe donde vives, lo m2 de tu casa, si hace o no hace sol en ella, los espacios que te quedan libres, escucha tus conversaciones, sabe cuando la pones y cuando no, objetiviza la presión con que la pones en marcha y te ofrece una cosa u otra en ese modelo...
Nos tienen controlados.
Es tarde para todo, hemos dado nuestros datos y cada día los rellenamos más.
Salut
Y lo peor, estimado Miquel, es que las nuevas generaciones, las ultimísimas incluso, han entrado al trapo de asumir buenamente todo esos controles. Yo ya no sé qué pensar sobre el margen de libre albedrío (el de verdad, no el de la Ayuso y su ralea) del que hemos dispuesto, si quedará algo.
EliminaAixò de la roomba ja fa temps que se sap i es diu, també diuen que la teva tele o el teu mòbil et vigilen. Abans domés ens vigilava la dona.
ResponEliminaSalut.
Los algoritmos son como los censores de antaño en redes, los jefes de estudio q van poniendo cruces por el patio según te escuchan decir tal o cual cosa, hacienda, la policía, la gestapo...pero viviendo todos contigo, la verdad es q da pánico pensarlo, pero hace tiempo que el ojo de Orwel no los quita ojo ;))
ResponEliminaUn abrazo FRANCESC!
Bueno, de algoritmos ha habido siempre. Serrat decía que sabía cuando iba a cagar un vecino suyo, porque silbaba por el pasadizo, y siempre la misma canción. Y teníamos nosotros una vecina que lo sabía todo, todo y todo del vecindario. E iba bien, si querías saber algo de alguien, con preguntarle a ella, te ponía enseguida al corriente, sobre todo el tema de fallecidos, en un barrio que es casi un gran geriátrico, una persona así va bien.
ResponEliminaUn abrazo.
Pues que quieres que te diga "algo de ritmo" nunca viene mal
ResponEliminaY por cierto, ahora que los gringos quieren prohibir el puto TikTok, Google tendrá que pagarle horas extras al algoritmo. Se le va a llenar de porquería insulsa y contenido basura.
ResponEliminaTik Tok el volen prohibir perquè es dels xinesos, però si ho fan en sortirà un altra de semblant.
EliminaEsta semana mismo, y en comunión con lo que hablamos, Fackel, el personal vende el iris de los ojos como el que vende torrijas en el mercado, no nos damos cuenta del peligro que conlleva, y vendemos tácitamente, el alma al diablo.
ResponEliminaEstamos abocados a la existición.
Salut