Una vegada, un missioner va retreure a un indígena la seva nuesa i aquest li va respondre, assenyalant-li la cara: “Però vosaltres també esteu nus aquí”. “Però això és la cara!” , va respondre el missioner. I aleshores l'indígena va replicar: “És que per a nosaltres tot és cara”.  Aquests dies, explica Carlos Fernandez al diario.es, jo ho he tingut més difícil que aquest indígena. Un algorisme de Youtube ha decidit interrompre una sèrie d'antropologia que estava penjant al meu espai La Filosofia a Canal, que tinc obert des de fa tres anys. Resumeixo apretadament l'estranya distòpia en què m'he vist embolicat aquestes últimes setmanes. De sobte, Youtube es va negar a acceptar els meus vídeos, tal com passa quan intentes pujar algun contingut amb drets d'autor susceptibles de reclamació.

Em va costar molt trobar-ne el motiu, perquè quan preguntes a Youtube et contesta un algorisme de molt parces explicacions. Hi ha la possibilitat d'insistir-hi fins que aconsegueixes contactar amb una persona humana. Després de molt estirar la llengua els humans suposadament responsables, se'm va comunicar més o menys la situació següent: l'algorisme de Youtube havia considerat que al meu canal s'exhibia pornografia infantil (“imatges de menors sexualitzats o on se'ls exploti sexualment”) . Això havia provocat que se m'adjudiqués un número que tornava sospitosa cada cosa que intentés pujar, de manera que, cada vegada més, tots els meus continguts eren rebutjats. I com més insistia, més sospitós em tornava. Fins i tot alguns dels meus vídeos van passar a ser qualificats de “incitació a l'odi”. A això es va sumar que, segons sembla, ja fa anys, l'algorisme m'havia qualificat de negacionista de les vacunes, cosa que em convertia en reincident.

He hagut de rebobinar. En efecte, he recordat que fa temps Youtube va retirar un vídeo del meu canal en què retòricament venia a dir que el més perillós del negacionisme durant la pandèmia era l'afany que es posava a negar el capitalisme i els seus terribles efectes en la indústria farmacèutica. Però l'algorisme havia entès que el que negava era les vacunes. Investigant una mica més, he arribat a entendre que el motiu pel qual se m'ha classificat d'“incitador a l'odi” és que havia pretès titular 'L'ésser humà a les escombraries' el capítol 5 de la meva sèrie d'antropologia, cosa que venia força a tomb si es considera que tot el capítol era un comentari d'un text de Claude Lévi-Strauss en què diu que “els antropòlegs busquem el nostre tresor als cubs de les escombraries dels historiadors”. I així vaig arribar a entendre també allò de la pornografia infantil. L'algorisme havia localitzat una cosa semblant a les fotos dels nambikares (homes, dones i nens) que Lévi-Strauss va incloure al seu llibre 'Tristes Trópicos', un clàssic immortal de l'antropologia, traduït a totes les llengües del món i del qual es hauran venut milers de milions d'exemplars sense que l'algorisme de Youtube se n'hagi adonat. Tampoc ha caigut en el compte, el maleït algorisme, que els nambikares de les fotos, en realitat, no estan nus, perquè porten un cordó a la cintura; i, de fet, se senten molt avergonyits de mostrar-se sense, perquè se senten nus.

Un gran malentès, sens dubte. Però a partir d'aquí és quan tot es torna oníric. Els humans que hi ha darrere de l'algorisme asseguren que no hi ha mitjans per intervenir en el criteri de la màquina (si és que és una màquina). L'única possibilitat seria “ensenyar-lo”, fer que canviï la seva opinió sobre mi. I no poden informar sobre com es podria fer això. Tothom sap que és un error, però no es pot fer res, no es pot dir a l'algorisme que s'ha equivocat. L'única possibilitat és ensenyar-li a canviar el seu criteri, una veritable endevinalla o potser un sortilegi que recorda els contes de fades. Finalment, després de molt meditar, hem recorregut a una mena de tractament conductista: pujar centenars i centenars de continguts per “reeducar” l'algorisme, a veure si s'acostuma al fet que sóc una persona normal. Alguns youtubers més experimentats m'han assegurat que així acaba per entendre una cosa de dos o tres mesos. Pel que fa al capítol 5 de la sèrie d'antropologia, hem recorregut provisionalment a una estratagema de les antigues: hem vestit amb fotoshop els indígenes amb uns grans calçons blancs (abans provarem a pixelar els mugrons i els culs, però l'algorisme no es va donar per satisfet).

Parlar amb els humans de Google ha estat com estavellar-se contra un mur, perquè això dels algorismes és una mica com un “gran secret”, una mena de “pedra filosofal” que ningú sap bé com funciona i que els influencers creadors de contingut estan tot el temps intentant esbrinar (“escolta, que sembla que em va millor si la gent comenta molt, o si comparteix el link o si li donen like...”) i és tot com anar donant pals de cec. De fet, cada vegada que hi ha algun canvi en com els algorismes consideren que ets rellevant, hi sol haver una mica d'enrenou entre la gent que s'hi dedica, intentant esbrinar com en poden sortir beneficiats; i d'això sempre hi ha molta literatura i molta llegenda (que si l'algorisme de TikTok beneficia les cares de dones i el d'Instagram les d'homes sempre que siguin guapos, que si TikTok et beneficia si surts somrient o ballant... De fet, durant un temps, sortia la gent llançant missatges polítics a TikTok mentre ballava, perquè l'algorisme els donés visibilitat).

A mi, tot això em fa molta por. Jo recordo molt bé el que era enfrontar-se a un professor que et tenia mania a l'escola. Alguns eren sàdics diagnosticables, altres de dolents i tristos, bèsties franquistes que no tenien dos dits de front. Però mai em vaig haver d'enfrontar a algú tan rematadament estúpid com aquest algorisme generat per la imbatible Intel·ligència Artificial, la que va guanyar Kaspárov jugant als escacs. No sé què opinarà el ChatGPT sobre això.

Del que no tinc cap dubte és que és imprescindible començar a pensar a controlar políticament els algorismes. Val més fer-ho ara que encara són relativament estúpids que quan ja ens donin cent voltes. Que jo sàpiga, encara que sé molt poc, només recordo Iñigo Errejón, des de Más País, alertant sobre l'assumpte, proposant crear una Agència Estatal d'Algorismes. La cosa és gravíssima, al fons. El que m'ha passat a mi és una ximpleria, sens dubte. Però personalment, m'ha fet entendre la que s'acosta. L'algorisme ha pres una decisió errònia. Això ho saben perfectament i així ho reconeixen els qui van crear la màquina. Però, però, ells no hi poden intervenir, és impossible.

Per part meva, he hagut d'investigar com funciona i com aprèn aquesta màquina (cosa que, a més, és un secret), per intentar convèncer-la que ha comès un error. Ens trobem davant d'un ostracisme inapel·lable, en què, fins i tot sabent tots que hi ha hagut un error, no hi ha més remei que intentar convèncer aquest ens estrany i secret que és així. En aquest cas, cal ensenyar-li la diferència entre la pornografia infantil i l'etnografia. Però això és el menys important. Ja estem administrats per algorismes en massa àmbits. Un exemple significatiu és el que es pot llegir en aquesta notícia: Treball exigirà a les empreses de repartiment compartir els algorismes que utilitzen per decidir quin treballador envien a cada trajecte.

Per descomptat, no crec que calgui demanar un algorisme perfecte, capaç de picar-nos quan es torni boig. L'important és demanar la possibilitat de sotmetre'l a un control humà. És una cosa que es repetix des dels temps d'Asimov (“Article primer: els robots obeiran els humans”) i '2001. Una odissea a l'espai'. Abans era el futur. Ara és un present distòpic que ja està en marxa. Hem creat algorismes perquè ens ajudin, no perquè se'ns respongui “no hi podem fer res, perquè ho diu l'algorisme”. Exactament la mateixa barbaritat, per cert, a què ens té acostumats el capitalisme: no es pot fer res, perquè ho diuen els mercats. Cap Parlament no s'atrevirà a portar la contrària als mercats. I se suposava que els mercats, per criminals que fossin, eren tan intel·ligents com una mà invisible. Els algorismes seran igualment criminals i, per ara, ni tan sols semblen gaire intel·ligents. Almenys pel que fa a qüestions d'interès humà. Perquè no estan administrant res que tingui interès humà. Estan administrant, com bé demostra Johann Hari al seu esplèndid llibre 'El valor de l'atenció', els incommensurables negocis que es poden fer amb la nostra atenció a la pantalla. I això, sens dubte, ho fan molt bé. Però mentrestant, no saben distingir entre un indígena vestit amb un cordó i un amulet i la pornografia infantil. Són molt intel·ligents, però no estan interessats en les mateixes coses que ens interessen a nosaltres. Exactament, el mateix que ha passat amb el capitalisme des del segle XIX.

I el problema no només és a Youtube, no fa gaire a Feisbuc, em van censurar un article en què sortia un nen al qual un soldat israelià li va trencar un braç, van considerar que el contingut era violent. És clar que ho era, però no el contingut sinó l'acció del soldat israelià. Però a aixó a l'algoritme no l'importa, el que el preocupa és la foto del nen amb el braç trencat.