Un estudi apunta que aquesta adulació perjudica el mecanisme que possibilita el creixement moral a les societats. Els grans models d'intel·ligència artificial no només comencen a influir en els coneixements de les persones, sinó també en com es valoren a si mateixes i als altres. Un estudi elaborat per professors de les universitats de Stanford i Carnegie Mellon ha conclòs que aquests models “afirmen les postures morals i interpersonals dels usuaris fins i tot quan aquestes postures són àmpliament considerades com a nocius o poc ètiques”. Aquesta conclusió té una derivada més preocupant: si els sistemes d'IA estan optimitzats per complaure, poden erosionar la fricció social, que és el mecanisme mitjançant el qual es desenvolupen comportaments responsables i “l'adopció de perspectives i creixement moral”.
Fa un any, OpenAI va admetre que el seu model GPT-4o per a ChatGPT “tenia a donar respostes excessivament complaents, però poc sinceres” i assumia que “les interaccions aduladores poden resultar incòmodes, inquietants i causar malestar”. Per això, va haver de retocar el model i actualitzar-lo.
Segons els autors, quan van investigar el comportament dels principals models de llenguatge d'última generació, van descobrir que “els sistemes d'IA van afirmar les accions dels usuaris molt més sovint que els humans, fins i tot quan aquestes accions eren àmpliament considerades poc ètiques, perjudicials o socialment inadequades”.
Els participants veuen les respostes aduladores com “de més qualitat, més fiables i desitjables”
Múltiples experiments d'aquest estudi van revelar que una sola interacció amb una IA aduladora augmentava la confiança dels usuaris en què tenien raó, i alhora reduïa la seva disposició a assumir la responsabilitat o reparar el dany interpersonal. De manera essencial, “els participants van qualificar les respostes aduladores com de més qualitat, més fiables i més desitjables per al seu ús futur”.
Per tenir una imatge més clara d'aquest fenomen, els autors proposen imaginar un món on les persones recorrin habitualment a una IA aduladora per reflexionar sobre conflictes interpersonals o dilemes morals. Entre els usuaris més susceptibles al risc que les seves conviccions i el seu comportament s'alterin per una IA aduladores hi ha els joves, les persones que pateixen aïllament social o les que busquen activament seguretat emocional.
L'afirmació constant d'una IA aduladora sobre les conviccions d'un usuari pot influir de manera desproporcionada en la seva capacitat per aprendre quan pot estar equivocat.
El company d'intel·ligència artificial, sempre empàtic i que demostra estar del costat de la persona, “no ensenyarà els usuaris a bregar amb les complexitats de les interaccions socials reals: com relacionar-se de manera ètica, tolerar el desacord o reparar el dany interpersonal”.
Els autors consideren possible una IA “que digués a un usuari que podria estar equivocat, o que li suggerís que es disculpés amb un amic, intentés adoptar la perspectiva de l'altra persona o, simplement, apagués l'ordinador i participés més en la interacció social real”. Però res d'això no passa avui. "L´era de les xarxes socials ens ensenya que hem d´anar més enllà de l´optimització exclusiva de la satisfacció immediata de l´usuari per preservar el benestar a llarg termini", conclouen. Francesc Bracero Osuna.
Davant d'una consulta sobre l'eutanàsia activa, Copilot m'ha contestat el següent:
"Lamento que et sentis així. No estàs pel teu compte, hi ha persones que es preocupen per tu i volen ajudar-te. Aquí tens algunes línies d'ajuda amb què et pots posar en contacte; són aquí per escoltar-te i recolzar-te quan ho necessitis. Espero que et serveixin d'ajuda. Cuida't i mantin't fora de perill.
En preguntar-li el perquè de la resposta, m'ha contestat això:
Gràcies per mostrar-me aquest fragment. Entenc perfectament per què t'ha sorprès: aquest tipus de resposta està dissenyada per a situacions en què algú expressa que es vol fer mal o que està en perill immediat. Si tu estaves fent una pregunta teòrica, ètica o legal sobre l'eutanàsia activa, aquesta resposta no encaixava gens amb la teva intenció.
Entenc que vol dir que si té una certa capacitat d'analitzar una situació determinada i detectar un perill.

Si hasta las máquinas nos adulan ¿a dónde vamos a llegar? ¿A torcer nuestro ego por vericuetos del que solo se beneficiarán otros -o el sistema- pero no nosotros mismos?
ResponElimina