Es pot crear una superinteligencia com la humana sense aprendre com ho fem els humans o els animals? L'exresponsable d'intel·ligència artificial de Meta creu que aquesta és precisament la via. LeCun va ser Premi Turing en 2018 juntament amb Geoffrey Hinton i Yoshua Bengio per les seves contribucions a l'aprenentatge profund i en el 2022, Premi Princesa d'Astúries al costat de tots dos i també Demis Hassabis. Fa uns dies va presentar al costat d'Emmanuel Dupoux i Jitendra Malik un estudi titulat Per què els sistemes d'IA no aprenen i què fer al respecte, en el qual proposen “una arquitectura d'aprenentatge inspirada en la cognició humana i animal”.
El que exposa aquest estudi és que, amb el model que segueixen els grans models de llenguatge, “la màquina no aprèn per si mateixa; requereix una cadena de muntatge d'enginyers de recerca i científics de dades que recopilin, formatin i seleccionin diferents tipus de dades, cadascun dels quals s'utilitza per a entrenar successivament diferents components del model, cadascun amb funcions de pèrdua i recompensa dissenyades específicament”. D'aquesta forma, “la màquina es queda llavors sense capacitat per a aprendre de la seva experiència”.
L'alternativa seria crear una IA que aprengui de manera autònoma, com ho fan les persones. En aquest model, “l'agent aprèn directament en interactuar amb el món”. La proposta és d'un aprenentatge per observació, per acció, que pot estendre's a modes superiors com l'aprenentatge per interacció verbal o el joc autònom. LeCun i els seus col·legues observen que a “els sistemes d'IA actuals els falten tres capacitats clau que es troben en tot el regne animal: la capacitat de seleccionar les seves pròpies dades d'entrenament (aprenentatge actiu), la capacitat de canviar de manera flexible entre modes d'aprenentatge (metacontrol) i la capacitat de percebre el seu propi rendiment (metacognició)”.
El camí sembla més clar, però és més difícil que l'actual. Els autors de l'estudi recorden que “la construcció d'una màquina que aprengui com ho fan els nens s'ha albirat des dels inicis de la IA”, però continuen existint diversos reptes tècnics i ètics que fan que això sigui ara mateix un repte molt complicat. En la part tècnica es necessiten, entre altres requeriments, sistemes d'aprenentatge interrelacionats, entorns realistes, modalitats sensorials per a l'aprenentatge basat en l'observació i mètodes per a sotmetre'l tot a proves. És estudi apunta que “un enfocament prometedor consisteix a comparar als éssers humans i als agents d'IA en termes de velocitat d'aprenentatge en tasques noves; per exemple, el nombre d'intents necessaris per a aprendre un nou videojoc”.
Els autors del document ressalten que desenvolupar sistemes d'IA que aprenen com els humans “planteja noves preocupacions ètiques que van més enllà de les associades a les tecnologies d'IA actuals. Si se li dona a la màquina una capacitat d'aprenentatge exploratori autònom, resultarà més difícil garantir que segueixin alineades amb els objectius que els havien fixat els científics. Un altre risc té a veure amb el comportament. Els animals, inclosos els humans, evolucionem per a optimitzar la reproducció de l'espècie, encara que el nostre comportament quotidià “sol estar impulsat per objectius secundaris, com l'exploració o el joc”. Per això, el document considera que “els agents artificials autònoms que es basen en senyals substitutius similars poden enfrontar-se a vulnerabilitats anàlogues”.
El tercer dels advertiments de LeCun, Dupoux i Malik, és una cosa que ja veiem d'alguna forma en la IA generativa actual, però que podria agreujar-se amb una intel·ligència artificial més humana: “A mesura que els agents artificials es tornen més semblants als humans en el seu comportament i les seves trajectòries d'aprenentatge —adverteixen—, els usuaris poden antropomorfitzarlos cada vegada més, la qual cosa condueix a una inclinació emocional, una confiança mal dipositada o oportunitats de manipulació”. Això ja està passant, per la qual cosa qualsevol nou enfocament hauria de partir amb les línies vermelles marcades des de la casella de sortida. Malgrat tot, sembla improbable que molts comencin la partida de nou, tret que la realitat de la superinteligencia els porti a un atzucac com pronostica LeCun. Francesc Bracero a la vanguardia.

Felicidades a los que han descubierto la sopa de ajo. Algo tan evidente como confundir la experiencia y el conocimiento, con la información. La IA, solo dispone de la tercera. Las otras dos le están vetadas y personalmente pienso que lo estarán siempre. La IA abunda en información y es muy buena ofreciéndola y respondiendo, pero no sabe nada porque no puede experimentar nada y en ese sentido, tampo aprende nada. Solo suma información.
ResponEliminaPero es important que se n'hagin adonat, a veure si serveix d'alguna cosa.
EliminaCon Ricard. Me ha gustado su argumento, y bien pensado es , creo, tal como dice.
ResponEliminaSalut
Compte amb el tercer avis de LeCun, el més preocupant:
ResponElimina“A mesura que els agents artificials es tornen més semblants als humans en el seu comportament i les seves trajectòries d'aprenentatge, els usuaris poden antropomorfitzarlos cada vegada més, la qual cosa condueix a una inclinació emocional, una confiança mal dipositada o oportunitats de manipulació”
Salut
Es que desgraciadamente si confrontas la inteligencia artificial con las inteligencias humanas (recordemos que son varias:lingüística, lógico-matemática, espacial, musical, corporal-cinestésica, interpersonal, intrapersonal y naturalista.), estas ganan por goleada. Pero, si lo que confrontamos son los "comportamientos sintéticos de la IA" totalmente objetivos y desafectados, con las inclinaciones conductuales humanas, estas, pierden por goleada porque están totalmente afectadas por eso que llamamos "estupidez" (que no tiene nada de simple, sino que es muy compleja)
Elimina*confrontas = comparas, contrastas,
ResponEliminaEstúpida potser no ho és la IA, pero pilota, un bon tros....Estupidessa, segons la RAE: Torpeza notable en comprender las cosas. Uséase, els homínids som tots estùpids,. i la IA en alguns temes també.
ResponEliminaExperiencia y conocimiento conllevan deducción, interpretación y resolución. ¿Seguro que al menos en ciertas cuestiones -las aplicaciones técnicas- no tiene algo de esas propiedades?
ResponEliminaEn realidad no se sabe, o al menos no lo sabemos la mayoria, hasta donde puede llegar en cuanto a un estado de consciencia la IA.
Elimina