A inicis d'aquest any, un grup d'investigadors va aconseguir entrenar un algoritme per crear notícies falses per si sol, de manera tan convincent com per tenir el potencial d'enganyar a un públic massiu, amb la mínima intervenció humana. Des de llavors, els experts han esperat a poder crear un «antídot», és a dir, una forma en què els sistemes basats en l'aprenentatge automàtic puguin identificar «històries» inventades.
Però els estudis de Tal Schuster, estudiant de doctorat a l'Institut de Tecnologia de Massachusetts (MIT), demostren que si bé els programes actuals són excel·lents per detectar text generat per altres màquines, no reconeixen si les notícies són certes o falses.
Molts sistemes automatitzats de verificació de fets estan capacitats utilitzant una base de dades de declaracions veritables anomenada Fact Extraction and Verification (FEVER). En un estudi recent, Schuster i el seu equip van demostrar que els sistemes de verificació de fets instruïts per l'aprenentatge automàtic van tenir dificultats per detectar declaracions negatives. El problema, diuen els investigadors, és que la base de dades està plena de biaixos humans. Les persones que van crear FEVER tendir a escriure les seves entrades falses com declaracions negatives i les seves declaracions veritables com declaracions positives, de manera que els ordinadors van aprendre a qualificar les oracions amb declaracions negatives com falses.
Això significa que els sistemes estaven resolent un problema molt més fàcil de detectar notícies falses. «Si crees per a tu un objectiu fàcil, pots guanyar amb aquest objectiu», va dir la professora del MIT Regina Barzilay. «Però tot i així no t'acosta més a la separació de notícies falses de notícies reals».
En definitiva, el segon estudi va demostrar que els sistemes d'aprenentatge automàtic fan una bona feina en detectar històries que van ser escrites a màquina, però no en separar les veritables de les falses.
El punt és que, si bé es poden generar notícies falses de manera més eficient utilitzant text automatitzat, no totes les històries creades per processos automatitzats són falses. Els bots de text poden dissenyar-se per adaptar històries reals per a diferents audiències, o convertir estadístiques en articles de notícies veritables, però de moment l'aprenentatge automàtic no és eficient a l'hora de detectar notícies falses.
No deixa de ser curiós que els algoritmes siguin capaços de generar noticies falses però no les sàpiguen detectar, potser perquè als algoritmes no els han programat la intuïció, o que encara no han perdut del tot la innocència.
Però els estudis de Tal Schuster, estudiant de doctorat a l'Institut de Tecnologia de Massachusetts (MIT), demostren que si bé els programes actuals són excel·lents per detectar text generat per altres màquines, no reconeixen si les notícies són certes o falses.
Molts sistemes automatitzats de verificació de fets estan capacitats utilitzant una base de dades de declaracions veritables anomenada Fact Extraction and Verification (FEVER). En un estudi recent, Schuster i el seu equip van demostrar que els sistemes de verificació de fets instruïts per l'aprenentatge automàtic van tenir dificultats per detectar declaracions negatives. El problema, diuen els investigadors, és que la base de dades està plena de biaixos humans. Les persones que van crear FEVER tendir a escriure les seves entrades falses com declaracions negatives i les seves declaracions veritables com declaracions positives, de manera que els ordinadors van aprendre a qualificar les oracions amb declaracions negatives com falses.
Això significa que els sistemes estaven resolent un problema molt més fàcil de detectar notícies falses. «Si crees per a tu un objectiu fàcil, pots guanyar amb aquest objectiu», va dir la professora del MIT Regina Barzilay. «Però tot i així no t'acosta més a la separació de notícies falses de notícies reals».
En definitiva, el segon estudi va demostrar que els sistemes d'aprenentatge automàtic fan una bona feina en detectar històries que van ser escrites a màquina, però no en separar les veritables de les falses.
El punt és que, si bé es poden generar notícies falses de manera més eficient utilitzant text automatitzat, no totes les històries creades per processos automatitzats són falses. Els bots de text poden dissenyar-se per adaptar històries reals per a diferents audiències, o convertir estadístiques en articles de notícies veritables, però de moment l'aprenentatge automàtic no és eficient a l'hora de detectar notícies falses.
No deixa de ser curiós que els algoritmes siguin capaços de generar noticies falses però no les sàpiguen detectar, potser perquè als algoritmes no els han programat la intuïció, o que encara no han perdut del tot la innocència.
Una web coratjosa amb vocació d'esbrinar la veritat:
ResponEliminahttps://maldita.es/malditobulo/
Els conec, són de Publico el diari d'en Roures.
ResponElimina