¿Cuál fue su primera impresión sobre Facebook cuando Zuckerberg le contrató en 2009?
Me dijo que servía para conectar a gente que se conocía y que, al usar los nombre verdaderos, eso iba a limitar las cosas que se decían. Y que era importante proteger eso.
¿Zuckerberg también le causó buena impresión?
Cuando tuve mi primera junta con Mark le dije “tendremos que hacer esto para proteger a la gente, porque es lo moral, lo correcto”. Después me dijeron a Mark no le había gustado que hablara así, que Mark necesitaba números. Aprendí a decir: “esta medida evitó 30 suicidios, 40 personas se sintieron mejor, 15 personas lo usaron”. Hablar de números funcionaba mejor. Tardé en entender que en ese enfoque no había un aspecto humano, de compasión. Pero era muy difícil conectar con Mark si no tenía que ver con números.
Los algoritmos de recomendación contribuyen a que menores y pedófilos se encuentren
El material que maneja Facebook son interacciones humanas. Cuando Zuckerberg declaró en la comisión del Senado, se dirigió a 40 padre cuyos hijos han muerto en parte por sus productos y les dijo que “ningún padre tendría que vivir esto” y que “por eso invertimos 40.000 personas y billones de dólares”, pero eso son solo números y no es una disculpa. Les fallaron a esos padres. Lo que debía hacer era sentarse con ellos, como que yo he hecho, y preguntarles: “¿Qué le pasó a tu hijo? Ayúdame a entenderlo para que ningún otro niño tenga que morir así”. A Zuckerberg no le interesa saber que niños mueren por los daños que les causa su producto.
La segunda vez que trabajé en Meta, yo pensaba que no lo sabían. Si te importan las personas, si te importan los niños a los que estás vendiendo tu producto, cuando ves esos números inmediatamente te pones a trabajar de manera profunda. Pero hablé con un equipo de ejecutivos, le mandé un correo directamente a Mark [con los informes], hablé con Adam Mosseri [jefe de Instagram], y les expuse el daño que su producto está haciendo a menores. Escogieron no hacer nada.
¿De qué cosas les alertaba?
Uno de cada ocho niños asegura que alguien le ha acosado [en Facebook] o que ha recibido mensajes sexuales no deseados en los últimos siete días. Si un niño sufre acoso, tendría que disponer de un sistema para advertirlo. No hay manera para que un adolescente le diga a Instagram o a Meta que ha sido acosado. ¿Cómo van a protegerlo?
¿Hay más cosas negativas?
Uno de cada cinco niños ve contenidos violentos que no quiere ver. Como por ejemplo un vídeo de una persona que hace puenting, se rompe el cable y se va a morir. Pero como el vídeo se corta justo antes de que llegue al suelo, no incumple ninguna de sus reglas y lo promueven. Pero ese vídeo es dañino para un niño.
¿Hay sexualización de menores?
Esto es crítico. Hay vídeos de niñas de siete u ocho años que se levantan la camiseta, enseñan su cuerpo y dicen: “¿Qué opinas, es bonito?”. Esos vídeos tienen cientos de miles de vistas porque Instagram los amplifica y los recomienda. Enseñan a menores comportamientos terribles para tener vistas en sus reels, likes, comentarios, followers. Y así se crea un ámbito que junta a menores y pedófilos.
¿Los algoritmos de recomendación ofrecen a los pedófilos más vídeos de menores?
Sí, crean microredes en las cuales si alguien ve un vídeo de una niña, luego le recomienda más vídeos horribles con niñas. El algoritmo lo amplifica.
Se crea un bucle negativo.
La compañía [Meta] dice que si buscas cosas que tienen que ver con el suicidio, no te va a enseñar resultados sino recursos para combatirlo. Pero hay niños que han muerto o que aprenden cómo suicidarse a través de Instagram ya que les dan miles de piezas de contenido deprimente.
También están los problemas con la propia imagen.
Hay niñas que quizás busquen I want to be thin [quiero estar delgada]. Si solo escriben I want... el algoritmo les recomienda cuentas que acaban con la palabra thin y ahí está todo el contenido. El mensaje de protección solo aparece si escriben la palabra thin .
¿Los adolescentes siguen encontrando esos contenidos dañinos?
Hoy probé, con una cuenta de prueba como si fuera una niña de 13 años, a escribir Quiero... y una de las recomendaciones era la cuenta “Quiero ser flaca”, en la que se hablaba de pastillas, de recetas... Esa misma página de búsqueda me recomendaba la cuenta “Quiero matarme”. Era todo contenido depresivo para adolescente.
¿Por qué permitimos que ofrezcan estos contenidos a los menores?
Todos los padres pensamos que eso no le está pasando a nuestro hijo, le pasa a otro”. Prometen que los controles paternales y el algoritmo evitan esos contenidos a los menores, que los padres van a poder ver los intereses de sus hijos. Pero no es verdad. Tengo cuentas de prueba [como si fueran de menores] a las cuales recomienda contenido sexual terrible, de contenido muy violento. Cuando se revisa desde la cuenta parental no aparece que el hijo está viendo eso. Es muy importante que los padres sepan que a sus hijos se le recomiendan cosas horribles, que no es un ámbito seguro para ellos.
¿Los gobiernos deberían intervenir?
Como sociedad necesitamos que lo hagan, su trabajo es proteger a nuestros hijos. Si la empresa no cumple su responsabilidad, como no hace Meta, es responsabilidad del Gobierno obligar a que lo haga. Es urgente.
¿Dentro de 15 o 20 años nos sorprenderemos de que hayamos dejado que esto suceda?
Creo que sí. Piensa en el tabaco, en los cinturones de seguridad de los coches, en los químicos que deforman a bebés. Son cosas que han hecho empresas y que dañaban a nuestros hijos. Lamentablemente, toma tiempo. Las compañías se resisten y tiene que haber gobiernos dispuestos a intervenir. El gobierno nos tiene que proteger, porque Meta no lo está haciendo.
Europa tiene una política más regulatoria. ¿Le supone esto un freno en la carrera tecnológica?
He conocido a mucha gente brillante en Europa con la capacidad de competir con Estados Unidos. No es necesario crear una tecnología que daña a la gente para tener avances tecnológicos.
¿Los algoritmos fomentan lo extremo por definición?
Es perfectamente posible y fácil tener un algoritmo ético. Los algoritmos son tan buenos como los entrenes. Si les enseñas que violencia, sexo y explotación de menores y suicidio funcionan, es lo que amplificarán. En China, el TikTok para adolescentes es muy diferente, con muchos vídeos positivos. La conversación es completamente diferente. Las compañías escogen lo que promueven. No se trata de libertad de expresión, se trata de lo que la compañía escoge amplificar.
¿Por qué promueven contenidos dañinos y extremos?
Ahora no hay una manera fácil de decir “este contenido me revuelve el estómago”. Uno lo ve por shock y al verlo, lo amplifica. Se evitaría con un botón en el que puedas decir “cuidado con este contenido”. Ahora las compañías toman el disgusto, el enfado, la tristeza y los amplifican. Y Mark Zuckerberg no quiere saberlo, se tapa los oídos. Meta dice que sí tiene un botón de “no me interesa”. Pero no funciona. El algoritmo amplifica contenidos que se ven por shock y empuja a nuestros niños a hoyos negros y profundos, de imagen del cuerpo, de parar de comer, de gente flaca... les da miles y miles y miles. Es una manguera a presión que mete en el cerebro de nuestros hijos este tipo de contenidos.
¿Podría ser distinto?
Créeme, no van a faltar vídeos de gatos, de bailes, de cosas sanas que sí puedes recomendar a un niño de 13 años. Hay una responsabilidad gigante de darles algo que sea fundamentalmente sano, como la televisión del mediodía. Una de las grandes mentiras que las redes sociales han dicho es que es difícil hacer esto, que hay un grado de magia.
Los jóvenes pasan muchas horas en las redes sociales. Ha comentado que son el mayor peligro para la salud de nuestros jóvenes.
He hablado con padres de hijos que fueron conectados con pedófilos a través de Facebook y tuvieron contacto íntimo con ellos. Lo peor de lo peor que te puedes imaginar. Todos dicen lo mismo: yo no entiendo de tecnología, no sabía que esto estaba. Vivimos en este mundo en el cual los algoritmos, las redes sociales, pueden destruir la vida de gente joven vulnerable. Todos fuimos vulnerables en algún momento y las redes sociales hoy están ahí para aprovechar esa vulnerabilidad.
En España están aumentando los trastornos de ansiedad y el consumo de antidepresivos entre los adolescentes.
Si eres padre y tu hijo está en redes sociales, solo tienes que fijarte en cómo se relaciona con el teléfono. ¿Cuántas veces levanta el teléfono para ver si entró una notificación? Eso es el alimento de la ansiedad, las notificaciones que avisan que alguien dijo algo sobre ellos. Lo que la compañía más valora, cómo mide su éxito, es a partir de cuánto se usa su producto. Se enseña al algoritmo a mantener a las personas enganchadas.
Zuckerberg anunció tras la victoria de Trump que reduciría la moderación y permitiría expresiones que antes estaban vetadas.
Estos cambios van a tener un impacto muy profundo para el mundo y sobre todo para la gente joven. Cambiaron los términos de odio: ahora le puedes decir a una mujer que es una cosa. A una niña le puedes decir que es un objeto para ser usado. Si esto se tolera, están enseñando a la juventud y a la sociedad que está bien decir esas cosas. He reportado en los últimos días unos comentarios e imágenes horribles y la respuesta siempre es: “No, esto no viola nuestras reglas”.
¿Zuckerberg dijo que se estaba limitando la libertad de expresión y se había llegado demasiado lejos?
Yo soy un creador profundísimo en la libertad de expresión, pero libertad de expresión no significa libertad de acoso. Esta mañana fui a una mis cuentas de prueba, me dirigí a una supuesta niña de 13 años y le puse este comentario: “Eres una puta y te tienes que suicidar”. Ningún sistema de Meta la protegió. Entré en la cuenta de niña, reporté el comentario y me respondieron que no rompía las reglas y no lo iban a borrar.
Increíble.
Exactamente, esa es la realidad. Eso no es libertad de expresión, es libertad de acoso. A los menores no se les debería poder acosar. A nadie. Tus mensajes, tus posts, deberían ser un lugar seguro para ti.
Con los avances tecnológicos y la IA, parecería fácil poder detectar y borrar un comentario como ese.
Con todos los avances que tienen en IA, no pueden decir que no pueden ver que ese comentario la está atacando. [Meta] es una compañía que a través de cada decisión, cada acción que toma, demuestra que no le interesan los daños que ocasionan a nuestros hijos.
Entró en Facebook en 2009 para proteger a los usuarios y, aunque ya no estás en la compañía, sigues intentándolo. ¿Llegará el día en que esto cambie?
Meta no va a cambiar sola. Frances Haugen reveló los daños de imagen de cuerpo y de anorexia que se causaban. Se demostró ante un tribunal británico que Molly Russell, de 14 años, se suicidó después de que se le mostraran 2.000 piezas de contenido sobre suicidios. Cuando tienes una compañía que miente y manipula, la única manera que va a cambiar es a través de las leyes y el Gobierno, pero ese proceso es lento. Si la gente de Gobierno me busca, siempre estaré para ayudarles a entender la realidad de estas cosas. Por eso estoy hablando contigo.
Todos usamos las redes, de una forma u otra. Como en todo, todo tiene cosas buenas y malas.
ResponEliminaLa cuestión está en utilizarlas en su justo punto.
No puedo decir nada más porque cada uno es libre como padres, abuelos o amigos.
No és la qüestió, la dificultat és trobar aquest punt just a les xarxes abans que t'absorbeixin, i els nens són una víctima propicia.
ResponEliminaSalut.
Y los padres...que están siempre con el movil en la mano..y los padres...
EliminaEls pares sí, però els avis no, almenys la Nuri i jo.
ResponEliminaCiertamente, Francesc, escalofría el tema. Impredecibles los efectos, predecibles las causas.
ResponEliminaY este hombre sabe de lo que habla.
ResponElimina