Tendencias
8 de Enero de 2025Expertos en chequeo de datos abordan decisión de Meta de eliminar análisis de fake news: “La desinformación va a tener rienda suelta”
El director ejecutivo y cofundador de Meta -empresa dueña de Facebook e Instagram-, Mark Zuckerberg, anunció un giro de 180 grados en sus políticas de moderación de contenido, que contempla la eliminación del programa de verificación de datos.
Compartir
“Es hora de volver a nuestras raíces en torno a la libertad de expresión”, dijo el director ejecutivo y cofundador de Meta, Mark Zuckerberg, a través de un video ayer. Con esto, la ahora empresa dueña de Facebook e Instagram, anunció un giro de 180 grados en sus políticas de moderación de contenido, que contempla la eliminación del programa de verificación de datos.
Dicha modalidad será reemplazada por un sistema de notas comunitarias, similar al implementado por la red social X. Y según indicó Zuckerberg, la transformación tiene como objetivo “restaurar la libertad de expresión” y reducir los errores derivados de una moderación excesiva.
El fundador de Facebook reconoció que esta modificación significaría que Meta va a “detectar menos cosas malas”, pero argumentó que valía la pena el sacrificio para reducir la cantidad de publicaciones de “gente inocente” que se eliminaban.
Cabe recordar que el sistema de verificación llegó por primera vez tras las elecciones presidenciales de Estados Unidos en 2016, en un intento por combatir la desinformación. Sin embargo, Zuckerberg argumentó que este sistema generó más desconfianza que credibilidad entre los usuarios, especialmente por los sesgos políticos percibidos en las verificaciones. “No podemos convertirnos en árbitros de la verdad”, afirmó el CEO, indicando que la moderación centralizada ha resultado en la eliminación injusta de contenido legítimo.
El nuevo mecanismo de notas comunitarias permitirá a los usuarios agregar contexto a las publicaciones, ofreciendo una visión más colaborativa e inclusiva para abordar la desinformación. Inicialmente, esta medida se implementará en Estados Unidos, con planes de expansión a otras regiones.
Linda Yaccarino, actual CEO de X (antes Twitter), respaldó este miércoles la decisión de Meta que pondrá fin a sus sistemas de fact checking, o verificación de datos, en busca de “restaurar” la libertad de expresión. “Creo que es realmente emocionante pensar que las notas comunitarias pueden ser buenas para el mundo“, mencionó según recoge The Hollywood Reporter. “No podría ser más gratificante que ver que Mark y Meta se dieron cuenta de eso”, añadió.
Valentina De Marval, docente de la carrera de Periodismo de la Universidad Diego Portales, con experiencia en fact checking, analizó las implicancias de la decisión de Meta de eliminar el fact checking de las plataformas. En esa línea, mencionó que “las plataformas de Meta, incluso Facebook, aunque la gente de nuestra generación crea que ya no se usa, se usa demasiado. Los informes del Instituto Reuters con la Universidad de Oxford, señalan que la mayoría de la gente ‘se informa‘ a través de Facebook e Instagram, no a través de la radio, de los diarios, o la televisión. Eso quiere decir que hay mucha gente circulando y consumiendo contenido ahí, y si bien esta no era la solución ideal, o definitiva, ayudaba bastante”.
Junto con ello, De Marval advierte que, con esta medida, “van a volver a circular con la misma libertad de antes, y bueno, la que igual tienen ahora, pero quizás con más masividad y pocas barreras, teorías conspirativas, un montón de desinformación sobre elecciones, contra la salud pública, que es lo típico que circula en redes sociales hace mil años. Ahora sí la desinformación va a tener rienda suelta”.
“La desinformación ya tenía rienda suelta sin estas alianzas, ahora va a ser mucho peor”, advirtió la académica, quien además mencionó que “otra consecuencia lamentable, pero que no es responsabilidad de Facebook, es que hay medios que dependen mucho financieramente de esta alianza, y van a tener que empezar a reestructurar sus finanzas un poco porque les van a cortar harta plata”.
“Entonces, va a poner un poco a prueba a ciertos medios que dependían demasiado de esta alianza -de fast checkers- para subsistir, que es lamentable también, porque es súper complicado mantener medios independientes que hagan un trabajo que ningún otro medio quiere hacer, que es verificar, y también va a traer un problema”, agregó.
Asimismo, De Marval considera que “esto por ahora sigue en Estados Unidos, pero yo creo que lo van a empezar a replicar en otros países pronto”.
Por su parte, el académico de la Facultad de Comunicación de la Universidad de Los Andes y especialista en desinformación, Guillermo Bustamante, afirmó que “hay varias implicancias en el cambio de este programa que se llevará a cabo desde el 1 de marzo de este año. El primero, y que el más ha defendido Meta, es que existirá más libertad de expresión en todos los usuario, y el segundo, que va de la mano del anterior, es que le dará más confianza y responsabilidad a la comunidad de usuarios”.
Bustamante explicó que previamente, Meta estaba usando en sus plataformas “un sistema de verificación por terceros, es decir empresas especializadas en verificación de información, se encargaban de comprobar la veracidad de los contenidos publicados en las plataformas. Estas plataformas cumplían con los estándares de la International Factchecking Networks (IFCN del Poynter Institute), y ahora se pasará a un sistema de notas comunitarias en donde los mismos usuarios de la plataforma podrán indicar si un contenido es no verídico, como lo hace X, en donde miembros de la comunidad se unen a este sistema y verifican, bajo ciertos parámetros, el contenido que están revisando”.
Asimismo, el académico dijo que “otras implicancias que tiene este cierre es que las empresas que estaban desarrollando esta tarea de verificación dejarán de percibir esos recursos. De cara a los usuarios, no tendrán la suficiente certeza de la veracidad del contenido que consumen en estas plataformas”.
Entre los riesgos de la medida, Bustamante precisa que “ahora el contenido será moderado por la comunidad: el riesgo de esto es que un contenido que tenga sesgo, sea polarizado, pueda ser considerado como verídico, algo que claramente podría afectar la percepción de una persona sobre procesos políticos y sociales”.



