Secciones

Más en The Clinic

The Clinic Newsletters
cerrar
Cerrar publicidad
Cerrar publicidad

Entrevistas

22 de Enero de 2020

Katherine Maher, directora de Wikimedia sobre informe Big Data: “Es mucho más fácil echarle la culpa al de afuera, que admitir que hay un descontento genuino interno”

Katherine Maher. Foto: Valentina Manzano

Con sólo 36 años, Katherine Maher es una de las personas más influyentes del mundo en materia de tecnología, internet y comunicaciones. Tras su paso por Access Now, Unicef y el Banco Mundial, aterrizó en el imperio de Wikimedia y en sólo dos años se convirtió en su directora ejecutiva. El año pasado, el Foro Económico Mundial la destacó como una de las líderes mundiales más jóvenes y recientemente visitó Chile para participar del Congreso Futuro. También encabezó la charla “Derechos Humanos en contextos de crisis: el rol de los medios y plataformas digitales” en la Universidad de Chile. En conversación con The Clinic, Maher habló de los profesores que aún prohíben a sus alumnos leer Wikipedia, ahondó en la relevancia que cobra la información veraz en contextos de crisis y se rió del “extraordinariamente sofisticado” informe Big Data del Gobierno.

Por

Hace algunos años, en la facultad de periodismo yo tenía varios profesores que me decían: “No leas Wikipedia, no es confiable”. ¿Te parece que es una afirmación anacrónica en estos tiempos o aún hay que tener cautela con Wikipedia? 

– Wikipedia es tan certera y exacta como lo fue desde un comienzo, y es tan exacta como puede ser una enciclopedia tradicional. Tiene errores, pero el trabajo de Wikipedia es ir mejorando la calidad de la información que contiene. De todas maneras, es responsabilidad de los educadores que les enseñen a sus estudiantes a formular preguntas, para que ellos puedan explorar cuál es la calidad de la información, que puedan identificar si un contenido es de buena calidad o no. En vez de decir “no usen Wikipedia”, el rol de los maestros, maestras y profesores debería ser explicar en qué situaciones es bueno usar Wikipedia, en qué situaciones no y qué es lo que podemos aprender a partir de eso. 

Katherine Maher. Foto: Valentina Manzano

Precisamente, un fenómeno global más o menos reciente es el de las fake news. ¿Qué tan vulnerable es Wikipedia? Te lo pregunto porque en Chile ha ocurrido que a veces se altera la información de Wikipedia para hacer memes y humor de ciertos personajes.

– Todo es vulnerable a manipulación, en un principio. Sin embargo, la fortaleza de Wikipedia es la evaluación de la información que se hace antes de publicar. Porque tú puedes editar, pero antes de publicar hay todo un proceso de evaluación de Wikimedia, por parte de sus voluntarios, donde se chequean citas, cuáles son las segundas instancias de fuentes, por ejemplo. Eso es una manera de proteger Wikipedia. Vemos que la gente hace cambios todo el tiempo, a veces con mucho humor. Chistes acerca de jugadores de fútbol, equipos y estadios, etc. En minutos, cuando alguien pone eso, cambia a la versión que sí es correcta. Sin embargo, a mí me preocupa más la manipulación, en términos de información política o de salud pública, que puede tener consecuencias en asuntos internacionales. 

Los errores pequeños, que son remediados fácilmente, no tienen comparación con estos otros temas. La organización de grupos para la creación de desinformación es mucho más preocupante que fake news específicas que son generadas por un usuario. Estas acciones coordinadas pueden generar un cambio en la percepción del público. Es precisamente eso lo que buscan. 

En Wikipedia, trabajamos con otros expertos en el ámbito tecnológico, plataformas, instituciones, investigaciones en universidades, para identificar cuáles son las fuentes de esa manipulación, dónde y cómo ocurre, ofrecer herramientas a los voluntarios que editan para poder contrarrestar la desinformación.

Cuando partió Wikipedia hace casi 20 años, se habló mucho de la muerte de las enciclopedias en papel o de la Encarta, por ejemplo, que en Chile se usaba mucho. En esta nueva década, ¿Cuáles crees que van a ser las nuevas víctimas? ¿Puede la inteligencia artificial, en algún momento, desplazar a los editores que tiene Wikipedia, que son seres humanos?

– Vemos la inteligencia artificial como una oportunidad en diferentes áreas, porque nos puede ayudar a identificar sesgos en la información o encontrar información que está perdida. También es una nueva oportunidad para los editores, en el sentido de hacer un control de la calidad de la información, pero también para nuevas personas que no sabían que se podía trabajar de esa manera y pueden contribuir. Hay una oportunidad enorme con la traducción automática, porque hay muchos lenguajes que son altamente demandados y que la inteligencia artificial o el aprendizaje de máquina pueden interpretar. La IA puede ayudar a cerrar las brechas, no solamente a través de traducciones simples, como de inglés a español. Puede incluir también diversos idiomas en su conjunto, analizarlos y ver qué es lo que se puede tomar desde esas diferentes perspectivas para crear una cosa nueva, que responda mejor a los requerimientos de esas lenguas. 

La IA tiene un rol fundamental también en lo que tiene que ver con desinformación o manipulación de la información. Nos puede ayudar a identificar información falsa, nos puede ayudar a identificar las fuentes de dónde proviene la información, para que podamos responder de una manera más rápida cuando ocurre la manipulación. 

Katherine Maher. Foto: Valentina Manzano

En ese escenario, ¿Cómo Wikipedia define la neutralidad cuando ocurren estos choques de paradigmas, por ejemplo, entre Oriente y Occidente, o cuando hay discusión política respecto a ciertos hechos, y debe resolver? 

Hay ciertos elementos en los que no tenemos problemas de traducción ni de paradigmas, por ejemplo, cuando necesitamos entender la velocidad a la que tiene que despegar un avión. O sea, hay ciertos ámbitos y ciertas cuestiones concretas en las que no hay un choque de paradigmas. Sí los hay, por ejemplo, en los ámbitos de la sociedad, de la industria, de la cultura. En ese escenario, Wikimedia no intenta tomar una posición, sino mostrar las diferentes perspectivas. Por ejemplo, en las cruzadas de Medio Oriente hay una perspectiva europea y una perspectiva oriental. Esas diferentes perspectivas son válidas para representar contenido. La idea de Wikipedia es justamente promover el que se conozcan las diversas versiones del problema. 

Ahora bien, el problema no es cuando hay paradigmas diferentes, sino cuando hay paradigmas dominantes o hegemónicos. Entonces, para amplificar la producción y diversidad del contenido, lo que se hace es habilitar que personas, comunidades que no han participado, participen en la generación de ese conocimiento. Al intencionar que vengan personas desde fuera de ese paradigma hegemónico dominante a aportar a la discusión, se abre también la perspectiva. No es perfecto, la comunidad tiene un trabajo continuo de mejora, de transformación, de evolución.

Katherine Maher. Foto: Valentina Manzano

El uso político que se le da a la información es clave. Recientemente en Chile, el Presidente Piñera, para tratar de reforzar la idea de que hay influencia extranjera en el estallido social, presentó un informe Big Data que utilizó fuentes abiertas -principalmente Twitter- y que reveló, entre otras cosas, que a un porcentaje importante de los manifestantes les gusta el K-Pop ¿Qué te parece esa información que en Chile se vendió como “extraordinariamente sofisticada”?

– (Se ríe) Un ingeniero me dijo que si tú llamas a algo “inteligencia artificial” es porque estás tratando de impresionar a alguien, cuando en realidad estás hablando de aprendizaje de máquina (machine learning). Los gobiernos de todas partes tienden a hacer afirmaciones de este tipo. Hay un deseo de demostrar que saben absolutamente todo, que son omniscientes, particularmente cuando se refieren a nuevas tecnologías. Los políticos hablan porque son palabras sofisticadas, pero nunca aterrizadas a la realidad. En este caso, es mucho más fácil echarle la culpa al de afuera, que admitir que hay un descontento genuino interno, porque eso significa que tendrían que cambiar. 

En ese plano, ¿Cuál es el desafío de las plataformas digitales? Te lo pregunto porque precisamente en momentos de crisis es cuando la información veraz cobra mucha relevancia. 

– El mundo es demasiado grande y lo que constituye una crisis en una comunidad, quizás es muy diferente a lo que sucede en otras comunidades. A las plataformas centralizadas usualmente les falta conocer sobre el contexto, los detalles y las particularidades, para poder actuar apropiadamente, porque no conocen los contextos situados. La naturaleza y la escala de las redes sociales grandes hace que esto sea un problema realmente difícil para ellos. 

La fortaleza que tiene en ese sentido Wikipedia es que, como es distribuida, tiene una política no centralizada, las comunidades locales pueden responder a las crisis locales cuando surgen. Y tienen el contexto, lo conocen, viven y pueden identificar dónde está el poder, para hacer cambios en tiempo real, evaluar información en tiempo real y evolucionar, mejorar el modo en que trabajan. Cuando nuevas fuentes de periodismo independiente surgen en el contexto de una crisis, la gente de la propia comunidad está en la mejor posición para evaluar si la información es buena o es mala. 

Hay una enorme responsabilidad por parte de las plataformas digitales, por la influencia que tienen, para trabajar y establecer relaciones con alianzas confiables y escuchar y aprender de esos partners. Y eso deberían hacerlo antes de que estalle una crisis, llegar a ellas cuando ya tienes las relaciones en las que puedes confiar y basarte en tiempos revueltos. 

Notas relacionadas