Menú Cerrar

Entrevista a Lilia Saúl Rodríguez, periodista de investigación de OCCRP

NewsData entrevistó a Lilia Saúl Rodríguez, periodista de investigación mexicana con vasta experiencia en medios como El Universal y la revista Emeequis. Fue la fundadora del primer equipo de periodismo de datos en un diario mexicano. Miembro de la Organized Crime and Corruption Reporting Project (OCCRP). También se desempeñó como directora de la red de periodistas México Infórmate, que abogaba por el Derecho de Acceso a la Información. Ganadora de premios como el Ortega y Gasset y el Nacional de Periodismo y finalista del Data Journalism Awards en 2015.

Hablamos con ella y nos contó cuáles son los criterios fundamentales para destacar en el periodismo de datos, el estado de esa práctica en México y su evolución a lo largo de los años. También, brindó consejos para estudiantes o personas interesadas en el trabajo con datos.

Lilia Saúl Rodríguez, periodista de investigación del Organized Crime and Corruption Reporting Project
¿Cuándo te diste cuenta de que querías hacer periodismo de datos?
Tomé un curso con una compatriota tuya, con Sandra Crucianelli. Yo creo que ella ha sido la maestra de muchos de nosotros. Fue hace ya muchos años, no sé si fue 2011, 2012, parece cercano, pero en muy poco tiempo ha evolucionado muchísimo lo que hoy llamamos periodismo de datos. En ese entonces se estaba entendiendo el paso que hubo del periodismo asistido por computadoras al periodismo de datos. Cuando ella (Crucianelli) nos dio el taller, me di cuenta de que lo que yo ya estaba haciendo era una especie de periodismo de datos.
¿A qué me refiero? Yo hacía muchos pedidos de acceso a la información. Trabajé 15 años en uno de los periódicos más grandes del país que es El Universal y, desde ese diario, mi asignación como reportera era cubrir la fuente del Instituto Nacional de Transparencia que -valga la redundancia- tenía que ver con el acceso a la información y las solicitudes. Entonces, comencé a pedir documentos que no solamente sean en PDFs horribles, sino bases de datos, hojas de cálculo, en formato Excel, etc. Y cuando comenzaba a hacer la nota especial del día (una nota más trabajada para nivel semanal o quincenal) todo mi insumo era la información que tenía a través de la Ley de Transparencia.
Cuando tomé el curso con Crucianelli, me di cuenta de que todos esos documentos que yo había trabajado tenían esa estructura del periodismo de datos. Sin embargo, la parte que me estaba haciendo falta era la de tener un programador o desarrollador que permitiera visualizar toda esa información. Ahí pensé: ya tengo una parte de mi lado. Esa parte era que podía analizar los datos de forma básica con las preguntas pertinentes y sabía qué es lo que yo quería obtener y cómo quería que se viera esa información. A partir de aquel momento fue que me di cuenta de que podía vincular mi trabajo o enfocarme más en el periodismo de datos.

 

    “El periodismo de datos requiere tiempo”

¿Cuál consideras que es la diferencia de hacer periodismo de datos sobre el periodismo “convencional”?
La principal diferencia es que se requiere tiempo. Bastante tenemos los reporteros con cubrir las notas del día, buscar cinco fuentes…No da tiempo para reflexionar sobre lo que estás reporteando. No es lo mismo reportar la nota, el hecho noticioso, que hacer periodismo de datos. Cuando escuchaba decir “es que no tenemos bases de datos, no tenemos información” yo respondía “qué bueno, podrían construir su propia base de datos con la información que cubren todos los días”. Si lo ves con esa perspectiva, puedes hacer periodismo de datos, pero no es algo que vas a hacer de un día para el otro.
Ahora bien, sí hay productos del periodismo de datos que puedes hacer de forma “rápida” como una visualización con herramientas gratuitas partiendo de los datos de un informe, pero aún así creo que los lectores necesitan un trabajo más reposado porque, al final del día, te estás enfocando en algo más exclusivo, con un énfasis investigativo. 
En el tiempo que estuve como editora en El Universal nos gustaba no sólo vincular las bases de datos y analizarlas para explicar el por qué de ese fenómeno, sino también darle la perspectiva humana. Como siempre dicen: detrás de un número, hay una persona. Queríamos mostrar la importancia que tenían esos datos en las personas. Entonces no era fácil hacer un texto de un día para el otro. Buscar entrevistas, hablar con expertos, encontrar y analizar los datos, armar los elementos visuales y adaptarlos a distintos dispositivos no es un trabajo rápido, requiere de su expertise, de su tiempo. Sobre todo cuando los datos muestran otro resultado diferente del que esperabas.
Creo que todas las redacciones deberían aspirar a tener por lo menos una persona (ya ni siquiera un equipo porque a veces consideran que es muy caro) que esté enfocada en el periodismo de datos.

 

“Detrás de un número, hay una persona”

Aproximadamente, ¿cuánto tardan en hacer un trabajo de periodismo de datos?
Es variable. En ocasiones, un solo proyecto puede durar hasta un año. Un año, un año y medio. Por ejemplo, en la etapa de El Universal, en promedio podíamos durar hasta seis meses. A la par íbamos publicando otras historias, pero las historias que eran consideradas con más investigación, con más datos y con visualizaciones hechas por desarrolladores, tardaban mucho más. Ahora que trabajo en OCCRP, hay proyectos que nos llevan más de un año. Aún así, no es un trabajo macro al que visualmente lo veas y pienses ¡Wow, es un trabajo de súper periodismo de datos!. Posiblemente no lo sea, pero detrás de toda esa información, detrás de ese trabajo hay un montón de análisis de datos, de fact-checking, de comprobación de los documentos… Te das cuenta que tienes que hacer un montón de solicitudes de acceso a la información, buscar herramientas de open source… Estamos hablando de procesos muy distintos que dan una investigación periodística global. 
En ese inter entre OCCRP y El Universal, hice un proyecto de largo aliento que fue independiente y dio muy buenos resultados porque ganamos el premio Trace Prize for Investigative Reporting que es un premio que se otorga por haber hecho un análisis muy profundo con relación al tema de las pensiones. Ahí se utilizaron un montón de bases de datos, mucho análisis, búsquedas de la información que nos permitieron hacer estas distintas historias sobre las pensiones en América Latina.

 

“Hacer fact-checking forma parte de la ética periodística”

 

Recibiste muchos premios a lo largo de tu carrera, ¿cuáles crees que son los criterios fundamentales para que un trabajo de periodismo de datos sea destacado?
Uno de ellos es el factor humano. Cualquier historia periodística no puede no tener una persona de carne y hueso que te esté hablando. Si estamos haciendo una historia de periodismo de datos de cualquier índole: económica, ambiental, social, cultural o deportiva, es fundamental el factor humano. La gente tiene que verse vinculada con todos esos datos de alguna manera. De algún modo son los proveedores de esos datos o a partir de ellos se crearon. No concibo cómo una nota puede mostrar cifras, por ejemplo macroeconómicas, y no decir cómo afecta eso directamente a las personas.
Por otro lado, a pesar de que hoy tenemos muchos datos, bases de datos, información pública, creo que nos está haciendo mucha falta y es indispensable que hagamos fact-checking. Chequear el estatus original de cómo estaban esos datos, cómo fue que fueron tratados estos datos de manera previa antes de que tú los recibieras. Esos datos ¿en qué están basados?, ¿en expedientes?, ¿en personas?, ¿en entrevistas?, ¿cómo obtuvieron esos datos? Me parece incluso ético de nuestro lado buscar la forma de cómo obtener la información primaria de esos datos.
Otro criterio es que, si vas a acompañar a tu trabajo con visualizaciones o con un programa que muestre tu información, lo mínimo a lo que yo creo que deberíamos aspirar como periodistas es que la gente lo entienda. Mi abuela, mi mamá, mis hijos, que todos entiendan la visualización de datos y lo que estás queriendo decir. Ahora bien, un diseñador me decía “hay que educar visualmente a la gente”. Incluso los periodistas mismos leen mal las infografías o los mapas de calor. Nos falta mucha educación visual y nuestro trabajo como periodistas de datos es ofrecerle al lector, mínimo, una hoja de ruta, una explicación añadida, algo que muestre cómo puede leer o entender fácilmente las visualizaciones.
Creo que esos tres son los básicos del periodismo de datos, sumado al trabajo de reportería propio del periodismo.

 

 “A veces pienso que nunca se entendió el periodismo de datos en México”

 

 

¿Cómo ves el periodismo de datos en México?
En México hubo una cierta tendencia de moda que venía, claramente, de Estados Unidos y que nosotros como periodistas veníamos a adoptar. Te estoy hablando alrededor del 2012, 13, 14, creo que varios de nosotros estamos muy entusiasmados en crear equipos de periodismo de datos. Teníamos nuestro propio newsroom, donde teníamos al periodista de datos, al reportero, al programador, al diseñador web.
El sueño ideal de cualquier periodista de datos es que tú mismo sepas hacer todo. Creo que solamente hay una colega -que ni siquiera es mexicana, es costarricense- que se llama Hassell Fallas que logró conjugar todos estos expertise que se requieren para hacer periodismo de datos: es analista de datos, periodista de datos, economista, sabe visualizar y programar con R. Es brillante.
Nosotros, en El Universal, fuimos la primera unidad de datos que hubo en una redacción y me siento muy orgullosa de ello porque vimos que era esa la tendencia a seguir, aún con altibajos. Hacer periodismo de datos en México nos dio muchas satisfacciones, una de ellas fue ser finalistas del Data Journalism Awards del 2014 o 2015 por el tema de los fideicomisos. Ganamos también varios reconocimientos de la Sociedad Interamericana de Prensa (SIP) por las investigaciones que hicimos por el tema de la deuda de los Estados en México, que tenía que ver con cada una de las entidades del país que se ha endeudado constantemente.

Por otro lado, creo que la cúspide de nuestro trabajo fue cuando publicamos el trabajo sobre los desaparecidos. Usando bases de datos públicas pudimos hacer estas historias que reflejaban un problema que hasta el día de hoy sigue aquejando a muchos mexicanos y las cifras se han incrementado de manera brutal. Cuando ganamos el Ortega y Gasset en el 2017, se reconoció este trabajo junto con un proyecto multimedia que hicimos con nuestras colegas colombianas.

Ese momento fue muy importante para el periodismo de datos de México. 

También el periódico Milenio lanzó su área de datos y otros medios -incluso televisivos- lo intentaron con cuestiones muy particulares. Al día de hoy, esa motivación quedó como opacada. De alguna manera, ya no se ha invertido en las redacciones cuestiones de periodismo de datos. Se dieron cuenta que pueden contratar de manera “freelance” a personas que saben que pueden hacer periodismo de datos y que, al mismo tiempo, tienen gente dentro de su propio medio que puede hacer la visualización o programación.
A veces pienso que nunca se entendió el periodismo de datos en México. Digo eso porque lo veían como algo muy caro, muy complejo y como algo que tardaba mucho en dar frutos. La gente quería que se publicaran historias de periodismo de datos en un tris y por supuesto que no era posible.
Creo que todos esos fueron los factores que determinaron que se hiciera a un lado el interés por el periodismo de datos. De todos modos, considero que la semilla quedó sembrada. Algunos medios intentan hacer algunas apuestas aisladas y lo que es más importante es que las universidades sí le han dado atención al periodismo de datos y -al menos yo he visto- algunas de ellas (la UNaM, privadas como la Ibero, el CIDE) han tratado de mantener el ímpetu del periodismo de datos ya con cosas más particulares o específicas de la enseñanza. Las bases están sentadas para que esto continúe.

“El periodismo de datos puede ser de servicio para la comunidad”

¿Qué consejo le darías a un estudiante de periodismo o una persona que quiera adentrarse en el trabajo con datos?
Les diría que sean afanosos, empeñosos, que no cesen en su insistencia en poner o colocar un tema que ellos quieran, que ellos sientan que la gente conozca, que la gente lea. Hay muchas, muchísimas formas de hacer periodismo de datos y que pueda ser de servicio para la comunidad.
Cuando nosotros nos planteamos para qué servirían esas bases de datos que tenían que ver con, por ejemplo, entregar litros completos de gasolina (aquí en México eso es muy común y, obviamente, pagas más y tienes menos), pensábamos “ah, bueno, vamos a hacer una aplicación”. Así, desarrollamos una aplicación con bases de datos públicas que mostraba en qué gasolineras de México se estaban dando los litros incompletos.
También, queríamos saber de qué se está muriendo la gente y una colega dijo “¿por qué no analizamos los datos que tiene el Instituto Nacional de Estadística en México?”. De esta manera, si las personas leen la nota, sabrán que la diabetes es una de las principales enfermedades que está causando la muerte de muchos mexicanos, más que el sida o cualquier enfermedad coronaria.
Siempre hay que pensar que podemos hacer algo bueno con nuestra información, con el análisis de los datos y, sobre todo, pensar que no hay tema malo. Todos tenemos nuestro propio interés y podemos hacer que ese interés sirva de algo y qué mejor que plasmarlo en el periodismo de datos. De verdad, no hay que dejar de lado el intento.

📊🔔 Si te gustó esta entrevista, no olvides suscribirte gratis a NewsData para recibir más contenido sobre periodismo de datos, información pública y transparencia en tu correo.

También nos encontrás en Twitter e Instagram.

Contenidos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esto se cerrará en 0 segundos