
La catástrofe de la DANA en Valencia y Castilla La Mancha, como también lo fue la pandemia en toda España, ha sido un ejemplo de situación tensa, dramáticas y caóticas, en la que la excesiva información ha sido más un escollo que una ayuda.
Es en contextos complicados cuando las ‘fake news’ y los bulos se hacen más comunes y peligrosos, sobre todo a través de redes sociales. Por eso, el Banco de España, concretamente Javier Jareño, del departamento de Estadística, y Juan María Peñalosa, director general de Estrategia, Personas y Datos, han elaborado un breve estudio relativo a cómo saber si una información es fiable, especialmente la que depende de datos o estadísticas.
Una parte de la información estadística que circula en la sociedad carece de una ‘denominación de origen’: se desconoce cómo y dónde se han obtenido los datos, incluso quién los ha elaborado. A veces las estadísticas se basan en unas pocas observaciones; en otras ocasiones simplemente se han replicado datos que, de buena fe, se toman como fiables. Las nuevas tecnologías, como la IA generativa, ofrecen múltiples oportunidades, pero también pueden dar lugar a la difusión de datos no contrastados. También se dan casos en los que no existe buena fe y que contribuyen al creciente fenómeno de la desinformación.
Hay información que distorsiona la realidad o que, incluso, es falsa, pero, en general, no somos totalmente conscientes de la importancia de la información estadística y de que esta provenga de una fuente fiable.
¿Qué se debe pedir a un dato o a una estadística para ser fiable?
Según los expertos del Banco de España, una estadística debería ser elaborada de forma cuidadosa, por alguien que no tenga ningún conflicto de intereses con el fenómeno que se quiere medir, bajo unas reglas establecidas y publicadas de antemano y difundida de una forma transparente.
Las estadísticas oficiales cumplen con estos requisitos: siguen unos principios metodológicos severos, idénticos a los que establece la comunidad internacional y que pueden ser verificados. Los funcionarios que las elaboran son independientes, neutrales, profesionales. En el caso español, se encuentran en el Instituto Nacional de Estadística, en el Banco de España y en otras instituciones públicas.
Para evitar la desinformación estadística, es necesaria una alta exigencia de calidad en las fuentes y en los procedimientos, que refuercen su calidad, rigor y fiabilidad, aunque esta tiene sin duda implicaciones en términos de agilidad.
Es probable una menor inmediatez en la publicación de resultados: garantizar que la información de las fuentes estadísticas es lo más completa posible, comprobar si esta es correcta y aplicar métodos rigurosos en su procesamiento requieren cierto tiempo, lo que dilata la difusión de resultados.
Requiere además tiempo para adaptarse a nuevos fenómenos: no es fácil en estos casos disponer de fuentes de información fiables, con una metodología consensuada internacionalmente, lo que dilata la incorporación de estadísticas sobre los fenómenos de reciente aparición.
No obstante, para recortar los tiempos existentes entre la observación de un fenómeno y su publicación, los estadistas están realizando esfuerzos en disponer de las fuentes de forma más temprana y en agilizar los procesos de tratamiento de los datos.
Para algunos estudios se ofrece información de ‘avance’, esto es, información estadística que utiliza aquellas fuentes de datos disponibles con más prontitud, completadas con estimaciones, y que ofrecen una buena aproximación al dato final. A esto contribuyen también las nuevas técnicas de tratamiento de la información (la ciencia de datos), que, además, mejoran la accesibilidad y la visualización de las estadísticas.
La tendencia de los estudios estadísticos es, por tanto, agilizar la producción, pero sin poner en riesgo la veracidad y el rigor de los datos, para así poder generar certidumbre cuando los bulos se apoderan de la conversación pública.