Un político ha prometido bajar el número de pobres en España, subiendo el salario mínimo. Al año siguiente le informan que el número de pobres son los mismos. ¿Eso como va a ser? Sr Político, es que hemos definido umbral de pobreza como aquellos ingresos que están por debajo del 25% de la media, y si sube la media, pues….

Se publican encuestas electorales casi todos los días, y su grado de incertidumbre e inconsistencia es como mínimo asombroso. En unas leemos que el PP arrasa, y en otras que se hunde. En algunas vemos que PODEMOS es clave, y en otras que es irrelevante. Por otra parte, nos informan que un candidato es muy bien valorado, pero le vota nada más que el 15% del electorado. Y a otro con pésima valoración le vota el 45%. Dan ganas de decir: queredme menos y votadme más.

He tenido muchas discusiones con los investigadores sociológicos, y les he manifestado mi pobre entendimiento de las variables que usan, para mí algo ininteligibles. Nunca he entendido la necesidad de cosas como percentiles, cuartiles, quintiles y deciles, por ejemplo. Mientras la mayoría de la población tiene problemas para distinguir entre media, mediana y moda. Lo mismo me ocurre con los estudios de mercado en los que hay que basar la decisión de inversión en un producto, así como sus características.
Los sociólogos me argumentan: usamos una muestra suficientemente representativa, segmentada, y por eso nuestra fiabilidad es del X %. Pocas veces me dicen como calculan dicha fiabilidad, es decir con qué variable miden la certeza. Las muestras suelen ser, por lo que veo en la ficha técnica de las encuestas, de unos 3.000 entrevistados, caso del CIS último. En este caso tiene a bien informarnos que “para un nivel de confianza del 95,5% (dos sigmas), y P = Q, el error real es de ±1,8% para el conjunto de la muestra y en el supuesto de muestreo aleatorio simple”. Tampoco es mucho. El error real sería el resultado de comparar los resultados electorales reales con los previstos por la encuesta, y ahí nos vamos a mucho más del 1,8%, como sabemos. Nos dicen que hay algo llamado “cocina”, neologismo para designar algo antiguo; eliminar datos que me estropean el resultado que quiero, en una palabra. Algo que también se hace en medidas científicas. De ahí que lo primero que hace un buen revisor de publicaciones científicas es estudiar a fondo el método estadístico utilizado. Y se encuentran sorpresas. Incluso se sospecha del bueno de Galileo y sus medidas de tiempos de caída de la bolita en su experimento del plano inclinado. Tanta precisión con relojes del siglo XVII hace sospechar. Raro es el día que la prensa no nos “informa” que comer 100 gramos de brócoli por semana puede alargar la vida en un 5%. Nada menos. Como también se afirma que lo mismo ocurre con el te verde, la quinoa, los ácidos omega-lo que sean, y hasta con la rúcula al pesto, de los cuales, en caso de ser efectos acumulativos, podemos esperar un mundo de matusalenes en breve.

Esta “cocina”, además, intenta asignar los votos a dos grandes partidos: el de “voto en blanco” y el de “no sabe no contesta” a otros partidos. Y supongo que ahí entra en desfile triunfal lo que ellos llaman “sesgo”, que no es otra cosa que a ver como cuadro los datos para que los porcentajes sumen 100. Y no aparezcan resultados que, aunque la ciencia estadística los avale, produzcan extrañeza a los agentes sociales y algún “lidereso” no vocifere con el atávico: “¿Pero eso como va a ser?”
La razón por la que soy muy escéptico con la estadística sociológica es de índole muestral y de aplicación. La Estadística como ciencia matemática se consolida a principios del siglo XIX, con los clásicos trabajos de Gauss y la distribución normal (la famosa “campana” cuya función continua ilustra este artículo; imagen del libro “17 ecuaciones que cambiaron el mundo” de Ian Steward), de Poisson, y de otros. Estas funciones estadísticas se crearon para describir unos modelos físico-químicos de imposible cuantificación por medios no estadísticos, y uno de sus grandes éxitos fue la Mecánica Estadística, y su aplicación a la Teoría Cinética de Gases (función de distribución estadística de Maxwell-Boltzmann), que describe bastante bien cómo funciona un gas en un recinto, así como entender que es la presión y la temperatura. Estas estadísticas se diseñaron para unas “poblaciones” muy selectas. Un conjunto de moléculas muy elevado, del orden de 10 seguido de 23 ceros (Número de Avogadro), las cuales, además, son exactamente iguales unas a otras. Y todas siguen las mismas leyes del movimiento, del electromagnetismo, y de la termodinámica. Y en esas condiciones la estadística funciona de maravilla.
Pero en el terreno social, donde hay que prever un comportamiento a partir de lo que un ser humano contesta a preguntas, las cosas se ponen muy difíciles. La muestra es ridícula, 3 ceros frente a 23. Y cada “molécula-persona entrevistada” es diferente a otra. Además, los entrevistados pueden no entender la pregunta, contestar lo que creen correcto políticamente, aunque en el anonimato del voto hagan lo que realmente piensan, cambiar de opinión el día antes de las elecciones (incluso la encuestas “a pie de urna” fallan) e incluso contestar lo contrario a lo que van a hacer por un cierto gamberrismo sociológico. Hasta se habla que las encuestas condicionan el voto futuro. Y que una eventualidad como los masters y los chalets societario-limitados pueden variar un voto.

Los sociólogos saben esto, y me contraargumentan diciendo que introducen filtros para eliminar aberraciones, que hay controles de falsos positivos y negativos, que la selección de la muestra es muy rigurosa y se somete a test de consistencia interna y fiabilidad. Muy bien, seguro que es así. Pero ello no evita que nos enfrentemos a un sistema en el que los elementos son impredecibles, los seres humanos, sujetos a leyes de comportamiento poco conocidas y hasta caóticas y erráticas, cuando no de puro capricho. Influenciables por casi cualquier cosa, y más en un mundo algo “tontificado” por el excesivo valor que se da a la “redes sociales” y al periodismo de exclusiva.

Me he sentido muy inseguro cuando he encargado un estudio de voluntad de compra de un consumidor (para productos de autocuidado de la salud, me refiero), sobre si será mejor aceptado un anticatarral con sabor a limón o a nada, en comprimido efervescente o en sobre tipo “stick”, o si los pacientes pagarían más de 10 € por él. Con esos datos estadísticos, generalmente presentados en gráficos de muy compleja interpretación, uno debe lanzarse al mercado y que sea lo que Dios quiera. O tomar una decisión de adelantar elecciones y perderlas, en el campo político.

Otro factor de incertidumbre es cuando se entrevista a un individuo de una organización o colectivo y su respuesta se toma como opinión absoluta de la misma. Me refiero a esas noticias en las que se lee: “El 56% de las empresas es contrario a al impuesto turístico”, por ejemplo. Todo ello con unas cuantas llamadas de teléfono a varias empresas, donde en algunas contesta el Director de Comunicación, en otras el Financiero y en otras alguien que pasaba por allí. También sorprenden esas noticias en las que se nos informa que la mitad de los casos de violencia juvenil en Cataluña se dan en el área metropolitana de Barcelona. No esperábamos que fuera en la tranquila Reus. La Estadística está cayendo a extremos de peligrosa banalidad. Lean ustedes los comentarios de periodistas cuando se publica una encuesta electoral: “PODEMOS baja en intención de voto en un 0,85%”. A la vez leemos que el margen de error es de un 2%. A lo mejor ha subido un 1% y ni lo sabemos.

Un aspecto en el que se ve de forma ominosa esta banalidad es en las estadísticas de asesinatos de mujeres y en los accidentes de tráfico. Yo solo veo datos en los que se me dice que a tal fecha han muerto tantas mujeres a manos de sus parejas, exparejas o lo que sean. Y que es un X % más que el año pasado. Pero nunca observo que alguien (los famosos observatorios, algo deberían hacer, aparte de gastar dinero subvencionable) proponga hacer una buena estadística: quien es el asesino, que vida ha llevado, país de origen (sí, no es xenofobia, es saber si en algunos países a los niños se les enseña que pegar a una mujer es muy guay, y las acciones educativas en género hay que hacerlas en lejanos desiertos y remotas montañas), entorno laboral y social, alcoholismo y estupefacientes, nivel económico, y cuantas variables creamos que podemos medir, pesar y contar. Y los mismo con las asesinadas. No es correcto políticamente, pero se me hace difícil pensar que a Bette Davis algún maromo le pusiera la mano encima sin acabar tirado en una cuneta de Los Ángeles. Ni que alguien abusase sexualmente de Mae West sin su expreso consentimiento, so pena de encontrarte nadando en una piscina de Beverly Hills con corbata y traje. Sin conocer a fondo un problema es difícil solucionarlo.

En cuanto a los accidentes de tráfico digo lo mismo. Me hablan de víctimas por año, un % más o menos que el año pasado. Pero con el escueto y socorrido aserto de fin de noticia: “las causas son la velocidad, las distracciones (el móvil) y el alcohol”. Así dicho, parece muy simple. Pero falta un análisis estadístico: tipo de vía, estado, equipamiento de seguridad y edad del vehículo, experiencia del conductor (no sólo “años de carnet”), nivel cultural, antecedentes por hechos violentos, estilo de vida, historial de horas previas al accidente, y como antes, todo lo que sea relevante.
La Estadística no sirve para mucho si no es predictiva, y se sabe el error estimado con fiabilidad. No consiste sólo en arrojar un % y de ahí inferir las consecuencias más alocadas. Las estadísticas de las ciencias físico-químicas tienen una gran ventaja: predicen medidas futuras, con errores bien controlados, fundamentalmente porque trabajan con muestras muy grandes y con elementos homogéneos. Las sociales no pueden hacer eso, por ello mi disputa con los amigos sociólogos sigue abierta.
Reza la Ley de Williams y Holland: Si se reúnen suficientes datos, se puede demostrar cualquier cosa con ayuda de la estadística.