El azar, ese misterioso vocablo del que tanto se ha abusado, se debe considerar nada más que como un velo para nuestra ignorancia; es un espectro que domina de forma absoluta la mente común, acostumbrada a considerar los acontecimientos de un modo aislado, pero que queda reducido a nada ante el filósofo, cuyo ojo abarca largas series de eventos y cuya lucidez no se extravía en variaciones, que desaparecen cuando adquiere una perspectiva suficiente para aprehender las leyes de la naturaleza.
[157]
La importancia de esta conclusión es fundamental. En esencia, Quetelet negaba el papel del azar y lo sustituía por la audaz (aunque no del todo demostrada) inferencia de que incluso los fenómenos sociales poseen causas y que las regularidades que presentan los resultados estadísticos se pueden emplear para desentrañar las reglas que subyacen al orden social.
Con la intención de probar la validez de su punto de vista estadístico, Quetelet puso en marcha un ambicioso proyecto de recopilación de miles de medidas relacionadas con el cuerpo humano. Estudió, por ejemplo, la distribución de medidas de pecho de 5.738 soldados escoceses, y de altura de 100.000 reclutas franceses, y representó gráficamente la
frecuencia
de aparición de cada rasgo humano. En otras palabras, representó el número de reclutas cuya altura estaba entre, por ejemplo, 150 y 155 centímetros, luego entre 155 y 160 centímetros, etc. Luego construyó curvas similares incluso para aquellos rasgos «morales» (según él los denominaba) de los que poseía suficientes datos. Entre estas cualidades se hallaba la propensión al comportamiento criminal, los suicidios y los matrimonios. Para su sorpresa, Quetelet descubrió que todas las características humanas siguen lo que ahora se denomina una distribución de frecuencias
normal
(o
gaussiana,
por el nombre del «príncipe de la matemática» Carl Friedrich Gauss, aunque no está demasiado justificado el porqué de esta denominación), con forma de campana (figura 33).
Ya se tratase de alturas, pesos, longitudes de extremidades o incluso cualidades intelectuales determinadas a través de los antepasados de los tests psicológicos, una y otra vez aparecía el mismo tipo de curva. La curva no era desconocida para Quetelet; los matemáticos y los físicos la conocían desde mediados del siglo XVIII, y Quetelet estaba familiarizado con ella por su trabajo en astronomía; lo asombroso fue la asociación de esta curva con características humanas. Anteriormente, se la solía denominar curva de error, porque solía aparecer en cualquier tipo de errores de medida.
Imaginemos, por ejemplo, que debe medir con mucha precisión la temperatura de un líquido en un recipiente. Puede utilizar un termómetro de alta precisión y tomar mil medidas a lo largo de un período de una hora. Debido a errores aleatorios y posiblemente a fluctuaciones en la temperatura, hallará que no todas las mediciones dan exactamente el mismo valor, sino que tienden a agruparse alrededor de un valor central; algunas mediciones dan un valor superior y otras, uno inferior. Si representa el número de veces que aparece cada medida en función de la temperatura, obtendrá el mismo tipo de curva en forma de campana que Quetelet halló para las características humanas. De hecho, cuanto mayor sea el número de mediciones efectuadas de cualquier magnitud física, más se aproximará la distribución de frecuencias a la
curva normal.
La influencia inmediata de este hecho en la cuestión de por qué las matemáticas son tan extraordinariamente eficaces es bastante espectacular:
¡incluso los errores humanos obedecen leyes matemáticas estrictas!
Quetelet llegó incluso más allá en sus conclusiones: consideró que el hecho de que las características humanas siguiesen la curva de error era indicativo de que el «hombre medio» era lo que la naturaleza estaba tratando de generar.
[158]
Según Quetelet, igual que los errores de fabricación crearían una distribución de longitudes alrededor de la longitud promedio (correcta) de un clavo, de igual modo los errores de la naturaleza estaban distribuidos alrededor de un tipo biológico preferible, y afirmó que las personas de una nación estaban agrupadas alrededor de su promedio «de igual modo que los resultados de mediciones efectuadas sobre una misma persona, pero con instrumentos imprecisos que justificasen el tamaño de la variación».
No hay duda de que Quetelet llevó sus especulaciones demasiado lejos. Aunque su descubrimiento de que las características biológicas (físicas o mentales) están distribuidas según la curva de frecuencias normal fue excepcionalmente importante, este factor no podía interpretarse como una prueba de las
intenciones
de la naturaleza, ni juzgar como meros errores las características individuales. Por ejemplo, Quetelet halló que la altura media de los reclutas franceses era de 163 centímetros. Sin embargo, en el extremo inferior halló un hombre que medía 43 centímetros. ¡Es obvio que uno no se puede equivocar en más de 120 centímetros al medir la altura de un hombre de 163 centímetros!
De todos modos, aunque no hagamos mucho caso de las ideas de Quetelet acerca de las «leyes» para fabricar seres humanos a partir de un mismo molde, el hecho de que las distribuciones de los diversos rasgos, desde pesos a niveles de cociente intelectual, sigan la curva normal es notable por sí mismo. Y por si eso fuera poco, incluso la distribución de los promedios de bateo en la liga de primera división de béisbol es bastante próximo a la normal, como lo es el rendimiento anual de los índices bursátiles (que se componen de numerosos valores individuales). De hecho, a veces vale la pena examinar con atención las distribuciones que se desvían de la curva normal. Por ejemplo, si se hallase que la distribución de las notas de inglés de un determinado colegio no sigue la curva normal, esto podría provocar una investigación en las prácticas de calificación de ese colegio. Esto no significa que todas las distribuciones sean normales. La distribución de la longitud de las palabras utilizadas por Shakespeare en sus obras no es normal. Shakespeare utilizaba muchas más palabras de tres y cuatro letras que de once o doce. Los ingresos anuales por familia en Estados Unidos están representados también por una distribución muy alejada de la normal. El pico se halla en unos ingresos de entre 10.000 y 20.000 USD, que corresponde al 13 por 100 de las familias, pero la gráfica posee también un pico significativo (que corresponde aproximadamente a un 10 por 100 de las familias) en el intervalo de entre 100.000 y 150.000 USD, lo que suscita una interesante pregunta: si tanto las características físicas como las intelectuales de los seres humanos (que, es de suponer, determina el potencial de ingresos) están distribuidas según la curva normal, ¿por qué no lo están los ingresos? Pero la respuesta a estas cuestiones socioeconómicas va más allá del ámbito de este libro. Desde nuestra limitada perspectiva actual, el hecho sorprendente consiste en que prácticamente todos los detalles mesurables de los seres humanos (de una etnia determinada) están distribuidos según un solo tipo de función matemática.
Históricamente, los rasgos humanos no sólo sirvieron como base para el estudio de las
distribuciones de frecuencia
estadísticas, sino también para establecer el concepto matemático de
correlación.
La correlación mide el grado en que los cambios en el valor de una variable están acompañados por cambios en otra. Por ejemplo, es de esperar que las mujeres altas lleven zapatos más grandes. De forma similar, los psicólogos hallaron una correlación entre la inteligencia de los padres y el éxito escolar de los hijos.
El concepto de correlación resulta especialmente útil en las situaciones en que no hay una dependencia
funcional
precisa entre las dos variables. Imaginemos, por ejemplo, que una variable es la temperatura diurna máxima en el sur de Arizona, y la otra, el número de incendios forestales en esa región. Para un determinado valor de temperatura, no es posible predecir con exactitud el número de incendios que ocurrirán, ya que esto depende de otras variables como la humedad y el número de incendios provocados. En otras palabras, para un valor específico de temperatura podría haber muchos valores correspondientes de incendios forestales y viceversa. Sin embargo, el concepto matemático denominado
coeficiente de correlación
nos permite medir de forma cuantitativa la intensidad de la relación entre dos variables.
La persona que introdujo por vez primera la herramienta del coeficiente de correlación fue el geógrafo, meteorólogo, antropólogo y estadístico victoriano sir Francis Galton (1822-1911).
[159]
Galton —que, por cierto, era primo lejano de Charles Darwin— no era un matemático profesional. Como era una persona de extraordinaria versatilidad y gran sentido práctico, solía dejar las sutilezas matemáticas de sus innovadores conceptos a otros matemáticos, en especial al estadístico Karl Pearson (1857-1936). Galton explicaba así el concepto de correlación:
La longitud del cúbito [el antebrazo] está correlacionada con la estatura, ya que un cúbito largo implica en general un hombre alto. Si la correlación entre ellas es muy próxima, un cubito muy largo implicaría una gran estatura; en cambio, si no lo es tanto, un cúbito muy largo estaría asociado en promedio con una estatura simplemente alta, pero no muy alta; mientras que, si la correlación fuese
nula,
un cubito muy largo no estaría asociado con ninguna estatura en particular y, por consiguiente, en promedio, con la mediocridad.
Pearson formuló una definición matemática precisa del coeficiente de correlación. El coeficiente se define de modo que, cuando la correlación es muy alta, es decir, cuando una variable sigue de cerca las subidas y bajadas de la otra, el valor del coeficiente es de 1. Cuando dos cantidades presentan
correlación inversa,
es decir, cuando una aumenta la otra disminuye y viceversa, el coeficiente es igual a -1. Cuando una variable se comporta como si la otra no existiese y viceversa, el coeficiente de correlación es 0. (Por desgracia, el comportamiento de algunos gobiernos muestra una correlación cercana a cero con los deseos de las personas a las que supuestamente representan.)
La investigación médica moderna y las previsiones económicas dependen esencialmente de la identificación y cálculo de correlaciones. Los vínculos entre el tabaco y el cáncer de pulmón y entre la exposición al sol y el cáncer de piel, por ejemplo, se establecieron inicialmente mediante el descubrimiento y evaluación de correlaciones. Los analistas del mercado de valores se estrujan continuamente el cerebro para hallar y cuantificar las correlaciones entre el comportamiento del mercado y otras variables, un descubrimiento que potencialmen te puede reportarles pingües beneficios.
Los primeros estadísticos pronto se dieron cuenta de que la recogida de datos estadísticos y su interpretación pueden ser asuntos delicados, y deben llevarse a cabo con una exquisita atención. Un pescador que utilice una red con agujeros de 25 centímetros de lado podría llegar a la conclusión de que todos los peces miden más de 25 centímetros, por el simple hecho de que los menores se libran de su red. Se trata de un ejemplo de los
efectos de selección,
sesgos que se introducen en los resultados debido al procedimiento utilizado para recoger los datos o a la metodología. El muestreo presenta otro problema. Por ejemplo, las actuales encuestas de opinión no entrevistan más que a unos cuantos miles de personas. ¿Cómo pueden los encuestadores estar seguros de que los puntos de vista expresados por los miembros de su muestra representan correctamente la opinión de cientos de millones de personas? Otro de los aspectos que se debe tener en cuenta es que
correlación
no necesariamente implica
causalidad.
Las ventas de tostadoras pueden elevarse al mismo tiempo que crece el número de personas que asisten a conciertos de música clásica, pero eso no implica que la presencia de una nueva tostadora en una casa mejore la capacidad de apreciar la música. Posiblemente, ambos efectos están causados por una mejora en la economía.
A pesar de estos importantes riesgos, la estadística se ha convertido en uno de los instrumentos más eficaces de la sociedad moderna, al elevar las ciencias sociales al rango de ciencias, precisamente. Pero en realidad, ¿por qué funciona la estadística? La respuesta la tenemos en la matemática de la
probabilidad,
que domina numerosos aspectos de la vida moderna. Desde los ingenieros que deciden los mecanismos que se deben instalar en un vehículo tripulado de exploración para garantizar la seguridad de los astronautas a los físicos de partículas que analizan el resultado de los experimentos en aceleradores, los psicólogos que califican tests de inteligencia de niños, las empresas que evalúan la eficacia de nuevos fármacos o los genetistas que estudian la herencia humana, todos ellos deben utilizar la teoría de probabilidades.
Los inicios del estudio serio de la probabilidad fueron muy modestos:
[160]
se trataba de jugadores que intentaban ajustar sus apuestas a sus posibilidades de éxito. En particular, a mediados del siglo XVII, un noble francés —el caballero de Méré—, que era también un celebrado jugador, dirigió varias preguntas sobre juegos y apuestas al famoso matemático y filósofo francés Blaise Pascal (1623-1662). En 1654, Pascal mantuvo abundante correspondencia acerca de estas cuestiones con el otro gran matemático francés de la época: Pierre de Fermat (1601-1665). Se puede afirmar que la teoría de probabilidades nació en este intercambio epistolar. Vamos a examinar uno de los fascinantes casos comentados por Pascal en una carta de fecha 29 de julio de 1654.
[161]
Imaginemos que dos nobles están enfrascados en un juego en el que lanzan un único dado. Cada jugador ha puesto sobre la mesa 32 monedas de oro. El primer jugador elige el número 1 y el segundo jugador, el 5. Cada vez que aparece el número que ha elegido uno de los jugadores, éste obtiene un punto. El ganador es el primero que consiga tres puntos. Supongamos, sin embargo, que, después de jugar durante un rato, el número 1 ha aparecido dos veces (de modo que el jugador que lo había elegido tiene dos puntos) mientras que el número 5 sólo ha aparecido una vez (de modo que su oponente tiene únicamente un punto). Si, por cualquier razón, el juego tuviera que interrumpirse en ese momento, ¿cómo deberían repartirse los dos jugadores las 64 monedas de la mesa? Pascal y Fermât hallaron la respuesta matemáticamente lógica. Si el jugador con dos puntos ganase la siguiente tirada, las 64 monedas serían suyas. Si la perdiese, ambos jugadores tendrían dos puntos, así que cada uno de ellos obtendría 32 monedas. Por tanto, si los jugadores se separan sin efectuar la siguiente tirada del dado, el primer jugador podría argumentar correctamente: «Poseo con seguridad 32 monedas, aunque perdiese la siguiente tirada; por lo que respecta a las otras 32, puede que las tenga o puede que no, las posibilidades son iguales. Vamos entonces a dividir estas 32 monedas a partes iguales, y me llevo también las 32 monedas que tengo seguras». En otras palabras, el primer jugador debería quedarse con 48 monedas y el segundo, con 16. Parece increíble que una nueva disciplina matemática de gran profundidad haya podido surgir de un tipo de discusión aparentemente trivial como éste, ¿verdad? Sin embargo, ésta es precisamente la razón de la «inexplicable» y misteriosa eficacia de la matemática.