Surgimiento de la formulación axiomática de la teoría de la probabilidad
Miguel Ángel García Alvárez
UNAM


La teoría de la probabilidad, como disciplina matemática independiente, tuvo como base las soluciones que dieron Fermat, Pascal y Huygens, entre 1654 y 1657, a algunos problemas relacionados con juegos de dados. En el año 1713 se publicó el célebre teorema de Jacques Bernoulli, que lleva su nombre, el cual marcó una línea de investigación que se extendería por más de 200 años hasta llegar a la formulación general de lo que se conoce como los teoremas límite. Esto hizo que a principios del siglo XX la teoría de la probabilidad gozara de una gran popularidad. Sin embargo, sus fundamentos matemáticos no eran satisfactorios.

Durante los primeros 30 años del siglo XX, varios matemáticos importantes buscaron maneras de axiomatizar la teoría de la probabilidad. Paralelamente, con el surgimiento de la teoría de la medida de Lebesgue y su extensión a espacios abstractos, se fue dando un vínculo entre las dos teorías. Finalmente, en el año 1933, Kolmogorov publicó un artículo en el cual estableció la formulación de la teoría de la probabilidad que prevalece hasta nuestros días, la cual asume que la probabilidad es una medida, en particular una función aditiva.

En un inicio la identificación de la probabilidad con una medida se hizo únicamente en los problemas de probabilidades geométricas; por ejemplo, si A y B son dos subconjuntos de R2, medibles, de medida finita, y A B, entonces la medida de A dividida entre la medida de B puede considerarse como la probabilidad de que un punto que se selecciona al azar en el conjunto B pertenezca al conjunto A.

Sin embargo, la identificación de cualquier función de probabilidad con una medida resultó un problema más complicado. Había un impedimento serio para poder hacer esta identificación ya que la aditividad no era considerada como una propiedad de cualquier función de probabilidad. Émile Borel daba el siguiente ejemplo: supongamos que existe una manera de elegir, de entre la colección infinita de números enteros, uno de ellos al azar, de manera que cada uno de ellos tenga la misma probabilidad de ser seleccionado, esta probabilidad debería entonces ser nula, pero, si la función de probabilidad fuera aditiva, la suma de ellas debería ser igual a 1.

A pesar del ejemplo de Borel, hacia 1930 se llegó a un punto en el cual a cada variable aleatoria se le asociaba una medida sobre R y a cada familia de n variables aleatorias se le asociaba una medida sobre Rn. Pero quedaba por resolver un problema: ¿cómo asociarle una medida a una familia infinita de variables aleatorias? Es decir, se planteaba el problema de la construcción de medidas en espacios de dimensión infinita, el cual fue resuelto por Kolmogorov de manera general.


Regresar
Mitos y realidades de la estadística Eventos académicos en méxico Impacto de la Estadística Videos: Una mirada a la Estadística Instituto Nacional de Estadística y Geografía (INEGI)