42
Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno TEMA 1: DISTINTAS CONCEPCIONES DE PROBABILIDAD 1. Introducción 2. Desarrollo histórico del Cálculo de Probabilidades 2.1 La Teoría del Azar antecedente de la Teoría de Probabilidad (Civilizaciones Antiguas hasta el Renacimiento). 2.2 Primeros fundamentos de la Teoría de Probabilidad aplicados a los juegos de azar (XVI-comienzo del XVIII). 2.3 Formulación de la Teoría Clásica de la Probabilidad aplicada a la Física y Astronomía (XVIII-comienzo del XIX). 2.4 Nacimiento de la Teoría Matemática de Probabilidad (XIX-XX). 2.5 Cronología de las distintas concepciones de Probabilidad. 3. Concepción Clásica de Probabilidad 3.1 Antecedentes y Principios. 3.2 Definición. Propiedades. 3.3 Objeciones y Ventajas. 4. Concepción Frecuentista de Probabilidad 4.1 Antecedentes y Principios. 4.2 Definición. Propiedades. 4.3 Objeciones y Ventajas. 5. Concepción Lógica de Probabilidad 5.1 Antecedentes y Principios. 5.2 Definición. Propiedades. 5.3 Objeciones y Ventajas. 6. Concepción Subjetiva de Probabilidad 6.1 Antecedentes y Principios. 6.2 Definición. Propiedades. 6.3 Objeciones y Ventajas.

T1virtual Def

Embed Size (px)

Citation preview

Page 1: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

TEMA 1: DISTINTAS CONCEPCIONES DE PROBABILIDAD 1. Introducción 2. Desarrollo histórico del Cálculo de Probabilidades 2.1 La Teoría del Azar antecedente de la Teoría de Probabilidad (Civilizaciones Antiguas hasta el Renacimiento).

2.2 Primeros fundamentos de la Teoría de Probabilidad aplicados a los juegos de azar (XVI-comienzo del XVIII).

2.3 Formulación de la Teoría Clásica de la Probabilidad aplicada a la Física y Astronomía (XVIII-comienzo del XIX).

2.4 Nacimiento de la Teoría Matemática de Probabilidad (XIX-XX). 2.5 Cronología de las distintas concepciones de Probabilidad.

3. Concepción Clásica de Probabilidad

3.1 Antecedentes y Principios. 3.2 Definición. Propiedades. 3.3 Objeciones y Ventajas.

4. Concepción Frecuentista de Probabilidad

4.1 Antecedentes y Principios. 4.2 Definición. Propiedades. 4.3 Objeciones y Ventajas.

5. Concepción Lógica de Probabilidad

5.1 Antecedentes y Principios. 5.2 Definición. Propiedades. 5.3 Objeciones y Ventajas.

6. Concepción Subjetiva de Probabilidad

6.1 Antecedentes y Principios. 6.2 Definición. Propiedades. 6.3 Objeciones y Ventajas.

Page 2: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

2

1. Introducción

La Estadística actual es el resultado de la unión de dos disciplinas que evolucionan independientemente hasta confluir en el siglo XIX. Estas son, el Cálculo de Probabilidades y la Estadística Descriptiva.

La Estadística Descriptiva, originariamente llamada Ciencia del Estado (el término viene del latín Status), tiene por objetivo ‘describir numéricamente conjunto numerosos’. Aporta métodos de presentación, ordenación y síntesis, visual y numérica, de la información recogida. Su nacimiento se puede situar en el segundo milenio a.d.C., cuando comenzaron a realizarse los primeros censos de población en la China del emperador Yao.

El Cálculo de Probabilidades tiene por objetivo ‘modelizar matemáticamente fenómenos aleatorios’. Parte del concepto de Probabilidad, con el fin de cuantificar la incertidumbre que rodea a tales fenómenos, y desarrolla una metodología encaminada a construir modelos que expliquen su comportamiento. Esta disciplina nace en el siglo XVII como teoría matemática que intentaba explicar los juegos de azar, (dados, cartas,...). Estas dos disciplinas evolucionarán de forma independiente, aunque con el tiempo, estarán íntimamente relacionadas. El Cálculo de Probabilidades resultará imprescindible para el desarrollo de la Estadística, y ésta permitirá desarrollar todo el potencial práctico de la primera, siendo natural que ambas se presenten conjuntamente en cualquier estudio. Esta conjunción se producirá en la segunda mitad del siglo XIX, cuando Dalton aplica un razonamiento estadístico-probabilista a la verificación de las teorías de Darwin. En este momento se situa los antecedentes de la llamada Estadística Matemática o Inferencial.

La Estadística Matemática tiene como objetivo ‘extraer conclusiones sobre el comportamiento de poblaciones a partir, fundamentalmente, de la información aportada por muestras, utilizando modelos de probabilidad’. El razonamiento es inductivo: a partir de los datos experimentales, infiere propiedades, características, etc. de las poblaciones en términos de probabilidad.

Durante todo el siglo XX, el desarrollo de ambas disciplinas, estimulado por una acción continua y recíproca entre la teoría y las aplicaciones, ha sido prácticamente imparable. Hoy es básica la consideración de estas disciplinas en las Ciencias Aplicadas que requieren el análisis y extracción de consecuencias de datos, (Economía, Sociología, Psicología, Física, Ingenierías,...). La Estadística se ha consolidado como la tecnología del método científico-experimental.

En el primer bloque del Programa estudiamos y discutimos la evolución histórica de estas disciplinas, así como los grandes problemas que han permitido la generación y avance de concepciones, modelos y métodos tanto del Cálculo de Probabilidades (Tema1), como de la Estadística (Tema 2).

Page 3: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

3

Estadística Descriptiva Estadística Matemática ______________________ ________________________ (XX a.d.C.) (XIX) Disciplina Descriptiva Disciplina Explicativa-Inductiva Objetivo: Objetivo: - Ordenación y presentación Ampliación del conocimiento de de datos poblaciones a partir de muestras - Síntesis visual y numérica aleatorias mediante modelos de de datos probabilidad Cálculo de Probabilidades _______________________ (XVII) Disciplina Deductiva Objetivo: Modelización matemática de fenómenos aleatorios

Page 4: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

4

2. Desarrollo Histórico del Cálculo de Probabilidades 2.1 La Teoría de Azar antecedente de la Teoría de Probabilidad (Civilizaciones Antiguas hasta el Renacimiento) En sus comienzos, el propósito de la Teoría de la Probabilidad fue el estudio de las manifestaciones más simples del azar: experiencias relativas a juegos. El fin último era calcular probabilidades interesantes en tales juegos.

Actualmente se puede afirmar que los juegos de azar tienen una antigüedad de más de 40.000 años. Así lo confirman excavaciones arqueológicas, en donde aparecen abundantemente huesos de astrágalos de ovejas y ciervos, que pueden considerarse el antecedente inmediato del dado. Su utilización también ha sido documentada en culturas posteriores como la egipcia, griega o romana. En las Pirámides de Egipto, por ejemplo, se han encontrado pinturas que muestran juegos de azar que proceden de la primera dinastía (3.500 a.d.C.). Los dados más antiguos que se han encontrado se remontan a unos 3000 años a.d.C., y se utilizaron tanto en el juego como en las ceremonias religiosas.

En las civilizaciones antiguas, el azar se explicaba mediante la voluntad divina. Los oráculos, sacerdotes y pitonisas de Grecia y Roma utilizaban la configuración resultante de tirar cuatro dados, para predecir el futuro y revelar la voluntad favorable o desfavorable de los dioses, (por ejemplo, la combinación Venus, aparición del 1,3,4 y 6, se considerable favorable). En Asia Menor se ha descubierto una completa descripción de la interpretación profética de los posibles resultados. Prácticas similares se han encontrado también en culturas tan distantes como la Tibetana, India o Judía. Esta actitud se manifestaba también en cualquier fenómeno de tipo aleatorio: presencia de fenómenos climáticos, duración de la vida, etc. El pedagogo Piaget, nota que esta actitud mágica ante el azar se manifiesta igualmente en los niños.

Sin embargo, a pesar de la gran afición a los dados entre egipcios, griegos y romanos, estos no advirtieron que en un gran número de jugadas, si el dado estaba bién construido, se tendía a obtener el mismo número de veces cada cara. Estudiosos de la materia sostienen que una de las causas de que el desarrollo del Cálculo de Probabilidades se retrasara durante siglos fue no reparar en la equiprobabilidad de los resultados elementales asociados a muchas experiencias aleatorias. Los estadísticos E.S. Pearson y M.G. Kendall, concluyeron que, aunque muchos dados estarían bien construidos, las siguientes cuatro razones serían las auténticas responsables de no advertir la equiprobabilidad de sus caras:

1) Trabas morales y religiosas sobre la idea de aleatoriedad 2) Superstición de los jugadores 3) Ausencia de una notación de los juegos de azar 4) Ausencia de una Teoría Combinatoria

Page 5: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

5

Durante la Edad Media, y en el seno del Cristianismo, estos planteamientos apenas evolucionan. Figuras tan representativas del pensamiento de la época como S. Agustín (354-430), defienden que todo acontecimiento sucede por la voluntad de Dios. Sería a partir de Santo Tomás de Aquino (1226-1274), cuando se comienza a considerar que el azar y la suerte existen. En el Renacimiento surge una nueva visión del mundo que permite paulatinamente ir desligándose de las implicaciones teológicas. Como consecuencia de este replanteamiento del pensamiento, los experimentos de naturaleza aleatoria serán objeto de estudio por si mismos. La invención de la imprenta a mediados del siglo XV, permitirá difundir los conocimientos, y ello impulsará definitivamente el desarrollo del Cálculo de Probabilidades.

2.2 Primeros fundamentos de la Teoría de Probabilidad aplicados a juegos de azar (XVI-comienzo XVIII) A partir del siglo XVI, los matemáticos italianos comienzan a estudiar experimentos aleatorios simples. Los más representativos serán Cardano y Galileo Galilei. Gerolamo Cardano (1501-1576), es considerado el autor del mejor manual escrito para un jugador de la época, “De Ludo Alae”, (1526). Este resuelve varios problemas de Análisis Combinatorio, y establece la equiprobabilidad de las caras de un dado cuando este se lanza un gran número de veces. El matemático, físico y astrónomo Galileo Galilei (1564-1642), destaca por la originalidad y claridad de su pensamiento. Su interés por la probabilidad surgió después de que un amigo le consultara porqué, si se juega con tres dados y se suman los puntos, el 10 se obtiene en la práctica más veces que el 9, si ambos resultados se obtienen mediante seis combinaciones diferentes. Galileo dedujo que era necesario considerar el orden de cada posible combinación, cuestión que hasta ese momento no se había planteado. De esta forma, de las 216 combinaciones posibles y equiprobables (considerando el orden en cada combinación), los casos favorables a la obtención del 9 eran 25, y al 10 eran 27. Por tanto éste argumentó que la diferencia empírica entre obtener uno u otro número era de (2/216)≅0.01. Esto demuestra cómo a finales del siglo XVI existía un intuitivo, pero preciso análisis empírico de resultados aleatorios. Los primeros fundamentos de la Teoría de Probabilidad iran apareciendo lentamente durante los siglos XVI y XVII, gracias a autores como Pascal y Fermat. Muchos sitúan el origen del Cálculo de Probabilidades en la resolución del Problema de los Puntos, resuelto por estos mediante correspondencia escrita. Blais Pascal (1623-1662), se introdujo en la Teoría de la Probabilidad analizando matemáticamente juegos de azar. Posteriormente se desmarcaría de las aplicaciones y publicaría “Apuesta por la creencia de Dios”, en la que aparece de forma implícita la noción de ‘Probabilidad Personal o Subjetiva’, la más adecuada para los procesos de decisión. Será el pionero en la introducción de los elementos básicos de lo que será un ‘Problema de Decisión’. (El problema originario es el de un hombre que ante la incertidumbre sobre la existencia de Dios, tiene que decidir entre llevar una vida al margen de las normas de la religión cristiana, o una vida siguiendo éstas).

Page 6: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

6

Pierre Fermat (1601-1665), es llamado el padre de la Teoría de los Números, rama de las Matemáticas que estudia las propiedades de los números enteros. Fermat formuló muchos teoremas importantes que no fueron demostrados hasta después de su muerte. Para muchos investigadores su contribución más importante fue al estudio, junto con Pascal, del ‘Problema de los Puntos’. Este fue propuesto por Chevalier De Meré, gran jugador de la época, a Pascal, y este, a su vez, se lo comunicó a Fermat. El estudio conjunto del problema lo llevaron a cabo a través de cinco cartas que intercambiaron en el verano de 1654. El Problema de los Puntos consistía en determinar el reparto del dinero de las apuestas si los jugadores tuvieran que finalizar la partida, sin que existiera un ganador, (el juego en la Francia de la época estaba prohibido y era perseguido por la policía). La solución, que Pascal denominó ‘Método Universal’ y que puede identificarse con lo que entendemos hoy por Esperanza Matemática, asumía inicialmente dos cuestiones:

i) El juego era justo: todos los jugadores poseían la misma habilidad y, por lo tanto, la misma probabilidad de ganar una partida. ii) Las habilidades físicas y psíquicas de los jugadores permanecían inalterables: las partidas eran independientes.

Aunque cuestiones de este tipo fueron ya presentadas en antiguos manuscritos italianos, y matemáticos del Renacimiento como Pacioli, Tartaglía o Cardano realizaron esfuerzos infructuosos en busca de una solución satisfactoria, el estudio conjunto de Pascal y Fermat sería el que establecería la solución del problema. Desde la segunda mitad del siglo XVII hasta comienzos del XVIII, el Cálculo de Probabilidades se consolida como una disciplina independiente. En esta época destaca la figura de Huygens. Christian Huygens (1629-1695), fue un matemático, hijo de un filósofo y diplomático que tubo acceso a los más importantes círculos científicos, incluida la compañía de Descartes, el cual influiría determinantemente en su educación matemática. Huygens tubo conocimiento de los trabajos sobre probabilidad desarrollados por Pascal y Fermat, y publicó en 1657 “Sobre el Razonamiento de los Juegos de Azar”, considerada la aportación más importante a la Teoría de la Probabilidad en la segunda mitad del siglo XVII. Esta servirá como texto de referencia hasta principios del siglo XVIII, causando una amplia influencia en los investigadores de la época. Esta obra constituyó el primer tratado sistemático sobre probabilidades, con una clara y concisa exposición de 14 proposiciones que marcaron los principios fundamentales del Cálculo de Probabilidades en el ámbito de problemas relacionados con juegos de azar.

En la principal obra de Huygens se vuelve a discutir el ‘Problema de los Puntos’ para 2 jugadores, con un método similar al de Pascal y Fermat y con 3 jugadores. Al final del tratado se propone 5 problemas, en los que investigarán posteriormente James Bernoulli, Pierre Remond de Montmort, Nicholas Bernoulli, Abrahams De Moivre y Pierre Simon de Laplace.

Page 7: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

7

Aquí se encontrarán las primeras nociones sobre ‘Muestreo’ y ‘Esperanza Matemática’ (resuelve un problema de juego en el que tiene que asignar un valor a éste, combinando las cantidades que se pueden ganar, con las probabilidades de ganarlas). A partir de Huygens el Cálculo de Probabilidades comienza a interesarse por problemas de naturaleza aleatoria más generales que los asociados al juego.

Realiza la Actividad 1 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

La última parte del siglo XVII y principios del XVIII se caracteriza por la formulación de teorías probabilísticas más generales que las desarrolladas hasta entonces. Destaca autores como J. Bernouilli, Montmort, De Moivre o Bayes. Una de las familias más ilustres en la historia de las Matemáticas la constituyen los Bernouilli. Nueve de ellos fueron notables científicos de su época, cuatro fueron elegidos miembros de la Academia de Ciencias de París, y en particular, cinco de ellos destacaron en el ámbito de la Teoría de Probabilidad. La primera figura de la familia que destacó como matemático fue James Bernoulli (1654-1705), quien escribió el famoso tratado “Ars Conjectandi”, que recoge el Teorema que llevaría su nombre.

Este trabajo, publicado ocho años después de su muerte, se divide en 4 partes. En la primera se sintetiza el Análisis Combinatorio utilizado por Fermat en el ‘Problema de los Puntos’, y propone también nuevas herramientas combinatorias que Bernoulli aplicó a novedosos problemas. Se introduce además algunas importantes innovaciones, como la de la ‘Aditividad de las Probabilidades’ para resolver algunos de los problemas propuestos por Huygens. La parte más importante de la obra sería la 4ª, aunque quedaría incompleta por su muerte. En ésta se expone una teoría nueva de la Probabilidad en la que utiliza ideas de Huygens, y la llamada ‘Teoría de los Grandes Números’ que Bernoulli demostró en 1689. La teoría expuesta la aplicó a cuestiones interesantes en el campo económico. Esta parte constaba de 5 capítulos y lo más notable de ella es el enunciado y demostración de lo que más tarde Poisson bautizaría como ‘Ley de los Grandes Números’, y que se conoce con el nombre de ‘Teorema de Bernoulli’.

1) El ‘Teorema de Bernoulli’, da fundamento teórico al hecho empírico de que las ‘frecuencias relativas de un suceso se estabilizan en un gran número de experiencias’. 2) Bernoulli apuntó la posibilidad de usar el teorema para estimar la probabilidad de un suceso a partir de su frecuencia relativa de ocurrencia en un gran número de experiencias, lo que se conoce como ‘Inversión del Teorema de Bernoulli’.

Realiza la Actividad 2 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

Page 8: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

8

Realiza la Actividad 3 correspondiente al Bloque I, dentro de Actividades

Complementarias del Menú del curso. En este periodo también es importante señalar la obra de Pierre Rémond De Montmort (1678-1719). En su trabajo más importante, (1708), se recoge la Teoría de las Combinaciones y se expone las soluciones de varios problemas entre ellos los 5 propuestos por Huygens y que son similares a las dadas por J. Bernoulli en su obra.

También Montmort trata el ‘Problema de los Puntos’ y da por primera vez dos fórmulas que resuelven este famoso problema para dos jugadores con distinta habilidad. La habilidad de los jugadores fue medida por la probabilidad que tiene cada uno de ganar en una sola prueba, con la condición de que la suma de estas dos probabilidades fuera la unidad. Antes de la segunda edición de la obra de Montmort (1714) aparece un nuevo tratado de singular importancia escrito por Abraham De Moivre (1667-1754). De Moivre fue un matemático y físico francés, aunque por trasladarse a Londres por problemas religiosos, figura habitualmente en la escuela de matemáticos inglesa. Sus principales trabajos fueron en Trigonometría y en Teoría de Probabilidad. De Moivre, que había leído los trabajos de Huygens, destaca en el campo probabilístico con la obra “A Method of Calculating the Probabilities of Events in Play” (1718), considerada la segunda obra más importante sobre Probabilidad, y en la que también se estudia el ‘Problemas de los Puntos’. No obstante, la más importante aportación de De Moivre a la Teoría de Probabilidad, será el teorema que también lleva su nombre. En 1718, con la ayuda de la fórmula de Stirling, este autor extiende el ‘Teorema de Bernoulli’, apareciendo por primera vez conceptos como el de ‘Independencia’ o ‘Probabalidad Condicionada’.

1) La gran contribución de De Moivre a la Teoría de Probabilidad, será el ‘Teorema de De Moivre’ que demuestra la aproximación de la distribución Binomial a la Normal. 2) Las dos últimas versiones de su obra “Doctrine of Chances” recogerá por primera vez la función de densidad de la distribución Normal. Otra de las grandes figuras de la época será el reverendo protestante Thomas Bayes (1702-1761), alumno de De Moivre. Este investigó la obtención de la probabilidad de las causas de la ocurrencia de un suceso ya observado. Ello daría origen a la llamada Probabilidad Inversa, cuya fórmula publicó en 1713. A pesar de que Bayes fue quien comenzó esta investigación, sería Laplace quien la desarrollaría posteriormente. A pesar de la brevedad de la obra de Bayes, ésta tendrá una gran resonancia en la historia de la Probabilidad.

Page 9: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

9

1) Bayes enunció la fórmula general, que se conoce como ‘Teorema de Bayes’, que determinará la probabilidad de las posibles causas de un suceso observado a partir de información a priori. 2) Sus puntos de vista sobre la Probabilidad e Inferencia Inductiva han sido ampliamente adoptados y aplicados a multitud de problemas de Inferencia Estadística y Decisión.

El conocido estadístico inglés D.V. Lindley escribió 200 años después de su muerte:

“…Es difícil encontrar un trabajo que contenga ideas tan importantes y originales como el de Bayes. Su teorema debía figurar al lado de la fórmula de Einstein E = mc2, como una de las grandes y sencillas verdades”.

Realiza la Actividad 4 correspondiente al Bloque I, dentro de Actividades

Complementarias del Menú del curso. 2.3 Formulación de la Teoría Clásica de Probabilidad aplicada a la Física y Astronomía (XVlII-comienzo XIX) Durante el siglo XVIII, el Cálculo de Probabilidades se desliga progresivamente de su aplicación exclusiva a los juegos de azar, y se extiende a otros campos de conocimiento como la Astronomía, Física o Sector Actuarial (seguros marítimos). El principal motor de esta expansión será el conjunto de problemas que surgen ligados a la contrastación empírica de la ‘Teoría de Newton’ y, que darán origen a la ‘Teoría de Errores’.

La obra de Isaac Newton (1642-1727), constituyó la mayor revolución científica de los siglos XVII y XVIII y su influencia en la evolución de las Ciencias Físicas es ampliamente conocida. En Astronomía, Newton explicó no solamente las leyes de Kepler por el Principio de Gravitación Universal, sino que estableció un modelo global para estudiar las relaciones entre los cuerpos estelares. En Física estableció una teoría común para explicar fenómenos que habían sido objeto de estudios fragmentarios e incompletos como péndulos, planos inclinados, mareas, etc. En Matemáticas, contribuyó con Leibnitz a la creación del ‘Cálculo Diferencial e Integral’. La mayoría de las investigaciones en Física y Astronomía que se desarrollan durante el siglo XVIII y parte del XIX están provocadas por las ideas de Newton. Estas se orientan a:

i) Observar y experimentar lo que la Teoría de Newton señala como especialmente relevante. ii) Contrastar las predicciones de la Teoría con los datos. iii) Extender las aplicaciones de la Teoría a otros campos.

Page 10: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

10

Estas investigaciones serán fundamentales en el desarrollo de la Estadística

En este ámbito, el primer problema fue el tratamiento de los errores de medición: se disponía de distintas medidas independientes de una determinada magnitud física y se presentaba el interrogante de cómo combinarlas para obtener un resultado más preciso. Aunque este problema se había planteado desde la Antigüedad, la necesidad de comparar con exactitud los datos observados con la teoría, requería un tratamiento riguroso del mismo; ello daría lugar a la ‘Teoría de Errores’. Pronto destacaron los trabajos de Daniel Bernoulli (1706-1782), quien proporcionó la primera solución al problema de estimar una cantidad desconocida a partir de un conjunto de mediciones de su valor que, por el error experimental, presentaban variabilidad. También desarrolló un test estadístico para contrastar la hipótesis de aleatoriedad en el ordenamiento de las órbitas de los planetas. Este autor fue pionero en la aplicación del Cálculo Infinitesimal al Cálculo de Probabilidades. Quizás uno de los personajes más importantes de la historia de la Probabilidad sea Pierre Simon Laplace (1749-1827). La capacidad intelectual de Laplace le permitió investigar en diversos campos de la Ciencia, fundamentalmente relacionados con la Astronomía, la Mecánica Celeste, la Geodesia, la Teoría de la Probabilidad, el Cálculo y las Ecuaciones Diferenciales. A grandes rasgos, en Probabilidad destacará por:

1) La variedad, innovación y originalidad de sus temas. 2) La formulación de métodos probabilísticos. 3) Las aportaciones a las futuras Teorías de Inferencia y de Decisión. Los puntos novedosos que presenta su obra son los siguientes:

1) Introducción de la primera definición explícita de Probabilidad, inherente a todas las primeras aplicaciones: ‘definición Clásica de Probabilidad’. 2) Formalización del ‘Método de Mínimos Cuadrados’, introducido por Legendre (1805). 3) Desarrollo de la Ley Normal como modelo para describir la variabilidad de los errores de medida y establecimiento de la fórmula integral del ‘Teorema Límite de De Moivre’. 4) Planteamiento de problemas del ámbito de la ‘Inferencia Estadística’, (aplicados a problemas demográficos fundamentalmente). 5) Introducción de importantes aportaciones a la futura ‘Teoría de Decisión’, (desarrollo de la ‘Probabilidad Inversa’, extendida a partir de la ‘Probabilidad A Posteriori’ de Bayes fundamental en los procesos de decisión con experimentación).

Page 11: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

11

Se puede afirmar con toda rotundidad que a partir de Laplace se comienza la formalizar la Teoría de la Probabilidad. Este inaugura una nueva época caracterizada por una exposición clara, concisa y sistemática del Cálculo de Probabilidades. Aunque sus procedimientos carecieron de un gran rigor matemático, (debido fundamentalmente a las herramientas analíticas y probabilísticas con las que se contaba en la época), fueron sorprendentemente precisos. Su enorme capacidad para advertir las posibilidades de aplicación de la Teoría de la Probabilidad a otros campos, demuestran una vez más su importancia en la historia. A continuación comentamos con más detalle las publicaciones de Laplace que responden a los aspectos más importantes señalados en el cuadro anterior. La gran obra de Laplace, considerada como el gran tratado Clásico de Probabilidades, será “Théorie Analytique des Probabilités”, publicada en 1812, reeditada en 1814 y 1820. En esta obra se va a discutir todo el conocimiento del Cálculo de Probabilidades hasta la fecha, introduciendo aportaciones de trascendental importancia para su avance posterior como, por ejemplo, la ‘definición Clásica de Probabilidad’. Esta obra, considerada por muchos autores la más importante en la historia de la Probabilidad, constaba originariamente de dos capítulos, que finalmente se ampliaron a once. Este trabajo fué completado posteriormente con tres memorias. En la primera se estudia, el ‘Problema de la Duración del Juego’, ya tratado por Montmort y De Moivre. Su aportación a este problema lo constituye el hecho de encontrar la solución mediante una ecuación en diferencias finitas con una variable independiente. En la segunda memoria, Laplace enuncia por primera vez, y de una forma clara, el principio para la estimación de las probabilidades de las posibles causas de un suceso observado. Este enunciado es el de la ‘Probabilidad Inversa’, que había sido tratado por Bayes. También estudia el ‘Problema de los Puntos’, y define los conceptos de ‘Media Aritmética’, como promedio de valores observados, y ‘Media Geométrica’, como el valor que le correspondería a la abcisa del centro de gravedad del área encerrada bajo una determinada curva. En la tercera, expone problemas de carácter general sobre la probabilidad, y vuelve a utilizar ecuaciones en diferencias finitas. También estudia el ‘Problema de la duración de un juego’. Como se ha comentado, la obra de Laplace está indisolublemente unida a la demostración del ‘Método de Mínimos Cuadrados’. Uno de los objetivos de Laplace y de Gauss fue el estudio de la distribución de los errores de las observaciones en el ámbito de la Mecánica Celeste. Ello condujo a ambos a estudiar la distribución Normal, que seriá posteriormente imprescindible en Estadística. Laplace escribió además otra obra sobresaliente, que más tarde sería incorporada a la segunda edición de “Théorie Analytique des Probabilités”. Este trabajo contiene lo que actualmente se conoce como ‘Principio de Indiferencia’, consistente en considerar igualmente probables todos los casos referidos a un mismo experimento aleatorio, cuando estamos igualmente indecisos ante la ocurrencia de cada uno de ellos. La obra de Laplace, como también hemos señalado, será fundamental por abordar problemas de ‘Inferencia Estadística’ y suministrar importantes aportaciones a la

Page 12: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

12

Teoría de Decisión. En la práctica, por ejemplo, resuelve un problema sobre estimación de órbitas de planetas, en el que aparece los elementos básicos de lo que más tarde será un ‘Problema de Decisión’. (Plantea como estimación del parámetro ‘distancia esperada a un punto’ la mediana de la distribución a posteriori, suponiendo que la distribución a priori fuera una Uniforme en un determinado intervalo). En definitiva, parece justificado señalar la gran magnitud de la obra de Laplace, como el mismo decía en “Essai philosophique sur les Probabilités”,

“… Es extraordinario que una ciencia que comenzó considerando el tema de los juegos de azar, haya dado lugar por ella misma a uno de los más importantes objetos del conocimiento humano”.

El reconocimiento de Laplace es unánime entre los autores posteriores, así se afirma en ‘A History of the Mathematical Theory of Probability’. Todhunter, I. (1965), Ed. Chelsea:

“...La Teoría de la Probabilidad está más en deuda con Laplace que con cualquier otro matemático”.

Como ha sido comentado, en el estudio del ‘Método de Mínimos Cuadrados’ y de la Ley Normal, la figura de Laplace aparece unida a la de Kalr Friederich Gauss (1977-1855). Este resuelve de manera general el problema siguiente de estimación de modelos estadísticos:

“...Según la teoría, la posición de un planeta en el instante t, que llamaremos yt, es función de las posiciones de k cuerpos que representaremos por x1, x2,...xk, y de ciertas contantes desconocidas θ1, θ2,...θh, es decir, yt=f(θ1, θ2,..θh; x1, x2,..xk). Disponemos de observaciones relativas a las posiciones de los cuerpos, pero con un cierto error de medida. ¿Cómo determinar θ1, θ2,...θh?, ¿cómo predecir yt, con la mayor precisión posible, dada una observación concreta de los valores x1, x2,...xk ?…”.

Específicamente, en 1809 Gauss utilizó la Distribución Normal en su investigación, como ley de los errores de medida. Suponiendo una Distribución Uniforme sobre los parámetros a determinar y usando el ‘Teorema de Bayes’, redescubrió el ‘Método de Mínimos Cuadrados’, ya estudiado por Laplace. La síntesis de este resultado y del ‘Teorema Central del Límite’, daría inmediatamente fundamento teórico a la consideración de la Normal como ley de errores constituidos por la acumulación de una gran cantidad de pequeños errores.

Bajo la influencia de los trabajos de Laplace y Gauss, se consideró durante mucho tiempo, casi como un axioma, que si se dispusiera de un número suficientemente grande de observaciones correctas, todas las distribuciones estadísticas se aproximaban a la Normal.

Page 13: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

13

2.4 Nacimiento de la Teoría Matemática de la Probabilidad (XIX-XX) Durante la primera mitad del siglo XIX, los matemáticos-astrónomos continúan ampliando la ‘Teoría de Errores’ y se observa la aparición de problemas y métodos que tendrán gran influencia posterior. En la segunda mitad del siglo XIX, aparecen una serie de contribuciones fundamentales a cargo de la ‘Escuela de San Petesburgo’. Desde su creación, sus investigadores se esforzaron en desarrollar un tratamiento riguroso y puramente matemático de la Teoría de Probabilidad, a fin de evitar la ambigüedad sobre el concepto de probabilidad. Como consecuencia, el desarrollo matemático de la Teoría se encontró estrechamente ligado a los trabajos de los investigadores rusos. Entre los creadores de la Escuela, destaca a Pafnutti L. Tchebyshev (1821-1894), quien extendió los teoremas límite a variables no idénticamente distribuidas; para la demostración rigurosa de estos resultados, creó efectivos métodos, como el uso de los ‘Momentos’, o la ‘Desigualdad de Tchebyshev’. Su trabajo fue continuado por sus discípulos Markov y Liapunov. Andrei A. Markov (1856-1922), realizó importantes contribuciones a la ‘Ley de los Grandes Números’, y al ‘Problema Central del Límite’ en el caso de variables independientes, y extendiendo su dominio de aplicación al caso de variables encadenadas, estableció las bases de una nueva rama de la Teoría de Probabilidad, los ‘Procesos Estocásticos’. La obra de Alexander M. Liapunov (1857-1918) está ligada a la primera demostración del ‘Teorema Central del Límite’ bajo condiciones considerablemente más generales que las de Tchebyshev. Utilizó la ‘Función Característica’, que posteriormente se revelaría como una herramienta de gran importancia para la resolución de problemas límite de sumas de variables independientes. La expansión de las aplicaciones del Cálculo de Probabilidades a nuevos campos sociales y científicos, puso de manifiesto la falta de generalidad e inadecuación de la ‘definición Clásica de Probabilidad’, planteándose el problema de realizar una revisión profunda del concepto y establecer una definición precisa del término Probabilidad. En este sentido, debe distinguirse entre dos cuestiones:

i) La interpretación filosófica y definición del concepto; conducirá a distintas Concepciones de Probabilidad. ii) El establecimiento de un modelo lógico-matemático adecuado a su tratamiento; conducirá a la Axiomatización de la Probabilidad. Con la llegada del siglo XX, se plantea el problema de la ‘Axiomatización de la Probabilidad’, característica fundamental de la Matemática Moderna. En el Congreso Internacional de Matemáticas de París (1900), D. Hilbert manifiesta la idea de dotar a la Teoría de Probabilidad de un cuerpo axiomático que rija su desarrollo teórico y permita considerarla como una verdadera rama de la Ciencia Matemática. Para desarrollar este proceso, sería fundamental:

Page 14: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

14

i) Los trabajos iniciados por la Escuela de San Petesburgo. ii) La introducción de nuevas herramientas analíticas como la ‘Teoría de Conjuntos’. iii) La construcción de la ‘Teoría de la Medida’ (basada en los trabajos pioneros de E. Borel, C. Jordan y sucesivamente extendida por H.L. Lebesgue, J.K. Radon, y C. Carathéodory entre otros). Será Andrei N. Kolmogorov (1903-1987), quién, en su obra “Foundations of the Theory Probability” (1933), ideó la axiomática de probabilidad más ampliamente aceptada hoy día.

Kolmogorov desarrolló la ‘Axiomática de la Probabilidad’ que lleva su nombre, sentando las bases sobre las que se establecerían los fundamentos de la Teoría Matemática de la Probabilidad. A partir de este momento, se desarrolló una amplia teoría que ha fructificado, y sigue haciéndolo, en una gran cantidad de resultados teóricos y prácticos. Gracias a este tratamiento formal, muchas complejidades de la Teoría de Probabilidad quedan resueltas, pero no se hace ninguna aportación a la comprensión de la naturaleza conceptual de la probabilidad; el desarrollo matemático está completamente desligado del problema de la interpretación filosófica del concepto. De hecho, Kolmogorov rechazó cualquier propósito de interpretación de la probabilidad, cuando escribió:

“...La Teoría de la Probabilidad, como disciplina matemática, debe ser desarrollada a partir de axiomas, como el Álgebra o la Geometría. Esto significa que después de haber definido los elementos a estudiar y sus relaciones básicas y haber establecido los axiomas por los que se gobiernan dichas relaciones, toda exposición posterior debe estar basada necesariamente en dichos axiomas, independientemente del significado concreto de los elementos y sus relaciones”.

Realiza la Actividad 5 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

En contra de esta opinión, durante el siglo XX, muchos investigadores se ocuparon de estudiar la naturaleza e interpretación de la probabilidad, en relación a los problemas a los que se aplica. Los distintos puntos de vista han originado diferentes definiciones formales de probabilidad cuyo tratamiento y desarrollo teórico queda regido, en cada caso, por un sistema axiomático concreto.

Page 15: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

15

Por otra parte, a mediados del siglo XIX, existían ya las herramientas básicas que fundamentan la Estadística actual, sin embargo, su aplicación se restringía a la Física y a la Astronomía. En el siglo XX se producirá la verdadera confluencia del Cálculo de Probabilidades y la Estadística. A lo largo del siglo XX se han sucedido grandes avances en la Teoría de Probabilidad y destacan, entre otros, nombres como Keynes, Ramsey, De Finetti, Savage,.... Todos ellos han contribuido a la construcción de modelos matemáticos de comportamiento de fenómenos aleatorios en los que se encuadra toda experiencia que revista incertidumbre. 2.5 Cronología de las distintas concepciones de Probabilidad En 1812, como se ha comentado, Laplace formalizó la primera noción de Probabilidad, llamada ‘definición Clásica o Laplaciana’. Aunque desprovista de todo rigor matemático, esta se utilizó para la resolución de problemas de probabilidad elementales. En las nuevas aplicaciones del Cálculo de Probabilidades se puso de manifiesto la falta de generalidad e inadecuación de esta definición. Se planteó de nuevo la necesidad de establecer una definición precisa de la probabilidad de acuerdo a su interpretación. En contra de la opinión de Kolmogorov, muchos autores han estudiado la naturaleza e interpretación de la probabilidad, dando una respuesta coherente al gran número de situaciones en las que se aplica. Esto ha provocado la existencia de distintas corrientes conceptuales, a veces totalmente opuestas, y ninguna actualmente exenta de crítica. Es importante señalar que las diferentes actitudes conducen generalmente a esquemas axiomáticos semejantes a los de Kolmogorov. Ello hace compatibles estas teorías conceptuales con el desarrollo matemático-formal de la Teoría Matemática de la Probabilidad, que goza así de una gran universalidad, aunque los resultados teóricos tengan diferentes interpretaciones. En la reciente historia de la Filosofía de la Probabilidad, se encuentran diversas clasificaciones de las teorías que surgen al considerar distintas interpretaciones de ésta. Se distingue desde la clasificación dicotómica de R. Carnap (‘probabilidad como grado de confirmación de una hipótesis’, y ‘probabilidad como frecuencia relativa’), hasta la propuesta por T.L. Fine, que establece once tipos de teorías diferentes. Tanto por motivos conceptuales como históricos, existe una gran coincidencia en clasificar en cuatro grandes grupos las teorías elaboradas hasta la actualidad. En éstos, las ideas básicas son siempre comunes, aunque se presentarán variantes en los desarrollos. Dichas teorías pueden identificarse con cada una de las siguientes formas de definir la “Probabilidad”:

Page 16: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

16

CLÁSICA: Probabilidad en términos de cocientes de alternativas equiposibles. FRECUENTISTA: Probabilidad como límite de frecuencias relativas asociadas a la aparición de los sucesos. LÓGICA: Probabilidad como medida del soporte lógico que una evidencia proporciona a una proposición. SUBJETIVA: Probabilidad como grado de creencia personal en la ocurrencia de una proposición

Realiza la Actividad 6 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

Page 17: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

17

Síntesis del desarrollo histórico del Cálculo de Probabilidades ____________________________________________________ Juegos de Azar: Voluntad Divina ____________________________ 40.000 a.d.C. Asia Menor 3.500 a.d.C. Egipto Astrálago 3.000 a.d.C. Irak Antigua Grecia Imperio Romano Dado Edad Media Juegos de Azar: Objeto de Estudio Avances Análisis Mat. ________________________________ Renacimiento: Cardano (1501-1576) Galileo (1564-1642) Siglo XVII: Pascal-Fermat (1645) Prehistoria Teoría Huygens (1629-1695) Probabilidad Siglo XVIII: J. Bernouilli (1654-1705) Montmort (1678-1719) De Moivre (1667-1754) Bayes (1702-1761) . . Teoría Newton Teoría Errores Aplicaciones en Astronomía y Física ____________________________________ D. Bernouilli (1706-1782) Historia Teoría Laplace (1749-1827) Probabilidad Siglo XIX: Gauss (1777-1855) (Clásica) . . Disciplina Matemática aplicable a otros Campos Teoría Conjuntos _______________________________________ Teoría Medida Escuela de San Petesburgo: Tchebyshev (1821-1894) Liapunov (1857-1918) Markov (1856-1922) Fundamentos Siglo XX: Kolmogorov (1903-1987) Teoría Matem. Keynes, Ramsey, De Finetti, Savage,. Probabilidad . . . . . .

Page 18: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

18

3. Concepción Clásica de Probabilidad 3.1 Antecedentes y principios de la definición Clásica de Probabilidad La denominación de Teoría Clásica de Probabilidad hace referencia al conjunto de conceptos y resultados que se fueron desarrollando desde los inicios del Cálculo de Probabilidades hasta la época de Laplace. No es, por tanto, una teoría unificada y estructurada de forma sistemática a partir de una definición consistente. Sin embargo, a pesar que su identidad es esencialmente cronológica, esta teoría presenta un elevado grado de coherencia entre lo que los probabilistas clásicos entienden por probabilidad y su forma de tratarla. Para los probabilistas clásicos, (Pierre-Renard Montmort, James, Nicholas y Daniel Bernouilli, Pierre Simon de Laplace,…), no existe el indeterminismo, todo es predecible, y la probabilidad es un medio para conocer y tratar situaciones reales, cuando el conocimiento de estas no es exacto. Desde esta perspectiva, sus esfuerzos estuvieron fundamentalmente dirigidos al establecimiento de reglas para aproximarse a dicho conocimiento. Aunque la definición Clásica de Probabilidad, fue intuitivamente usada por G. Cardano y D. Bernouilli, sería establecida con rigor en la obra de Laplace. Esta se va apoyar en el ‘Principio de la Razón Insuficiente’ (al parecer sugerido, aunque no demostrado por D. Bernouilli), y también llamado posteriormente por J.M. Keynes ‘Principio de Indiferencia’:

Las alternativas deben considerarse equiprobabables si no hay razón para esperar o preferir una sobre otra. Este principio va a ser utilizado desde este momento hasta la posterioridad como la principal fuente para la especificación de probabilidades iniciales en cualquier estado de ignorancia. (Volveremos a referirnos a el en el estudio de la concepción Subjetiva de Probabilidad). 3.2 Definición Clásica de Probabilidad. Propiedades Consideramos una experiencia aleatoria en la que: - Sólo son posibles un número finito de resultados, “n”. - Los resultados son igualmente factibles (equiprobables). - Los resultados son excluyentes (incompatibles). Sea “A” un resultado arbitrario que puede presentarse en “m” de los casos. Entonces, la probabilidad de que ocurra “A”, se define como el cociente entre el número de casos favorables y el número de casos posibles. Esta definición es también conocida como ‘Regla de Laplace’:

Page 19: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

19

nm

posiblescasosfavorablescasosAP ==)(

Ejemplo: Se lanza un dado, determinad, bajo la perspectiva clásica, la probabilidad de obtener un cinco. Supuesto que el dado no está trucado, es posible aplicar la Regla de Laplace ya que entonces sólo existen seis resultados posibles y estos son igualmente factibles y excluyentes. Si nos interesa la posibilidad de obtener un cinco, por tanto,

61})5({ =P

Propiedades Bajo el epígrafe de “Propiedades”, vamos a demostrar para cada una de las concepciones de probabilidad estudiadas en el tema, que estas verifican los ‘Axiomas de Probabilidad de Kolmogorov’. Específicamente, se va a demostrar que la Regla de Laplace define una verdadera función de probabilidad en el sentido axiomático de Kolmogorov. 1. Para todo resultado posible de la experiencia aleatoria “A”, su probabilidad es no

negativa: P(A)≥0.

D/ Si “A” puede ocurrir en “m” de los casos de los “n” posibles, entonces, 0≤m≤n, y si dividimos por “n”, se obtiene: 0≤P(A)≤1

2. Si el resultado “A” ocurre siempre que se realiza la experiencia (suceso seguro),

entonces P(A)=1

D/ Si “A” ocurre siempre, m=n, y trivialmente P(A)=1

3. Si kAAA ,..., 21 son resultados mutuamente excluyentes (incompatibles), que

ocurren respectivamente en kmmm ,..., 21 de los casos, entonces la probabilidad

de que ocurra alguno al realizar la experiencia, es ∑=

k

iiAP

1)(

Page 20: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

20

D/ La probabilidad de que ocurra algún o algunos resultados de la colección { kAAA ,..., 21 } (su unión según la teoría de sucesos) sería:

=+++=+++

nm

nm

nm

nmmm kk ...

... 2121 ∑=

k

iiAP

1

)(

3.3 Objeciones a la Definición Clásica. Ventajas Las principales objeciones a la concepción Clásica de Probabilidad, son consecuencia de sus mismas hipótesis de partida, que la hacen muy restrictiva. Por ello es considerada, más que una definición, una regla de cálculo de probabilidades en problemas elementales. • La definición Clásica es aplicable solamente si el número de casos posibles al

realizar la experiencia es finito. Sin embargo, pueden existir experimentos donde el número de casos posibles no sea finito. Por ejemplo, si se observa la velocidad de reacción de dos sustancias, existiría una cantidad infinita no numerable de casos posibles (todos los asociados al intervalo real de posibles valores de las velocidades). En estas situaciones, ¿como se evalúa la probabilidad de obtener un resultado específico?

• La definición Clásica solamente es aplicable si las alternativas (casos posibles),

son igualmente factibles. Intrínsecamente, esta hipótesis conlleva tres dificultades:

1. Esta afirmación equivale a exigir que los resultados sean

equiprobables, involucrando el término que pretendemos definir: la probabilidad.

2. Existen muchas experiencias aleatorias, incluso con un

número finito de resultados, que no son equiprobables, (basta considerar el lanzamiento de un dado trucado). Esta metodología no proporciona ninguna regla para asignar probabilidades a resultados que no tengan la misma posibilidad de ocurrir.

3. Con esta definición de probabilidad surge inevitablemente el

problema de especificar correctamente las alternativas, (casos posibles), para la aplicación del ‘Principio de Indiferencia’. Aunque ya Laplace intentó dar alguna justificación hablando de alternativas equiposibles ante las cuales se esté igualmente indeciso, existen famosas paradojas que muestran que distintas especificaciones de las alternativas relevantes, pueden conducir a asignaciones de probabilidad contradictorias (e incluso absurdas) relativas a una misma situación aleatoria.

• Existen fenómenos de naturaleza aleatoria en donde no se pueden especificar

casos favorables ni posibles. Por ejemplo, ¿cuál es la probabilidad de que “llueva

Page 21: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

21

mañana”?, ¿cómo se evalúa en términos de probabilidad los diferentes resultados? La Teoría Clásica carece de instrumentos para ello.

• Algunos probabilistas Clásicos, como Laplace y D. Bernouilli, en sus

investigaciones sobre tablas de mortalidad, utilizaron también frecuencias relativas para determinar probabilidades mediante la aplicación del Teorema de Bayes, y usando el ‘Principio de Indiferencia’ para especificar probabilidades a priori. Esto provocó críticas hacia los probabilistas clásicos que, sin abandonar su definición oficial de probabilidad, empleaban métodos inconsistentes con su propia concepción.

Todos estos inconvenientes motivaron una gran controversia sobre la adecuación de la definición de probabilidad Clásica, originando el nacimiento de la ‘Teoría Frecuentista de Probabilidad’. Como ventaja mas destacable de esta interpretación volvemos a señalar la gran coherencia entre lo que los clásicos entendían por probabilidad y su forma de cuantificarla, cuestión que permite que la ‘regla de Laplace’ se siga aplicando hoy en problemas sencillos que se adaptan a sus hipótesis de partida. Además, ninguna de las Teorías posteriores entrará en contradicción con esta, sino que la recogerán como particularidad.

4. Concepción Frecuentista de Probabilidad

4.1 Antecedentes y principios de la definición Frecuentista de Probabilidad La Teoría Objetivista o Frecuentista de Probabilidad, debe sus denominaciones a que está basada en el concepto objetivo de frecuencia. Se desarrolló a partir de las críticas realizadas a las mismas bases de la Teoría Clásica de Probabiidad, siendo uno de los principales detractores el matemático y economista francés A. A. Cournot (1801-1877). Para contrastar la preocupación creciente con los puntos de vista subjetivos que podían desprenderse de las ideas de D. Bernouilli, y posteriormente del filósofo británico A. De Morgan (1806-1871), John Venn (1834-1923), formalizó la idea de definir probabilidades como límites de frecuencias relativas en sucesiones infinitas de situaciones repetidas idénticamente. En la obra “The Logia of Chance” (1866), Venn defiende la idea, base de la Teoría, de que:

La probabilidad debe ser un concepto medible, objetivo, independiente de cualquier consideración a través de la experimentación; la base natural para definir la probabilidad debe ser la frecuencia.

Page 22: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

22

Sin embargo, Venn no formalizó las condiciones bajo las que dicha definición pudiera tener sentido, ni la estructura matemática de la probabilidad y sus reglas de comportamiento. Fue Richard von Mises (1883-1953), quien presentó el primer desarrollo sistemático de la teoría frecuentista. En su obra, “Probability, Statistics and Truth” (1928), von Mises escribe:

…”El concepto racional de Probabilidad, que es la única base para el cálculo de probabilidades, se aplica sólo a problemas en los que, o bien el mismo fenómeno se repite de nuevo y de nuevo, o bien un gran número de elementos uniformes están implicados al mismo tiempo. Para aplicar la Teoría de la Probabilidad se debe tener una sucesión prácticamente ilimitada de observaciones uniformes”.

Von Mises deja claro en su obra cual debe de ser el dominio de aplicación de la Teoría de la Probabilidad. En concreto, este formaliza el concepto de probabilidad de un atributo referido a un colectivo, entendiendo por éste el conjunto de elementos uniformes sobre los cuales se repite una y otra vez el experimento bajo las mismas condiciones. En conexión natural con la Ley de los grandes Números, von Mises, argumenta que no pueden extraerse conclusiones sobre la relación entre frecuencias relativas y probabilidad si no se supone la aleatoriedad de los resultados. Los fundamentos de la Teoría Frecuentista de Probabilidad, según von Mises, está basada en los siguientes puntos que definirán cuando tendrá sentido establecer el concepto de probabilidad. En lenguaje de hoy, estos serían. 1. Se consideran experimentos que se puedan repetir, bajo las

mismas condiciones, indefinidamente. 2. Será posible la determinación de las frecuencias relativas a los

resultados cuya probabilidad interesa obtener. 3. Se deberá aplicar dos principios. El ‘Principio de Estabilidad de

las Frecuencias’ (establecido por D. Bernouilli en 1713), afirma que

La sucesión de frecuencias relativas tiende a estabilizarse en un valor fijo, cuando el número de repeticiones del experimento, bajo las mismas condiciones, crece indefinidamente

El llamado por von Mises ‘Principio de Aleatoriedad’, establece que el límite de las frecuencias relativas de un atributo debe permanecer invariante para cualquier subcolectivo arbitrariamente seleccionado del original.

Von Mises define la Probabilidad de un atributo, dentro de un colectivo, como el límite de la sucesión de frecuencias relativas. El desarrollo de la Teoría de von Mises continúa con la especificación de las reglas básicas que deben regir el cálculo de probabilidades. Estas reglas se refieren, concretamente, a la probabilidad de atributos combinados en un colectivo (aditividad

Page 23: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

23

de la probabilidad), a la probabilidad de atributos en subcolectivos (probabilidad condicionada) o en colectivos formados a partir de sucesos independientes. Quizás, el máximo exponente de la filosofía inherente a esta Teoría ha sido el filósofo alemán Hans Reichenbach (1891-1953), quien adhiriéndose a la interpretación Frecuentista de von Mises, publicó en 1934 la primera edición de su obra “The Theory of Probability”. Reichenbach define la probabilidad de un suceso, en referencia a una clase específica, en términos de frecuencias relativas. Sin embargo, ignorando el `Principio de Aleatoriedad´ impuesto por von Mises, este extiende el dominio de aplicación de la probabilidad. En concreto, desde la perspectiva filosófica, Reichenbach entiende la probabilidad como el grado de implicación lógica que una determinada clase de referencia ofrece a un suceso. En este sentido, como se verá, sus ideas tienen cierta afinidad con el punto de vista avanzado por la corriente Lógica. En resumen, en la Teoría Frecuentista se concibe la probabilidad como una medida de un hecho físico, objetivo y empírico, nunca relativa a una evidencia (incondicional), sino unívocamente determinada por la naturaleza de la situación bajo estudio. Rechazando abiertamente el ‘Principio de Indiferencia’, la idea básica es que la determinación de probabilidades iniciales debe hacerse siempre a partir de frecuencias observadas. Sin embargo, von Mises elude, en cierta forma, como se materializa esta cuestión, argumentando que la determinación de probabilidad es tarea de los estadísticos. Reichenbach, por su parte, propone utilizar le ‘Regla de Inducción por enumeración’.

4.2 Definición Frecuentista de Probabilidad. Propiedades Se considera una experiencia aleatoria en donde interesa conocer la probabilidad de un cierto resultado A. Se supone que este experimento es repetido “n” veces en idénticas condiciones, en las que A ocurre “m” veces. Se define la ‘frecuencia relativa de A’ en las n pruebas como la proporción de ocurrencias de A:

nmAfn =)(

Supongamos la ilimitada sucesión de frecuencias relativas de A cuando el número de pruebas crece indefinidamente: ...),(...),(),( 1 AfAfAf knnn ++

En virtud del ‘Principio de Estabilidad de Frecuencias’, existe el valor límite de la sucesión de frecuencias relativas cuando el número de pruebas crece indefinidamente. Este valor, define la probabilidad de A bajo la perspectiva Frecuentista:

)(lim)( AfAP nn ∞→=

Page 24: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

24

Ejemplo: Se lanza un dado, determinad, bajo la perspectiva frecuentista, la probabilidad de obtener un cinco. Suponiendo que hemos repetido sucesivamente el lanzamiento del dado, la siguiente tabla recoge, según el nº de lanzamientos, el nº de veces que se ha obtenido el cinco, y consecuentemente, las frecuencias relativas asociadas a este resultado.

Si consideramos la sucesión de frecuencias relativas, y en virtud del `Principio de Estabilidad de las Frecuencias Relativas´, se puede dedicir que tiende a estabilizarse alrededor de 6/161.0 =

), es decir,

6/1})5({lim})5({ ==

∞→ nnfP

Por tanto, en esta situación aleatoria, las asignaciones de probabilidad clásica y frecuentista al resultado ‘obtener un cinco’ coinciden.

Propiedades Se va a demostrar que la definición Frecuentista de Probabioidad define una verdadera función de probabilidad en el sentido axiomático de Kolmogorov. 1. Para todo resultado de la experiencia aleatoria A, su probabilidad es no

negativa: P(A)≥0.

D/ Si en “n” repeticiones del experimento A ocurre “m” veces, entonces, 0≤m≤n, y si dividimos por “n”, se obtiene:

1)(0 ≤=≤ Afnm

n

Por tanto, si tomamos límites cuando n->∞, se obtiene que 0≤P(A)≤1

2. Si el resultado A ocurre siempre que se realiza la experiencia (suceso seguro),

entonces P(A)=1

D/ Si A ocurre siempre, m=n, para cualquier nº de veces (n) que se repita el experimento, luego fn(A)=1. Por tanto, si tomamos límites cuando n->∞, se obtiene que P(A)=1

Nº lanzam. (n) 25 50 100 150 200 300 500 1000 … Nº de {5} (m) 5 13 20 27 32 52 81 167 …

nmfn =})5({

0.2 0.26 0.2 0.18 0.16 0.173 0.162 0.167 …

Page 25: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

25

3. Si kAAA ,..., 21 son resultados mutuamente excluyentes (incompatibles), que en

“n” repeticiones del experimento ocurren respectivamente en kmmm ,..., 21 de las

veces, entonces la probabilidad de que ocurra alguno al realizar la experiencia,

es ∑=

k

iiAP

1

)( .

D/ La frecuencia relativa asociada al suceso de que ocurra algún o algunos resultados de la colección { kAAA ,..., 21 } (su unión, según la teoría de sucesos)

sería:

)(...)()(......

212121

nnnnkk AfAfAf

nm

nm

nm

nmmm

+++=+++=+++

por tanto, si tomamos límites cuando n->∞, se obtiene que

∑∑

==∞→

=∞→

==

==

k

ii

k

iinn

k

iinn

APAf

AfcolecciónladeresultadoúnaocurraP

11

1

)()(lim

)(lim)lg(

4.3 Objeciones a la Definición Frecuentista. Ventajas Las críticas principales que se han vertido sobre esta Teoría se refieren precisamente a su alcance, aunque por su base empírica, inevitablemente se relaciona con un gran número de situaciones de interés práctico. Las objeciones fundamentales se resumen en los siguientes puntos. • El concepto frecuentista de probabilidad hace referencia al límite cuando el número

de pruebas tiende a infinito, lo cual aunque correctamente fundamentado, no es realizable en la práctica, y representa una laguna en la intención de fundamentar experimentalmente el concepto en los siguientes dos sentidos.

1. Irrelevancia en el mundo real: no puede afirmarse realmente la

existencia de una sucesión ilimitada de situaciones esencialmente idénticas. Por tanto, nunca podrá saberse si existe una probabilidad, y si existe, cuanto vale o si se ha asignado un valor a una probabilidad, si es confirmable o desmentible. (La idea de colectivo, es por tanto insostenible).

2. Imposibilidad de prolongar idealmente la experiencia, porque los

procesos regidos por el azar no pueden ser racionalmente prolongados, sin quitarles el carácter aleatorio, que es su esencia. La Teoría tampoco establece una regla para determinar un número suficientemente grande, pero finito, de pruebas que pudiera conducir a deducir el valor alrededor del cual tienden a estabilizarse las frecuencias relativas.

Page 26: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

26

• La Teoría Frecuentista no es capaz de dar una definición de probabilidad a sucesos

individuales, es decir, resultados aislados no susceptibles de repetición. De lo que se deduce que si un fenómeno aleatorio no fuera observable (en el sentido de ensayable), no tendría sentido hablar de su probabilidad. Sin embargo, una importante gama de fenómenos aleatorios, de carácter social, económico, etc. son no observables: posible incidencia en el mercado de una innovación tecnológica, índice de paro para un determinado periodo futuro, tiempo que hará mañana, ….

• Esta Teoría, se centra en el hecho de que aunque parte y defiende la unicidad y

objetividad de las probabilidades, estas siempre son relativas, bien a un colectivo, o bien a una clase de referencia, (aunque esta es una característica común al resto de las concepciones).

Sin embargo, a favor de esta concepción de probabilidad cabe destacar la amplia aceptación que su base empírica ha proporcionado a la investigación en Ciencias Experimentales. Efectivamente, en este ámbito continuamente se usan los métodos estadísticos clásicos, firmemente basados y desarrollados a partir de la definición frecuentista de probabilidad. Además, la Teoría Frecuentista subsana, en parte, algunas desventajas de la definición Clásica: el número de resultados de un experimento aleatorio no tiene por qué ser finito, ni se exige que estos sean equiposibles ni excluyentes, y las alternativas a un resultado no se tienen que conocer de antemano. Ante lo expuesto, es indudable la necesidad de buscar otros métodos de determinación de la probabilidad que la desvinculen de la experimentación, y no porque está contradiga el concepto, sino porque no será factible para un gran número de fenómenos aleatorios. 5. Concepción Lógica de Probabilidad

5.1 Antecedentes y principios de la definición Lógica de Probabilidad En contraste con las Teorías anteriores, que se fueron desarrollando para ser aplicadas, a problemas específicos, (juegos de azar o problemas que involucraban sucesiones indefinidas de experiencias), las ‘Teorías Lógicas de Probabilidad’, basan su desarrollo en la interpretación de la Probabilidad como concepto puramente lógico. Para los teóricos de esta concepción, su aplicación a problemas prácticos es un tema secundario. Estos generalmente han reivindicado que su disciplina es una parte de la ‘Lógica Formal’, la cual proporciona una extensión de esta, la Lógica Inductiva, que intenta mostrar la conexión entre lo que conocemos y lo que podemos inducir.

Page 27: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

27

En Lógica, se entiende por ‘argumento’ una entidad lingüística compuesta por una secuencia de enunciados o ‘premisas’, más otra afirmación denominada ‘conclusión’, que se puede derivar o no de las primeras. El término ‘inducción’, es usado para designar todos los casos de argumentos no-demostrativos, en los que la verdad de las premisas, aunque no aseguren la verdad de una conclusión, dan buenas razones para creer en ella. En general se asume que: 1. En las premisas se formula cierta evidencia que puede servir para apoyar la

conclusión. 2. Si las premisas son verdaderas o aceptadas como tales, entonces pueden

suministrar argumentos de dos tipos.

- Argumentos deductivos: conducen a evidencias concluyentes para la afirmación de la verdad de la conclusión.

- Argumentos inductivos: conducen a evidencias, que si bien no son

concluyentes, al menos hace muy probable la verdad de la conclusión.

A diferencia de un argumento deductivo en el que sus premisas establecen la conclusión en forma demostrativa, en un argumento inductivo la conclusión puede ser falsa siendo las premisas verdaderas. Lo deductivo o inductivo de un argumento no guarda ninguna relación con el grado de universalidad o particularidad de las premisas o conclusión. El único criterio que permite establecer la distinción deductivo-inductivo de un argumento es la relación lógica que se establece entre premisas y conclusión. Si lo que afirmamos con el argumento es que es imposible que las premisas sean verdaderas y la conclusión falsa, se está considerando un argumento deductivo. Si por el contrario, se admite que es posible (aunque difícil o improbable) que la conclusión sea falsa aun cuando las premisas sean verdaderas, se está considerando un argumento inductivo. Ejemplo: Los siguientes cuatro argumentos son inductivos. a) “Si A1 es B, A2 es B, A3 es B,… An es B, entonces todo A es B”. La conclusión es universal y las premisas son particulares. Esta forma de argumento es llamado ‘Enumeración Simple’ o ‘Generalización Inductiva’. b) “Si A1 es B, A2 es B, A3 es B,… An es B, entonces An+1 es B”. La conclusión y premisas son particulares. c)“Como todos los A son conocidos son hasta ahora B, entonces el próximo A que se conozca será B”. La conclusión es particular y las premisas son universales. d) “Como todos los A son conocidos son hasta ahora B, entonces todos los A futuros serán B”. La conclusión y las premisas son universales.

Page 28: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

28

En estas cuatro formas de argumentos inductivos tienen un denominador común (no precisamente el salto de lo particular a lo universal); sus conclusiones se refieren a datos que no estaban incluidos en las premisas. La conclusión, en cada caso, entrega más información que la entregada por las premisas. Es obvio, por tanto, que no puedan demostrar la conclusión. Cuando en Lógica se habla de Inferencia Inductiva se apunta a aquel argumento que no aspira a demostrar la verdad de las conclusiones como derivación necesaria de sus premisas, sino solamente afirma su probabilidad, es decir, que existen buenas razones para aceptarlas como tales. Por Inferencia Inductiva se entiende, no solo la inferencia de hechos a leyes, sino también toda inferencia que sea no-demostrativa; la conclusión no se desprende con necesidad lógica cuando se admite la verdad de las premisas. Tales inferencias deben ser expresadas en grados de lo que se llama ‘probabilidad lógica’ o ‘probabilidad inductiva’. En concreto, bajo esta nueva perspectiva de entender la probabilidad, esta se interpreta como un concepto que formaliza la relación lógica existente entre sentencias o proposiciones de cualquier tipo. La idea central de la concepción Lógica es que

i) La probabilidad representa el grado de implicación lógico que un cuerpo de conocimiento (o conjunto de premisas), que constituye una evidencia, proporciona a una determinada sentencia o proposición (conclusión). ii) El grado de implicación es único e impersonal y, como tal, la probabilidad es un concepto objetivo, aunque condicional a la evidencia que se tenga sobre la situación a la que se está aplicando. Esta concepción otorga una sensible importancia a la coherencia y lógica, del individuo como único camino para valorar correcta y no arbitrariamente los grados de implicación lógicos que coducen a asignar probabilidades. Las primeras ideas que conducen a una concepción lógica de la probabilidad se deben a Francis Y. Edgeworth (1910), pero los nombres más comúnmente relacionados con esta interpretación son los de John Maynard Keynes (1883-1946), Rudolf Carnap (1891-1970), y Harold Jeffreys (1891-1989). Las ideas del economista británico J.M. Keynes tuvieron una fuerte repercusión en las teorías económicas y políticas modernas, así como también en las políticas fiscales de muchos gobiernos, generando el Monetarismo. Es particularmente recordado por su aliento a una política de intervencionismo estatal, a través de la cual el estado utilizaría medidas fiscales y monetarias con el objetivo de mitigar los efectos adversos de los periodos recesionarios de las crisis cíclicas o de la actividad económica. Aunque los economistas lo consideran uno de los principales fundadores de la Macroeconomía moderna, también destaca por su notable contribución a las bases matemáticas y filosóficas de la Teoría de la Probabilidad. Keynes fue el primero que formuló explícitamente la concepción lógica de probabilidad. En su obra “A Treatise on Probability” (1921), este introdujo la idea de

Page 29: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

29

que la probabilidad solo es un concepto definible si se entiende como la expresión del ‘grado de creencia racional de una proposición al que conduce un razonamiento lógico a partir de una evidencia’. El también expresó la dificultad de medir estas creencias, poniendo de manifiesto la naturaleza cualitativa de la probabilidad. Para el, por tanto, no todos los grados de creencia son numéricamente medibles ni, incluso, comparables. Sólo en una clase de grados de creencia medibles las probabilidades pueden se objeto de análisis matemático y, en tal caso, hace uso del cálculo de probabilidades convencional. R. Carnap, estudió Filosofía, Matemáticas y Física, y fue durante la década 1930-1940 profesor de Filosofía en diferentes universidades alemanas y norteamericanas. En este periodo intenta crear un marco formal para el análisis de los problemas semánticos. Aunque su preparación en Física le llevó originariamente a aceptar en ciertos contextos la definición Frecuentista, desde 1950 se dedicó al análisis del conocimiento inductivo y probable e intentó desarrollar una ‘Lógica Inductiva’ (1959). Carnap es considerado el gran exponente de la ‘Lógica Positivista o Empírica’. Primeramente continuó en la tradición del empirismo clásico, (el conocimiento está garantizado por la experiencia, o se deduce por la analítica de las proposiciones como en la matemática). Sin embargo, su gran aportación fue considerar básica la orientación hacia una filosofía estructurada que considere como tarea central de la ciencia empírica, realizar un análisis lógico de todos sus enunciados. La tarea del científico en esta concepción, no se limitará a observar los hechos externos y a describirlos en un lenguaje estructurado a partir de proposiciones, sino que además se deberá derivar de dichas proposiciones elementales, otros enunciados más generales sobre eventuales regularidades regidas por leyes que den una explicación de los hechos observados. El científico debe proceder de modo inductivo e intentar, a partir de una o más observaciones, realizar inferencias sobre las condiciones o presuposiciones del fenómeno, y sacar conclusiones sobre la validez general de tales enunciados. Sólo al final de su vida Carnap aceptó que los métodos de la ciencia no pueden limitarse a la utilización de la inducción. El científico no se limita a recopilar hechos aislados, sino que es guiado en su heurística y en su misma selección de lo que considera relevante para ser observado, por ciertas presuposiciones teóricas (no reducibles a enunciados). Además, el científico debe proceder también deductivamente, al realizar sus inferencias o predicciones a partir de otros enunciados que considera ya validados. Para Carnap, la probabilidad era siempre medible y, basándose en una estructura específica de lenguaje formal, desarrolló un sistema lógico para su cálculo. Destacamos la obra “Logical Foundations of Probability”, presentanda en 1950. Mas tarde, John G. Kemeny (1953) extendió la técnica sugerida por Carnap a una clase más amplia de lenguajes.

Realiza la Actividad 7 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

A diferencia de los anteriores, H. Jeffreys tiene una concepción de la probabilidad más pragmática. Entendiendo que la Teoría de la Probabilidad es esencial para el desarrollo de la investigación científica, su interés dejó de ser puramente filosófico y dedicó gran esfuerzo a la obtención de métodos inferenciales basados en su concepción lógica de la probabilidad, para la que se desarrolló un detallado sistema

Page 30: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

30

axiomático. En tal sistema, las probabilidades están completamente ordenadas y tienen siempre valores numéricos, aunque la cuantificación es meramente convencional y no fundamental para el desarrollo formal de la Teoría. Al igual que Keynes, Jeffreys aceptó y recomendó el uso del Principio de Indiferencia para la especificación de probabilidades iniciales en estado de ignorancia y, asimismo, propugnó la utilización del teorema de Bayes para la actualización de dichas probabilidades. Sus trabajos mas sobresalientes están recogidos en su obra “Theory of Probability” (1961).

Realiza la Actividad 8 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

5.2 Definición Lógica de Probabilidad. Propiedades A continuación se va a comentar a grandes rasgos el concepto lógico de probabilidad, sin entrar con todo rigor en los principios lógicos que lo sustenta, ya que ello extra limita los objetivos del tema. Se considera específicamente un sistema formado por una sentencia o proposición (hipótesis que se desea medir en términos de probabilidad), “s”, y la experiencia o evidencia que se tenga relativa a ella, “e”. Se define la Probabilidad de “s” dada “e”, (P(s/e)) como:

P(s/e)= medida en que “e” confirma “s”, admitiéndose: 1- La valoración de los grados de confirmación siguen criterios de lógica y coherencia 2- 0≤P(s/e)≤1 P(s/e)=0, si “e” nunca confirma “s” P(s/e)=1, si “e” siempre confirma “s” 3- La aditividad de la probabilidad de sentencias incompatibles

Ejemplo 1: Se lanza un dado, determinad, bajo la perspectiva lógica, la probabilidad de obtener un cinco. Obviamente, se considera la sentencia “s: obtener {5}”. Si consideramos como evidencia “e”, la equiprobabilidad de las caras (definición clásica de probabilidad), la estabilidad de la sucesión de frecuencias relativas asociadas a la aparición del {5} (definición frecuentista), se obtiene que por coherencia y lógica, el grado en que “e” puede confirmar a “s”, se puede valorar numéricamente como:

Page 31: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

31

P(s/e)=1/6 Ejemplo 2: Se está interesado en calcular la probabilidad de que suba en bolsa la cotización de acciones de cierta empresa. Se sabe que hace seis meses se presentaba una situación económica, social y política casi idéntica, que apuntaba a que con toda seguridad la bolsa subiría, sin embargo un imprevisto político produjo el efecto contrario. Estableced, bajo la perspectiva lógica, una medida de la probabilidad de que se produzca la subida en bolsa de las cotizaciones de las acciones de la empresa considerada. Notamos: s= sube cotización en bolsa de la empresa considerada e= lo ocurrido hace seis meses Asignad una probabilidad a la sentencia “s” teniendo como base la evidencia “e”, consiste en valorar lógica y coherentemente la posibilidad de que se repita el imprevisto que produjo el efecto contrario a lo que la situación económica, social y política apuntaba hace seis meses. Si se estima que es poco posible que el imprevisto acaecido se repita (por ejemplo, un 2% de posibilidades de repetición), una valoración del grado en que “e” puede confirmar “s” pudiera ser: P(s/e)=0.98

Propiedades Como consecuencia de las hipótesis que se asumen en la definición de probabilidad se verifica: 1. Para toda sentencia “s” y evidencia que acerca de ella se tenga, “e”, entonces

P(s/e)≥0. 2. Si la sentencia “s” es confirmada siempre por la evidencia “e”, entonces

P(s/e)=1 3. Por coherencia se impone que si ksss ,..., 21 son sentencias o proposiciones de las

que se dispone de las evidencias keee ,..., 21 respectivamente, que no se

presentan nunca simultáneamente, (incompatibles), entonces, la probabilidad de que ocurra alguna es la suma de las probabilidades asociadas a cada una de

ellas, es decir, ∑=

k

iii esP

1)/( .

Page 32: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

32

5.3 Objeciones a la Definición Lógica. Ventajas Como el resto de las Teorías, las Teorías Lógicas han sido también objeto de serias críticas en lo que se refiere a la interpretación y, quizás mas, a la cuantificación de la probabilidad. Destacamos los siguientes puntos: • El hecho de que la probabilidad sea siempre condicional a una evidencia es para

muchos una forma de subjetivismo, lo que es esencialmente criticado por los frecuentistas, que conciben la probabilidad como algo objetivo, nunca condicional.

Estas críticas son contestadas por los probabilistas lógicos argumentando que aunque la probabilidad sea relativa a una evidencia, nunca lo es a actitudes personales. La evidencia sobre la que se basa una probabilidad depende del conocimiento de cada persona, pero no de las probabilidades que deben asignarse según este conocimiento, a las que siempre deben llegarse por el camino racionalmente lógico. Esto último es, a su vez, criticado por parte de los subjetivistas que entienden que un mismo cuerpo de evidencia puede conducir a distintos grados de creencia personales.

• La interpretación Lógica de la Probabilidad es poco operativa para ser aplicada a

problemas reales que presentan cierta complejidad. Las Teorías Lógicas hablan de la estructura formal de la probabilidad, pero no indican, salvo en ciertos casos, un camino simple y operativo para obtener el valor correcto de las probabilidades justificadas por la evidencia. Así, la posibilidad de adaptar el concepto de probabilidad a cualquier situación real, parece más potencial e idealista que real.

La ventaja más destacable de esta Teoría es que por primera vez en la historia es posible concebir el concepto de probabilidad para sucesos no contemplados por las Teorías anteriores. Por tanto, potencialmente esta concepción suministra una interpretación universal de la probabilidad. 6. Concepción Subjetiva de Probabilidad

6.1 Antecedentes y principios de la definición Subjetiva de Probabilidad A partir de la tercera década del siglo XX, la definición Subjetiva, Subjetivista o Personal de probabilidad se desarrolló, casi paralelamente a la Lógica. Bajo el punto de vista subjetivo, la probabilidad se entiende como una relación entre una determinada sentencia y un cuerpo de evidencia personal. En contraste con el punto de vista lógico, esta relación no es puramente lógica, sino que

La probabilidad representa un grado de creencia personal, y por tanto, no está unívocamente determinada por la evidencia.

Page 33: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

33

El concepto de probabilidad subjetiva abandona pues el criterio de confirmación como grado de creencia objetivo y racional, expresando el grado de confirmación como grado de creencia real de cada persona. La idea de identificar la probabilidad con grados de creencia fue informalmente avanzada por James Bernouilli (1654-1705) cuando habló de la probabilidad como grado de confianza en la ocurrencia de un cierto suceso, dependiendo del conocimiento de las circunstancias. En 1847, A. De Morgan (1806-1871), y mas tarde, en 1924, E. Borel (1871-1956) también interpretaron la probabilidad en términos de grados de creencia, aunque no desarrollaron ninguna teoría formal al respecto. Para interpretar la probabilidad en el contexto de la Teoría Subjetivista, suele usarse las expresiones ‘grado de confianza’ o ‘grado de creencia’ que se tendría en una hipótesis a partir de una evidencia. Los primeros intentos de formalizar esta concepción se deben al matemático, filósofo y economista británico Frank P.Ramsey (1903-1930), y aparecen en el ensayo “Truth and Probability” (1931). Este trabajo, esencial para la Teoría, fue publicado póstumamente y en el que desarrolla su criterio personalista de la probabilidad y utilidad. Sin embargo, fueron los matemáticos Bruno De Finetti (1906-1985) y, posteriormente, Leonard J. Savage (1917-1971), quienes desarrollaron de forma sistemática la Teoría de Probabilidad Subjetivista. Fundamentalmente, el concepto subjetivo de probabilidad tuvo más amplia aceptación y aplicación después de la publicación del trabajo de Savage, “The foundations od Statics” (1954), en donde expresa:

…”Para los subjetivistas o personalistas, la probabilidad mide la confianza que un individuo particular tiene en la verdad de una proposición particular, y no niegan la posibilidad de que dos personas razonables ante la misma evidencia tengan grados de confianza distintos en la verdad de la misma proposición”.

Aunque el anterior trabajo trata de forma más completa dicha Teoría, el primer intento claro de su axiomatización lo encontramos en los trabajos de De Finetti, “Sul significato soggetivo Della probabilitá”, (1931) y “La prévision ses lois logiques, ses sources subjetives”, (1937). De Finetti y Savage proponen en su época una noción de probabilidad personal que puso en duda las técnicas estadísticas aceptadas hasta ese momento. Estos autores propusieron métodos de obtención de probabilidades personales aproximadas a través de las ideas de la Teoría de Decisión Estadística, y en los que el método teórico de la toma de decisiones proporciona una nueva base para definir la probabilidad personal. Ambos autores mantuvieron una estrecha relación. El importante libro de De Finetti, “Probability, Induction and Statistics”, publicado en Roma en 1971, está dedicado a Savage, que había muerto en Yale meses antes. En general, los puntos básicos de la Teoría Subjetivista se pueden considerar los siguientes:

Page 34: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

34

i) No existe la probabilidad objetiva, sino grados de creencia individuales. (1) ii) Los grados de creencia adquieren significado cuando pueden medirse, y se especifica la forma de hacerlo. Esta afirmación representa la primera consideración para la formalización del concepto y desarrollo de la Teoría. (2) iii) El individuo tiene un comportamiento racional, coherente, que le conduce, ante una situación de incertidumbre, a ordenar sus grados de creencia de forma consistente y no contradictoria. (3) Sobre la base de que la probabilidad concierne exclusivamente con actitudes individuales (afirmación (1)), Ramsey sugirió que el camino apropiado para medir los grados de creencia de un individuo (afirmación (2)), es examinar su comportamiento. En particular este propuso someter al individuo a un sistema de apuestas que reflejaran su comportamiento ante diferentes opciones. La idea está expresada en el siguiente comentario de De Finetti (1937):

…”Es simplemente una cuestión de hacer matemáticamente precisa la idea trivial y obvia de que el grado de probabilidad atribuido por un individuo a un suceso se materialice por las condiciones bajo las que se estaría dispuesto a apostar sobre tal suceso”.

Si el principio fundamental para establecer probabilidades es la coherencia del individuo (afirmación (3)), en el esquema de apuestas equivaldrá a que el individuo obviará asignaciones que conduzcan a pérdidas seguras. Por otra parte, la coherencia aludida en el último punto significa que el mismo sujeto ante situaciones equivalentes, asignará grados de creencias iguales. En principio parece discutible considerar esta noción como una probabilidad en el sentido de Kolmogorov, pero lo que está claro es que siguiendo el principio de coherencia, esta valoración de los grados de creencia, también es compatible con el esquema axiomático de Kolmogorov. La denominación de probabilidad Subjetiva, Subjetivista o Personal está plenamente justificada, por cuanto de manera obvia, las componentes subjetivas del concepto se hallan cimentadas en la propia noción de “apuesta” y “premio”. Los seguidores de esta corriente consideran fundamental el comportamiento del individuo frente a la incertidumbre, que conduce a atribuir implícita o explícitamente un orden a una medida de la posibilidad de acaecimiento de los sucesos. Así, De Finetti afirma:

…”El grado de probabilidad atribuido por un individuo a un suceso dado se manifiesta por las condiciones en las que el se encontraría dispuesto a apostar por este suceso”.

Esta concepción se revelará altamente operativa, ya que no solo es compatible, sino incluso convergente con las conclusiones que se derivan de las opciones objetivas, sin mas que requerir que los comportamientos de los individuos obedezcan a principios de coherencia, entendiendo esta, como explica De Finetti, como.

Page 35: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

35

…”El conjunto de reglas a las que la evaluación subjetiva de las probabilidades de diversos acontecimientos por un mismo individuo debe de someterse, sino se quiere que entre ellas se produzca una contradicción fundamental”.

La aceptación de un sistema de apuestas para la cuantificación de los grados de creencia de un individuo presenta también problemas. El comportamiento de un individuo ante una apuesta puede estar sesgado por elementos marginales, como el valor relativo del dinero. Por ello, un factor fundamental para el establecimiento de probabilidades sería la consideración de una ‘Función de Utilidad’, que evite complicaciones de este tipo. Ya Ramsey probó que, bajo ciertos axiomas de consistencia en la ordenación de las preferencias de un individuo, y suponiendo la existencia de lo que el llamó una ‘proposición éticamente neutral’, (se le asigna un grado de creencia ½), puede construirse una ‘Función de Utilidad’ que conduce a una asignación formal de valores numéricos a los distintos grados de creencia. Las ideas avanzadas por Ramsey fueron posteriormente desarrolladas por De Finetti y Savage, quien en 1954, presentó un desarrollo sistemático de la teoría haciendo especial énfasis en la dualidad de los conceptos de Probabilidad Subjetiva y Utilidad. Entre los autores posteriores que han defendido esta Teoría destacamos a Bernard Osgood Koopman (1900-1981), aunque una mención especial se debe de hacer de Dennis V. Lindley, matemático británico nacido en 1923 y que actualmente es profesor emérito de Estadística en el College de Londres. Aunque primero fue objetivista, pronto encontró la Teoría Subjetivista como la “más clara, tanto en la teoría como en la práctica”. Su obra mas sobresaliente en este campo será “Introduction to probability and statistics”, publicada en 1965 en dos volúmenes. Entre los coetáneos de Lindley, destacamos a C. Villegas, P.C. Fishburn, P. Suples, S. French, etc. Estos, fundamentalmente trabajaran en la construcción de axiomáticas que constituyen la base formal que garantiza el comportamiento racional y coherente del individuo que cuantifica los grados de creencia, y que es el principio básico de la Teoría Subjetivista, y en la noción y formalización de la utilidad. Por último, creemos interesante señalar los autores españoles más relevantes en el Subjetivismo: Ángel Vegas Pérez, Ubaldo Nieto de Alba, y especialmente Francisco Javier Girón. Entre las mas importantes aportaciones de este destacamos sus obras: Una caracterización conjunta de probabilidad subjetiva y de la utilidad (1985), Caracterización axiomática de la regla de Bayes y la probabilidad subjetiva (1977), Probabilidad y utilidad: conceptos duales de la Teoría de decisión (1979). Destacamos la denominación que Girón hace del Subjetivismo, cuando afirma que “la interpretación subjetivista es también denominada personal, personalista o bayesiana”, donde explicita el importante papel que juega en esta Teoría en el ámbito de la Inferencia Bayesiana.

Page 36: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

36

6.2 Definición Subjetiva de Probabilidad. Propiedades Como se ha señalado la Teoría Subjetivista tiene sentido si se apunta como formalizarla. En su evolución se han ideado, y se sigue trabajando en ello, diversas axiomatizaciones. Por su cronología y trascendencia, presentamos a continuación la definición y axiomatización propuesta por De Finetti. De Finetti propone leyes que debe seguir la probabilidad tal y como el la concibe, es decir, no como una noción abstracta, sino a partir de una idea elemental entroncada en la vida diaria. Según esta elemental apreciación, es posible suponer un suceso bien definido pero que nos plantea duda acerca de su ocurrencia o no ocurrencia. Esta incertidumbre lleva al autor a definir dos términos:

- La comparación que establece con la relación “… más probable que …”. - La graduación o valoración cuantitativa y directa del grado de probabilidad atribuido por un individuo a un suceso.

Para resolver el problema de la comparación, De Finetti establece cuatro postulados, que servirán de referencia a los probabilistas subjetivos para establecer la probabilidad cualitativa. Para valorar cuantitativa y directamente el grado de probabilidad, considera que es adecuado que el individuo exprese las condiciones en las que estaría dispuesto a apostar por la ocurrencia del suceso. La evaluación de las probabilidades por parte del individuo requiere que no existan contraindicaciones intrínsecas entre ellas. Esta condición de coherencia sirve para guiar el cálculo de probabilidades mediante un conjunto de reglas a las que se debe ajustar la evaluación subjetiva de la probabilidad de varios sucesos por un mismo individuo, si no quiere que exista contradicción entre ellas. Estas ideas van a culminar en la axiomática de De Finetti. Axiomática de De Finetti (1931) Entre 1931 y 1937, De Finetti propone las leyes que ha de seguir la probabilidad subjetiva que se resumen de la forma siguiente.

* Postulados para la relación comparativa “…mas probable que…”

1. Un suceso incierto puede ser igualmente probable o menos probable que el otro.

2. Un suceso incierto siempre será más probable que un suceso imposible y menos probable que un suceso seguro.

3. Si un suceso A es más probable que otro B y este último es más probable que otro suceso C, entonces A será más probable que C (propiedad transitiva).

4. Si A es mas probable que B y A’ es más probable que B’, siendo los sucesos {A, A’}, y {B, B’} incompatibles entonces, AUA’ es mas probable que BUB’.

* Definición cuantitativa y directa del grado de probabilidad Para De Finetti la probabilidad no tiene existencia objetiva, no es una propiedad de la naturaleza, ni de los individuos; describe una relación entre un individuo y la naturaleza: Pi(S/E) es una medida del grado de creencia

Page 37: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

37

en la ocurrencia de un suceso “S” (sentencia), asignada por el individuo “i” en unas condiciones “E”. En particular, su definición de probabilidad es totalmente operativa:

La probabilidad asignada por un individuo “i” a un suceso “S” en las condiciones “E”, Pi(S/E), debe expresar el máximo “precio” (apuesta) que dicho individuo, guiado por un comportamiento racional y coherente, estaría dispuesto a pagar por un ticket de una rifa jugada en las condiciones “E”, en la que obtendría un premio unidad si y solamente si “S” tiene lugar.

Para ello desarrolla un conjunto de reglas a las que se debe ajustar la evaluación subjetiva de las probabilidades por un mismo individuo. Una de estas reglas es el ‘Teorema de las Probabilidades Totales’ o ‘Teorema de la Probabilidad de la Suma Lógica de sucesos’:

Sea {S1, S2, … Sn} una clase completa de sucesos incompatibles, de los cuales uno y solo uno puede ocurrir, y {p1, p2, … pn} las probabilidades, grados de creencia subjetivos, asignados por un individuo “i” en las condiciones “E”, (pj= Pi(Sj/E). La condición necesaria y suficiente para que no se construya un conjunto de apuestas en las que “i” necesariamente pierda dinero, es que {p1, p2, … pn} constituyan una distribución de probabilidad, (todas las pj sean no negativas y que sumen 1). Luego para evitar un comportamiento incoherente, intrínsecamente contradictorio, los grados de creencia deben comportarse como probabilidades.

Con estas condiciones De Finetti demuestra, de forma más general, el 3º Axioma de probabilidad de Kolmogorov.

Naturalmente, el hecho de que exista una definición operativa, no implica que utilizarla sea en la práctica el mejor método de asignar probabilidades. De hecho, el concepto de probabilidad como grado de creencia incluye como caso particular los conceptos clásico y frecuentista. Si las condiciones de un problema sugieren una percepción de equiprobabilidad entre “n” casos posibles mutuamente excluyentes, entonces el sujeto asignará la misma probabilidad, “1/n”, a cada uno de ellos. Consecuentemente, en virtud de las leyes de la probabilidad que los grados de creencia deben obedecer, la probabilidad asociada a un suceso constituido por la unión de “m” de ellos, será necesariamente “m/n”. Análogamente, si la información histórica de que se dispone sugiere una comparación con situaciones razonablemente parecidas, entonces la probabilidad asignada será presumiblemente establecida en base a las correspondientes frecuencias relativas: la probabilidad como límite de la sucesión de frecuencias relativas asociadas al suceso cuando el número de repeticiones crece indefinidamente.

Page 38: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

38

Ejemplo 1: Se lanza un dado, determinad, bajo la perspectiva subjetiva, la probabilidad de obtener un cinco. Se considera el suceso (sentencia) “S: obtener {5}”. Tanto si consideramos como conocimiento previo “E” la equiprobabilidad de las caras (definición clásica de probabilidad), como la estabilidad de la sucesión de frecuencias relativas asociadas a la aparición del {5} (definición frecuentista), se obtiene que por coherencia un individuo “i” podría apostar un máximo de 1/6 de unidad monetaria por un ticket que le daría derecho a cobrar 1 unidad monetaria si al lanzar el dado se obtiene este número. Pi(S/E)=1/6

Ejemplo 2: El individuo “i” asigna una probabilidad, según la definición subjetiva, al suceso “S: llueve mañana” en las condiciones siguientes: o El individuo tiene una total incertidumbre respecto al suceso.(Ea). Pi(S/Ea)=1/2 o El individuo sólo repara en que durante toda la semana todos los días

han sido soleados (Eb). Pi(S/Eb)=0 o El individuo repara en que hoy hace mucho viento dirección este y en la zona

occidental se están produciendo lluvias importantes (Ec). Pi(S/Ec)=3/4 o Se conoce el parte meteorológico que asegura la llegada de una borrasca

(Ed). Pi(S/Ed)=1

Propiedades Como se desprende de la exposición anterior, los axiomas de probabilidad de kolmogov, sin relación operativa alguna con el mundo real, se convierten en teoremas para los grados de creencias personales asignados por los individuos. Los grados de creencia deben satisfacer las propiedades convencionalmente utilizadas

Page 39: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

39

para definir formalmente la probabilidad, y consecuentemente, puede definirse una medida de probabilidad a partir de ellos. Para De Finetti, cualquier incertidumbre debe ser expresada mediante una distribución de probabilidad. (Esta será la característica esencial de la metodología estadística Bayesiana). 1. Para todo suceso “S” y conocimiento que acerca de el tenga el individuo “i”, “E”,

entonces Pi(S/E)≥0.

D/ Supuesta la racionalidad del individuo, este no aceptaría un juego con premio o ganancia nula, o en sentido negativo. Por otra parte, dentro de la esfera de la coherencia, carece de sentido suponer que el sujeto haga una apuesta superior al premio o ganancia. A lo sumo cabe admitir que el individuo no efectúa apuesta alguna en la situación más adversa. Por tanto, en general: 0≤Pi(S/E)≤1.

2. Si el suceso “S” es confirmado siempre por el conocimiento “E” que posee el

individuo “i”, entonces Pi(S/E)=1.

D/ No tiene sentido que el individuo efectúe una apuesta cuyo valor sea mayor que el premio que se confía recibir. En el caso más favorable en el que el individuo está seguro de la ocurrencia del suceso por el que estamos apostando, sería aceptable admitir la máxima apuesta, que es lógico que sea igual que la ganancia o premio.

3. Si nSSS ,..., 21 son sucesos incompatibles de los que el individuo “i” dispone de

los conocimientos nEEE ,..., 21 respectivamente, entonces, la probabilidad de

que ocurra alguno es la suma de las probabilidades asociadas a cada uno de

ellos, es decir, ∑=

n

iii ESP

1

)/( .

D/ Consecuencia directa del ‘Teorema de Probabilidades Totales’ o ‘Teorema de la Probabilidad de la Suma Lógica de sucesos’.

Como se ha indicado, los probabilistas subjetivos, sobre todo a partir de Savage, van a concebir como una nueva base para definir la probabilidad, el método teórico de la toma de decisiones. La axiomática deducida por Savage, a partir de estas ideas, es considerada fundamental por la mayoría de los partidarios de la interpretación subjetiva de probabilidad. Apuntamos a grandes rasgos sus principios. Axiomática de Savage (1954) Savage afirma que “…la teoría mostrada tiene implicaciones con la Teoría de la Utilidad debida, en su forma moderna, a Von Neumann y Morgenstern”, (Theory of games and Economic behavior). Para exponer su teoría Savage parte de la idea del comportamiento de una persona racional, coherente y consistente, en la toma de decisiones. Así el objetivo es deducir una ‘función de utilidad’ y probabilidad subjetiva numérica, a partir de los postulados cualitativos sobre preferencias entre las elecciones. Savage comienza definiendo términos de la toma de decisiones como:

Page 40: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

40

- Estados de la naturaleza: conjunto de diferentes situaciones. - Acciones: conjunto de posibles actuaciones. - Consecuencias: consecuencias de la elección de cualquier acción frente a cada estado de la naturaleza. Estas son medidas por la llamada “función de utilidad”.

- Decisiones: son funciones del conjunto de los estados de la naturaleza en el conjunto de acciones, que tiene en cuenta las consecuencias.

Elegir (tomar) las decisiones adecuadas conllevará elegir la acción o acciones que minimicen las consecuencias (valoradas mediante la función de utilidad) para cada posible estado de la naturaleza.

La idea general es considerar conjuntos de axiomas que caractericen a la ‘utilidad’ y la ‘probabilidad subjetiva’ de manera conjunta. Savage parte de una relación de preferencia débil ≤ (“…no es preferido a…”) sobre las acciones. En términos de la relación ≤, es sencillo definir una relación correspondiente de preferencia sobre las consecuencias, y una probabilidad comparativa sobre los estados de la naturaleza. Suponiendo estas dos relaciones adicionales, Savage establece siete postulados que sirven como base para establecer un teorema que garantiza la existencia conjunta de una función de utilidad sobre las consecuencias y de una función de probabilidad subjetiva sobre los estados. Los axiomas se establecen de tal manera que cualquiera de las acciones que los satisfaga maximizará la función de utilidad esperada. Esto significa que se generará una distribución de probabilidad subjetiva acerca de las creencias respecto al estado verdadero de la naturaleza, y una ‘función de utilidad’ sobre el conjunto de consecuencias. La expectativa de una decisión dada se define con respecto a la distribución de probabilidad subjetiva sobre los estados de la naturaleza.

6.3 Objeciones a la Definición Subjetiva. Ventajas Las críticas a esta concepción se resumen principalmente en los siguientes puntos. • Falta de objetividad. Son muchos los que argumentan que nunca opiniones

personales y, por tanto, probabilidades subjetivas pueden servir como base para investigaciones científicas.

• Bajo esta concepción cualquier información puede alterar la asignación de

probabilidades, por tanto, la consideración de un suceso en una sucesión de experimentos idénticos e independientes carece de sentido. Como apuntó De Finetti, los sucesos no son nunca ‘idénticos’, sino ‘análogos’. Para tratar este tipo de situaciones y ofrecer sólidez al desarrollo de ‘Métodos Inferenciales’ basados en la concepción Subjetiva de probabilidad, De Finetti introdujo en 1928, la noción fundamental de ‘sucesos intercambiables’. La ‘intercambiabilidad’ es esencialmente una expresión de simetría en el comportamiento probabilístico de los sucesos de una colección (la restricción de coherencia obliga a asignar la misma probabilidad a cada uno de los sucesos “intercambiables”), y constituye una versión, bajo el punto de vista subjetivo, de las restricciones de independencia y aleatoriedad de sucesos repetidos en la terminología frecuentista.

Page 41: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

41

A continuación, señalamos los argumentos que hacen plausible esta interpretación de la probabilidad. • La Probabilidad Subjetiva ha extendido el campo de aplicación de la Teoría de

Probabilidad, permitiendo hablar de probabilidad en situaciones en las que otros puntos de vista (Clásico, Frecuentista) son inaplicables (“probabilidad que suba la bolsa”, “probabilidad de que llueva mañana”,…).

Específicamente, a diferencia de la Teoría Clásica y Frecuentista, y coincidiendo con la Teoría Lógica, el punto de vista subjetivo permite interpretar la probabilidad de cualquier suceso individual, salvando además el problema de cálculo que se presenta bajo la concepción puramente Lógica.

• En el ámbito de la Inferencia Estadística esta concepción de probabilidad ha dado

fuerza al uso del ‘Teorema de Bayes’. Este había estado restringido, bajo la perspectiva frecuentista, por el posible desconocimiento de las probabilidades ‘a priori’. A partir de la concepción Subjetiva de probabilidad y asumiendo dicho teorema, se conforma la Escuela Bayesiana de estadísticos. La probabilidad de establecer subjetivamente las probabilidades ‘a priori’, y actualizarlas, a partir de nuevos datos, (lo que reduce sucesivamente la subjetividad inicial), ha permitido desarrollar una serie de técnicas inferenciales de gran aplicación en diversas áreas de conocimiento.

Realiza la Actividad 9 correspondiente al Bloque I, dentro de Actividades Complementarias del Menú del curso.

Realiza la Actividad 10 correspondiente al Bloque I, dentro de Actividades

Complementarias del Menú del curso.

ANEXO: Otras concepciones de Probabilidad Como ya se ha apuntado, son muchas las teorías o concepciones de probabilidad que se han desarrollado a lo largo del siglo XX hasta la actualidad. En general, estas son encuadradas en los 4 grupos que se han desarrollado, pero otras constituyen en si mismas teorías que partiendo de consideraciones completamente distintas a las que fundamentan estos grupos, establecen postulados y deducen las reglas de comportamiento que rigen su desarrollo. Un ejemplo es la teoría de Shackle. La Teoría de Shackle La postura de Shackle, que fue fundamentalmente desarrollada en la década 1960-1970, rompe con el concepto de probabilidad Subjetiva, planteando el problema del decisor frente al tiempo. Para el sujeto activo sólo existe un momento, el presente, instante crucial en el que poseerá todas las consecuencias actuales según las cuales tiene que adoptar una decisión. En su opinión, la idea de probabilidad no resulta adecuada como medida del grado de incertidumbre asociado a fenómenos aleatorios. Resultará más adecuada la noción de ‘Sorpresa Potencial’. Con palabras de Shackle esta puede introducirse de la forma siguiente:

Page 42: T1virtual Def

Problemas Clásicos de Probabilidad y Estadística Mª Jesús Rosales Moreno

42

“…Si yo pienso que, muy verosimilmente, lloverá mañana, puedo decir que a esta idea se le asocia una sorpresa potencial nula, en tanto que a la idea contraria le corresponde un cierto grado de sorpresa potencial mayor que cero; pero esta idea contraria puede descomponerse en varias alternativas: sol, cielo cubierto, nieve,… Yo atribuiré un grado de sorpresa potencial más débil a unas hipótesis que a otras.”

Para fundamentar esta noción se introduce un conjunto de 17 postulados, así como el concepto de ‘grado de creencia’. Este se establece como:

“…Decid que un individuo adjudica el mismo Grado de Creencia a dos hipótesis implica, en términos de Sorpresa Potencial, dos afirmaciones:

. 1 La igualdad de los dos grados de sorpresa potencial atribuida a cada una de las hipótesis. . 2. La igualdad de los grados de sorpresa atribuida a cada una de las respectivas hipótesis contrarias”.

Así pues, Shackle sustituye la noción de probabilidad por la sorpresa potencial (atribuida a cada una de las hipótesis, y a cada una de las respectivas hipótesis contrarias) y el grado de creencia. Algunos autores, por ejemplo Krelle, han identificado las concepciones de la sorpresa potencial y la probabilidad subjetiva, pero Shackle rechaza esta posición, dado que es contraria a una de sus ideas esenciales. Efectuar la suma de los grados de posibilidad otorgadas a las diversas hipótesis alternativas, es rechazar la idea de que es el número de estas las que confieren a una hipótesis dada su status. Se repudia así el principio de enumeración de los sucesos, que se encuentra en los cimientos de la teoría de Savage. La sorpresa potencial es una variable de incertidumbre no distributiva. Shacke define el concepto de ‘resutado neutro’ como aquel que el sujeto decisor considera como no más, ni tampoco menos, deseable que su actual posición. Define también la idea de ‘deseabilidad’, de manera tal que ante los hipotéticos resultados de un conjunto de acciones considera un orden por grados de posibilidad y otros por grados de deseabilidad. Para acceder a la cardinalidad de los grados de sorpresa potencial, se supone que el individuo puede juzgar la distancia ante diversas sorpresas potenciales y concebir subintervalos iguales.