19
Historia de la Estadística La Estadística es una disciplina que utiliza recursos matemáticos para organizar y resumir una gran cantidad de datos obtenidos de la realidad, e inferir conclusiones respecto de ellos. Por ejemplo, la estadística interviene cuando se quiere conocer el estado sanitario de un país, a través de ciertos parámetros como la tasa de morbilidad o mortalidad de la población. En este caso la estadística describe la muestra en términos de datos organizados y resumidos, y luego infiere conclusiones respecto de la población. Aplicada a la investigación científica, también infiere cuando provee los medios matemáticos para establecer si una hipótesis debe o no ser rechazada. La estadística puede aplicarse a cualquier ámbito de la realidad,”ESTADISTICA" se derivó de la palabra "ESTADO". La función de los gobiernos entre otras cosas es llevar los registros de población, nacimientos, cosechas, impuestos y toda la información que engloba el estado, es así que, tradicionalmente se definió a la estadística como un instrumento de compilación, organización, presentación y análisis de datos numéricos. Sólo cuando nos adentramos en un mundo más específico como es el campo de la investigación de las Ciencias Sociales: Medicina, Biología, Psicología, ... empezamos a percibir que la Estadística no sólo es algo más, sino que se convierte en la única herramienta que, hoy por hoy, permite dar luz y obtener resultados, y por tanto beneficios, en cualquier tipo de estudio, cuyos movimientos y relaciones, por su variabilidad intrínseca, no puedan ser abordadas desde la perspectiva de las leyes determinísticas. Podríamos, desde un punto de vista más amplio, definir la estadística como la ciencia que estudia cómo debe emplearse la información y cómo dar una guía de acción en situaciones prácticas que entrañan incertidumbre. La estadística es una ciencia aplicada de las matemáticas y es una valiosa herramienta para la toma de decisiones. Permite el estudio de

Esta Di Stica

Embed Size (px)

DESCRIPTION

estadistica

Citation preview

Page 1: Esta Di Stica

Historia de la EstadísticaLa Estadística es una disciplina que utiliza recursos matemáticos para organizar y resumir una gran cantidad de datos obtenidos de la realidad, e inferir conclusiones respecto de ellos.Por ejemplo, la estadística interviene cuando se quiere conocer el estado sanitario de un país, a través de ciertos parámetros como la tasa de morbilidad o mortalidad de la población.En este caso la estadística describe la muestra en términos de datos organizados y resumidos, y luego infiere conclusiones respecto de la población.Aplicada a la investigación científica, también infiere cuando provee los medios matemáticos para establecer si una hipótesis debe o no ser rechazada.La estadística puede aplicarse a cualquier ámbito de la realidad,”ESTADISTICA" se derivó de la palabra "ESTADO". La función de los gobiernos entre otras cosas es llevar los registros de población, nacimientos, cosechas, impuestos y toda la información que engloba el estado, es así que, tradicionalmente se definió a la estadística como un instrumento de compilación, organización, presentación y análisis de datos numéricos. Sólo cuando nos adentramos en un mundo más específico como es el campo de la investigación de las Ciencias Sociales: Medicina, Biología, Psicología, ... empezamos a percibir que la Estadística no sólo es algo más, sino que se convierte en la única herramienta que, hoy por hoy, permite dar luz y obtener resultados, y por tanto beneficios, en cualquier tipo de estudio, cuyos movimientos y relaciones, por su variabilidad intrínseca, no puedan ser abordadas desde la perspectiva de las leyes determinísticas. Podríamos, desde un punto de vista más amplio, definir la estadística como la ciencia que estudia cómo debe emplearse la información y cómo dar una guía de acción en situaciones prácticas que entrañan incertidumbre. La estadística es una ciencia aplicada de las matemáticas y es una valiosa herramienta para la toma de decisiones. Permite el estudio de fenómenos mediante la descripción del mismo a través de inferencias mediante distribuciones probabilísticas. La Estadística se ocupa de los métodos y procedimientos para recoger, clasificar, resumir, hallar regularidades y analizar los datos, siempre y cuando la variabilidad e incertidumbre sea una causa intrínseca de los mismos; así como de realizar inferencias a partir de ellos, con la finalidad de ayudar a la toma de decisiones y en su caso formular predicciones. Podríamos por tanto clasificar la Estadística en descriptiva, cuando los resultados del análisis no pretenden ir más allá del conjunto de datos, e inferencias cuando el objetivo del estudio es derivar las conclusiones obtenidas a un conjunto de datos más amplio. Estadística descriptiva: Describe, analiza y representa un grupo de datos utilizando métodos numéricos y gráficos que resumen y presentan la información contenida en ellos.

Estadística inferencial: Apoyándose en el cálculo de probabilidades y a partir de datos de muestras, efectúa estimaciones, decisiones, predicciones u otras generalizaciones sobre un conjunto mayor de datos.

Page 2: Esta Di Stica

ORIGEN DE LA ESTADISTICA:

Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, cuyos faraones lograron recopilar, hacia el año 3050 antes de Cristo, prolijos datos relativos a la población y la riqueza del país. De acuerdo al historiador griego Heródoto, dicho registro de riqueza y población se hizo con el objetivo de preparar la construcción de las pirámides. En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de verificar un nuevo reparto.

En el antiguo Israel la Biblia da referencias, en el libro de los Números, de los datos estadísticos obtenidos en dos recuentos de la población hebrea. El rey David por otra parte, ordenó a Joab, general del ejército hacer un censo de Israel con la finalidad de conocer el número de la población.

También los chinos efectuaron censos hace más de cuarenta siglos. Los griegos efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Pero fueron los romanos, maestros de la organización política, quienes mejor supieron emplear los recursos de la estadística. Cada cinco años realizaban un censo de la población y sus funcionarios públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. Para el nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del imperio.

Durante los mil años siguientes a la caída del imperio Romano se realizaron muy pocas operaciones Estadísticas, con la notable excepción de las relaciones de tierras pertenecientes a la Iglesia, compiladas por Pipino el Breve en el 758 y por Carlomagno en el 762 DC. Durante el siglo IX se realizaron en Francia algunos censos parciales de siervos. En Inglaterra, Guillermo el Conquistador recopiló el Domesday Book o libro del Gran Catastro para el año 1086, un documento de la propiedad, extensión

Page 3: Esta Di Stica

y valor de las tierras de Inglaterra. Esa obra fue el primer compendio estadístico de Inglaterra.

Aunque Carlomagno, en Francia; y Guillermo el Conquistador, en Inglaterra, trataron de revivir la técnica romana, los métodos estadísticos permanecieron casi olvidados durante la Edad Media.

Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci, Nicolás Copérnico, Galileo, Neper, William Harvey, Sir Francis Bacon y René Descartes, hicieron grandes operaciones al método científico, de tal forma que cuando se crearon los Estados Nacionales y surgió como fuerza el comercio internacional existía ya un método capaz de aplicarse a los datos económicos.

Para el año 1532 empezaron a registrarse en Inglaterra las defunciones debido al temor que Enrique VII tenía por la peste. Más o menos por la misma época, en Francia la ley exigió a los clérigos registrar los bautismos, fallecimientos y matrimonios. Durante un brote de peste que apareció a fines de la década de 1500, el gobierno inglés comenzó a publicar estadísticas semanales de los decesos. Esa costumbre continuó muchos años, y en 1632 estos Bills of Mortality (Cuentas de Mortalidad) contenían los nacimientos y fallecimientos por sexo. En 1662, el capitán John Graunt usó documentos que abarcaban treinta años y efectuó predicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y mujeres que cabría esperar. El trabajo de Graunt, condensado en su obra Natural and Political Observations...Made upon the Bills of Mortality (Observaciones Políticas y Naturales ... Hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo innovador en el análisis estadístico.

Por el año 1540 el alemán Sebastián Muster realizó una compilación estadística de los recursos nacionales, comprensiva de datos sobre organización política, instrucciones sociales, comercio y poderío militar. Durante el siglo XVII aportó indicaciones más concretas de métodos de observación y análisis cuantitativo y amplió los campos de la inferencia y la teoría Estadística.

Los eruditos del siglo XVII demostraron especial interés por la Estadística Demográfica como resultado de la especulación sobre si la población aumentaba, decrecía o permanecía estática.

En los tiempos modernos tales métodos fueron resucitados por algunos reyes que necesitaban conocer las riquezas monetarias y el potencial humano de sus respectivos países. El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1691 y estuvo a cargo de Gaspar Neumann, un profesor alemán que vivía en Breslau. Este investigador se propuso destruir la antigua creencia popular de que en los años terminados en siete moría más gente que en los restantes, y para lograrlo hurgó pacientemente en los archivos parroquiales de la ciudad. Después de revisar miles de partidas de defunción pudo demostrar que en tales años no fallecían más personas que en los demás. Los procedimientos de

Page 4: Esta Di Stica

Neumann fueron conocidos por el astrónomo inglés Halley, descubridor del cometa que lleva su nombre, quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compañías de seguros.

Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli, Francis Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades. No obstante durante cierto tiempo, la teoría de las probabilidades limitó su aplicación a los juegos de azar y hasta el siglo XVIII no comenzó a aplicarse a los grandes problemas científicos.

Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760 la palabra estadística, que extrajo del término italiano statista (estadista). Creía, y con sobrada razón, que los datos de la nueva ciencia serían el aliado más eficaz del gobernante consciente. La raíz remota de la palabra se halla, por otra parte, en el término latino status, que significa estado o situación; Esta etimología aumenta el valor intrínseco de la palabra, por cuanto la estadística revela el sentido cuantitativo de las más variadas situaciones.

Jacques Quételect es quien aplica las Estadísticas a las ciencias sociales. Este interpretó la teoría de la probabilidad para su uso en las ciencias sociales y resolver la aplicación del principio de promedios y de la variabilidad a los fenómenos sociales. Quételect fue el primero en realizar la aplicación práctica de todo el método Estadístico, entonces conocido, a las diversas ramas de la ciencia.

Entretanto, en el período del 1800 al 1820 se desarrollaron dos conceptos matemáticos fundamentales para la teoría Estadística; la teoría de los errores de observación, aportada por Laplace y Gauss; y la teoría de los mínimos cuadrados desarrollada por Laplace, Gauss y Legendre. A finales del siglo XIX, Sir Francis Gaston ideó el método conocido por Correlación, que tenía por objeto medir la influencia relativa de los factores sobre las variables. De aquí

partió el desarrollo del coeficiente de correlación creado por Karl Pearson y otros cultivadores de la ciencia biométrica como J. Pease Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la medida de las relaciones.

Los progresos más recientes en el campo de la Estadística se refieren al ulterior desarrollo del cálculo de probabilidades, particularmente en la rama denominada indeterminismo o relatividad, se ha demostrado que el determinismo fue

Page 5: Esta Di Stica

reconocido en la Física como resultado de las investigaciones atómicas y que este principio se juzga aplicable tanto a las ciencias sociales como a las físicas.

Método Estadístico:El uso de los métodos estadísticos se remonta al menos al siglo V a. C. El historiador Tucídides en su Historia de la Guerra del Peloponeso describe como los atenienses calculaban la altura de la muralla de Platea, contando el número de ladrillos de una sección expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos. El conteo era repetido varias veces por diferentes soldados. El valor más frecuente (la moda en términos más modernos) era tomado como el valor del número de ladrillos más probable. Multiplicando este valor por la altura de los ladrillos usados en la muralla les permitía a los atenienses determinar la altura de las escaleras necesarias para trepar las murallas.

En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el rey Ritupama estimaba el número de frutas y hojas (2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un árbol Vibhitaka contándolos en un solo vástago. Este número era luego multiplicado por el número de vástagos en las ramas. Este estimado fue posteriormente verificado y se halló que estaba muy cerca del número verdadero. Con el conocimiento de este método Nala pudo subsecuentemente reconquistar su reino.

El primer escrito de estadística fue encontrado en un libro o del siglo IX titulado Manuscrito sobre el descifrado de mensajes criptográficos, escrito por Al-Kindi (801-873). En su libro, Al-Kindi da una descripción detallada sobre el uso de las estadísticas y análisis de frecuencias en el descifrado de mensajes, este fue el nacimiento tanto de la estadística como del criptoanálisis.

La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a cabo regularmente desde el siglo XII. La prueba en sí misma está basada en métodos de muestreo estadístico. Después de acuñar una serie de monedas ―originalmente de 10 libras de plata― una moneda singular era colocada en el Pyx (una caja en laAbadía de Westminster). Después de un tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego, una muestra de monedas retiradas de la caja es probada por pureza.

La Nuova Crónica, una historia de Florencia del siglo XIV escrita por el banquero florentino y oficial Giovanni Villani, incluye mucha información estadística.sobre la población, ordenanzas, comercio, educación y edificaciones religiosas, y ha sido descrito como la primera introducción de la estadística como elemento positivo en la historia, aunque ni el término ni el concepto de la estadística como campo

Page 6: Esta Di Stica

específico existía aún. Esto se demostró que era incorrecto después del hallazgo del libro de Al-Kindi sobre análisis de frecuencias.

Aunque era un concepto conocido por los griegos, la media aritmética no fue generalizada a más de dos valores hasta el siglo 16. La invención del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de varios cuerpos celestiales.

La idea de la mediana se originó en el libro de navegación de Edward Wright (Certaine errors in navigation) en 1599 en una sección concerniente a la determinación de una localización con un compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una serie de observaciones.

John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality, estimó la población de Londres en 1662 a través de registros parroquiales. El sabía que había cerca de 13,000 funerales al año en Londres y que de cada once familias tres personas morían por año. El estimo de los registros parroquiales que el tamaño promedio de las familias era 8 y calculó que la población de Londres era de cerca de 384,000. Laplace en 1802 estimó la población de Francia con un método similar.

Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene sus raíces en la correspondencia entre Pierre de Fermat y Blaise Pascal(1654). Christiaan Huygens (1657) proveyó el primer tratamiento científico sobre el tema que se conozca hasta la fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo 1713) y La doctrina de las probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. En su libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la probabilidad como un número entre cero y uno.

Galileo luchó contra el problema de errores en las observaciones y había formulado ambiguamente el principio de que los valores más probables de cantidades desconocidas serían aquellos que hicieran los errores en las ecuaciones razonablemente pequeños. El estudio formal en teoría de errores puede ser originado en el libro de Roger Cotes (Opera Miscellanea, póstumo 1750). Tobias Mayer, en su estudio de los movimientos de la Luna (Kosmographische Nachrichten, Núremberg, 1750), inventó el primer método formal para estimar cantidades desconocidas generalizando el promedio

Page 7: Esta Di Stica

de las observaciones bajo circunstancias idénticas al promedio de los grupos de ecuaciones similares.

Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por Abraham de Moivre, quien trazó esta curva en Noviembre 12, 1733. De Moivre estaba estudiando el número de caras que ocurrían cuando una moneda “justa” era lanzada.

En sus memorias ―Un intento por mostrar la emergente ventaja de tomar la media de un número de observaciones en astronomía práctica― preparada por Thomas Simpsonen 1755 (impreso en 1756) aplicaba por primera vez la teoría a la discusión de errores en observaciones. La reimpresión (1757) de sus memorias sostiene el axioma que errores positivos y negativos son igualmente probables, y que hay ciertos valores límites dentro de los cuales todos los errores se encuentran; los errores continuos son discutidos y se provee una curva de probabilidad. Simpson discutió varias posibles distribuciones de error. Primero consideró la distribución uniforme y después la distribución triangular discreta simétrica, seguida por la distribución triangular contínua simétrica.

Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la Tierra propuesto en el libro De litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli para proponer que el verdadero valor de una serie de observaciones sería aquel que minimizara la suma de los errores absolutos. En terminología moderna este valor es la media.

Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicírculo como una distribución de errores:

con –1 = x = 1.

Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de las probabilidades. El representó la ley de a probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres observaciones.

Laplace en 1774 notó que la frecuencia de un error podía ser expresada como una función exponencial de su magnitud una vez descartado el signo. Esta distribución es ahora conocida como distribución de Laplace.

Lagrange propuso una distribución parabólica de errores en 1776:

con -1 = x = 1.

Page 8: Esta Di Stica

Laplace en 1778 publicó su segunda ley de errores en la cual notó que la frecuencia de un error era proporcional a la función exponencial del cuadrado de su magnitud. Esto fue descubierto subsecuentemente por Gauss (posiblemente en 1797) y es ahora mejor conocida como distribución normal, la cual es de importancia central en la estadística. Esta distribución fue referida como «normal» por primera vez por Pierce en 1873, quien estaba estudiando las medidas de error cuando un objeto era dejado caer sobre una superficie de madera. Escogió el término «normal» debido a su ocurrencia frecuente en variables que ocurrían en la naturaleza.

Lagrange también sugirió en 1781 otras dos distribuciones para errores ―una distribución coseno―:

con -1 = x = 1 y una distribución logarítmica

con -1 = x = 1 donde || es el --valor absoluto-- de x.

Laplace obtuvo una formula (1781) para la ley de facilidad de un error (un término acuñado por Joseph Louis Lagrange, 1774), pero esta conllevaba a ecuaciones inmanejables.Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

Laplace, en una investigación del movimiento de Saturno y Júpiter en 1787, generalizó el método de Mayer usando diferentes combinaciones lineales de un grupo de ecuaciones.

En 1802 Laplace estimó la población en Francia a 28,328,612. Él calculó este número usando la cantidad de nacimientos del año anterior y el dato del censo de tres comunidades. Los datos de los censos de estas comunidades mostraron que tenían 2,037,615 personas y que el número de nacimientos era de 71,866. Asumiendo que estas muestras eran representativas de Francia, Laplace produjo un estimado para la población entera.

El método de los mínimos cuadrados, el cual era usado para minimizar errores en la medición de datos, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809).Gauss había usado el método en s famosa predicción en 1801 de la localización del planeta enano Ceres. Las observaciones en las que Gauss basó sus cálculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826),

Page 9: Esta Di Stica

Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel (1850), Crofton (1870), y Thiele (1880, 1889).

El término «error probable» (der wahrscheinliche Fehler) ―la desviación media― fue introducido en 1815 por el astrónomo alemán Frederik Wilhelm Bessel.

Antoine Augustin Cournot en 1843 fue el primero en usar el término «mediana» (valeur médiane) para el valor que divide la distribución de probabilidad en dos mitades iguales.

Otros contribuyentes a la teoría de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli (1875). La formula de Peters (1856) para  , el "error probable" de una sola observación fue ampliamente usada e inspiró tempranamente la estadística robusta (resistente a valores atípicos: ver criterio de Peirce).

En el siglo 19 los autores de la teoría estadística incluían a included Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion,De Morgan, Boole, Edgeworth, and K. Pearson. y K. Pearson.

Gustav Theodor Fechner usó la mediana (centralwerth) en fenómenos sociológicos y sociológicos. Anteriormente había sido usado solamente en astronomía y campos relacionados.

Las primeras pruebas de la distribución normal fueron inventadas por el estadístico alemán Wilhelm Lexis en 1870. El único conjunto de datos disponible para él, en que le era posible mostrar que estaba normalmente distribuido, era la frecuencia de nacimientos.

Francis Galton estudió una variedad de características humanas ―altura, edad, peso, tamaño de las pestañas, entre otras― y encontró que michos de estos factores podían ser ajustados a una distribución normal.16

Francis Galton en 1907 entregó un artículo a la revista Nature acerca de la utilidad de la mediana.17 El examinó la precisión de 787 intentos de adivinar el peso de un buey en una feria de campo. El peso real era de 1208: la mediana de todas las conjeturas fue 1198 libras. Las conjeturas fueron marcadamente no normales en su distribución.

El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895.18 Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. [20] Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era en general un mejor método de estimación que el muestreo intencional (por cuota).19

Page 10: Esta Di Stica

El nivel de significación del 5 % parece ser introducido por Fisher en 1925.20 Fisher expresó que las desviaciones que excedían dos veces la desviación estándar eran consideradas significativas. Previamente a esto las desviaciones que excedían tres veces el error probable eran consideradas significativas. Para una distribución simétrica el error probable la mitad del rango intercuantil. El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67, su error probable es aproximadamente 2/3 de la desviación estándar. Parece que el criterio de Fisher del 5% tenía sus raíces en la práctica previa.

En 1929 Wilso y Hilferty re-examinaron los datos de Pierce de 1873 y descubrieron que en realidad no estaba realmente normalmente distribuida.21

CONCEPTOS BASICOS QUE SE DIERON EN EL SIGLO XX

POBLACION.- Agregado de unidades elementales, que poseen alguna característica o propiedades comunes. El estudio de toda la población constituye un CENSO. Una población puede ser finita o infinita. En relación al tamaño de la población, ésta puede ser:

Finita, como es el caso del número de personas que llegan al servicio de urgencia de un hospital en un día; y se conoce el tamaño N de la población.

Infinita, si por ejemplo estudiamos el mecanismo aleatorio que describe la secuencia de caras y cruces obtenida en el lanzamiento repetido de una moneda al aire. También se considera infinita, a pesar que las poblaciones son pequeña, no se puede saber con exactitud el tamaño de la población. Ejemplos

- Todos los agricultores que cultivan papa para comercializar en el PERU.

- Todas los arboles de pijuayo en Pucallpa.

UNIDAD ELEMENTAL.- Son los "entes" que constituyen la población y de las que se va a obtener información inicial. También conocido como elementos o individuos que contienen cierta información que se desea estudiar. Ejemplos

- Una agricultor que cultiva papa.

- Una arbol de pijuayo.

MUESTRA.- Es una parte de la población. Se espera que la muestra sea representativa de la población, es decir reproduzca las características más importantes. El proceso de obtener la muestra de denomina MUESTREO.

MUESTRA ALEATORIA.- cuando la muestra a sido obtenida empleando algún procedimiento del azar: sorteo, extracción al azar, números aleatorios, etc. Ejemplo

Page 11: Esta Di Stica

- 20 agricultores de papa tomadas al azar de la población de productores de papa.

En una muestra aleatoria, cada unidad elemental tiene una determinada posibilidad (probabilidad) de pertenecer a la muestra.

OBSERVACION.- Es el registro que se obtiene al evaluar una característica en una unidad elemental. Ejemplo

-10 ton por hectarea (si se evaluó la producción de un agricultor). Establecemos a continuación algunas definiciones de conceptos básicos y fundamentales básicas como son: elemento, población, muestra, carácteres, variables, etc., a las cuales haremos referencia continuamente.

VARIABLES ESTADÍSTICAS Cuando hablemos de variable haremos referencia a un símbolo (X,Y,A,B,...) que puede tomar cualquier modalidad (valor) de un conjunto determinado, que llamaremos dominio de la variable o rango. En función del tipo de dominio, las variables las clasificamos del siguiente modo:

VARIABLES CUALITATIVAS.- Generan observaciones de carácter no numérico y son del tipo:

CUALITATIVAS JERARQUICAS.- Cuando se puede establecer una relación de orden entre las posibles observaciones. Llamadas cuasicuantitativas

CUALITATIVAS NOMINALES.- No existe un orden entre las posibles observaciones.

Ejemplos de variables cualitativas:

- Calidad de papa (V.C.J.)

- Color de la pulpa de la papa (V.C.N.)

cuando las modalidades posibles son de tipo nominal. Por ejemplo, una variable de color

VARIABLES CUANTITATIVAS.- son las que tienen por modalidades cantidades numéricas con las que podemos hacer operaciones aritméticas. Dentro de este tipo de variables podemos distinguir dos grupos:

CUANTITATIVAS DISCRETAS.- Cuando el conjunto de todas las posibles observaciones que se generan constituyen a lo más un conjunto infinito numerable. cuando no admiten siempre una modalidad intermedia entre dos cualesquiera de sus modalidades. Un ejemplo es el número de tuberculos por planta. Es obvio que cada valor de la variable es un número natural

Page 12: Esta Di Stica

CUANTITATIVAS CONTINUAS.- Cuando el conjunto de todas las posibles observaciones que se generan constituyen un conjunto infinito no numerable. admiten una modalidad intermedia entre dos cualesquiera de sus modalidades, v.g. el peso tuberculos de una planta cosechada. En este caso los valores de las variables son números reales, es decir ocurre a veces que una variable cuantitativa continua por naturaleza, aparece como discreta. Este es el caso en que hay limitaciones en lo que concierne a la precisión del aparato de medida de esa variable, v.g. si medimos la altura en metros de los arboles con una regla que ofrece dos decimales de precisión, podemos obtener 15.25, 18.24 .

En realidad lo que ocurre es que con cada mediciones se expresa que el verdadero valor de la misma se encuentra en un intervalo. Por tanto cada una de las observaciones representa más bien un intervalo que un valor concreto.

Tal como se cito anteriormente, las modalidades son las diferentes situaciones posibles que puede presentar la variable. A veces éstas son muy numerosas (v.g. cuando una variable es continua) y conviene reducir su número, agrupándolas en una cantidad inferior de clases.

Ejemplos de variables numéricas:

- Número de plantas enfermas en el campo de una hectarea (V.C.D.)

- peso de tubérculo a la cosecha. (V.C.C.)

PARAMETRO.- Es una constante que describe una característica de una población. Para poder calcular el valor de un parámetro, se requiere conocer a ciencia cierta el estado de naturaleza de la población o realizar un censo.

Principales tipos de parámetros son:

Parámetros de tendencia central o de resumen, siendo los más importantes :

- La media o promedio (µ)

- La mediana (Me)

- La moda (Mo)

Parametros de variabilidad, siendo los más importantes:

- La variancia o varianza (σ²)

- La desviación estándar (σ)

- El coeficiente de variabilidad (C.V.)

En el caso de que la variable sea cuantitativa se usa el porcentaje o proporción

. VALOR ESTADISTICO - Son valores análogos a los parámetros, pero que son calculados con la información obtenida de la muestra.

Page 13: Esta Di Stica

Los valores estadísticos son variables porque pueden tomar diferentes valores al cambiar de muestra.

Un valor estadístico estima al parámetro correspondiente. La notación difiere respecto a los parametros:

- Promedio X

- Mediana me

- Moda mo

- variancia s²

- Desviación estándar s

s² estima a σ²

A los valores estadísticos también se le conoce con el nombre de estadígrafos. El término de "medida", suele usarse para referirse a parámetros o valores estadísticos.

LA ESTADÍSTICA EN LA ACTUALIDAD

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al gobierno. Personas y organizaciones usan la estadística para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es entendida generalmente no como un sub-área de las matemáticas sino como una ciencia diferente «aliada». Muchas universidades tienen departamentos académicos de matemáticas y estadística separadamente. La estadística se enseña en departamentos tan diversos como psicología, educación y salud pública.

Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado en varios instantes y los datos recogidos de esta manera constituyen una serie de tiempo.

Regresión lineal – Gráficos dedispersión en estadística.

Page 14: Esta Di Stica

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia.

El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración) tienden a variar conjuntamente, como

si hubiera una conexión entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte podría resultar en que personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos variables se dice que están correlacionadas. Sin embargo, no se puede inferir inmediatamente la existencia de una relación de causalidad entre las dos variables. El fenómeno correlacionado podría ser la causa de una tercera, previamente no considerada, llamada variable confusora.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la población completa. Un problema mayor es el de determinar cuán representativa es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño experimental.

El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística matemática (también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.

El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción e

Page 15: Esta Di Stica

interpretación, lo cual podría llegar a afectar políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear.