View
7.797
Download
1
Category
Preview:
DESCRIPTION
Introducción a la estadistica y probabilidad
Citation preview
INTRODUCCIÓN A LA PROBABILIDAD
Y EL CONTEO
Los métodos estadísticos se utilizan para tomar decisiones basadas en el análisis de
datos recopilados en experimentos de diseño minucioso. Puesto que la ciencia
experimental no puede tener en cuenta toda posible contingencia, siempre habrá algo
de incertidumbre, los métodos estadísticos sirven para evaluar el grado de
incertidumbre de los resultados.
Se los ha clasificado en tres categorías:
∗ Estadística descriptiva_ mediante técnicas analíticas y graficas ésta describe o
representa visualmente un conjunto de datos.
∗ Estadística inferencial_ los métodos de la estadística inferencial permiten
establecer conclusiones acerca de un gran grupo de objetos, observando solo una
porción de objetos del grupo.
De lo anterior, se denomina población al grupo total de objetos de los que se
obtiene conclusiones; y muestra a una parte o subconjunto de la población que se
obtiene y se usa para extraer las conclusiones de dicha población.
∗ Construcción de modelos_ desarrolla ecuaciones predictivas a partir de datos
experimentales.
INTERPRETACIÓN DE LAS PROBABILIDADES
La probabilidad es un número entre 0 y 1 que indica cuan factible es que ocurra un
evento, si la probabilidad es cercana a 1 indica que es muy factible que ocurra el
evento, si la probabilidad es cercana a 0 indica que poco factible que el evento ocurra,
en ambos casos no signifique que el evento ocurrirá o no ocurrirá sino que se trata de
un evento común en el primer caso y un evento poco usual en el segundo caso.
Si la probabilidad es cercana a 1/2 indica que es igualmente factible que el evento
ocurra o no.
Para interpretar las probabilidades una vez que se conocen, se utilizan tres métodos:
∗ El enfoque personal_ asigna una probabilidad al evento en base a la opinión personal
informada, la desventaja es que la precisión de la asignación depende de la
exactitud de la información disponible y la capacidad de evaluar de manera
correcta esa información
∗ El de frecuencia relativa_ se basa en la experimentación y observación repetidas,
la desventaja es que el evento debe ser susceptible de repetirse, toda
probabilidad obtenida de esta forma es una aproximación
∗ El clásico_ éste método puede usarse solamente cuando los posibles resultados del
experimento son igualmente probables
ESPACIOS MUESTRALES Y EVENTOS
El primer paso en el análisis de muchos experimentos es elaborar una lista de todos
los posibles resultados del experimento, llamada espacio muestral,
Uno de los sistemas para desarrollar el espacio muestral a medida que aumenta el
número de posibilidades es el diagrama de árbol.
Evento_ (en sentido matemático) se denomina así a todo subconjunto de un espacio
muestral.
Eventos mutuamente excluyentes_ se denominan así porque la presencia de un evento
impide la presencia del otro.
PERMUTACIONES Y COMBINACIONES
A medida que el experimento se torna más complejo las listas y árboles se vuelven
inmanejables, por esto se requiere métodos de conteo alternos.
Dos tipos comunes de problemas de conteo son el de permutaciones y el de
combinaciones.
Una permutación es un arreglo de objetos en un orden determinado.
Una combinación es una selección de objetos sin orden alguno.
Conteo de permutaciones
Si se tiene un problema cuyo orden es de total importancia, se pregunta cuántas
permutaciones o arreglos de los objetos dados son posibles, es usual que la respuesta
se la obtenga con el principio de multiplicación.
El principio de multiplicación_ mediante este principio se obtiene el número total de
las formas en que puede ocurrir un evento, se usa en la resolución de problemas de
permutación.
La fórmula para calcular el número de permutaciones de n objetos distintos, de los
cuales se toman r objetos en un momento dado, se expresa en el siguiente teorema:
Teorema. El numero de permutaciones de n objetos distintos, de los cuales se
toman r a la vez, denotados con rn P
)!(
!
rn
nPrn −
=
El principio de multiplicación es la primera opción que deberíamos tomar cuando se
tenga un problema que incluye un orden, natural o impuesto.
Conteo de combinaciones
Los problemas de conteo en que la atención se centra en situaciones en las que el
orden es irrelevante, son problemas de combinaciones
Para distinguirse entre combinaciones y permutaciones y permutaciones debe
buscarse las palabras claves “seleccionar” y “ordenar”, la primera indica que es un
problema de combinaciones, y la segunda que se busca una permutación.
Permutaciones de objetos que no se diferencian
Las permutaciones de objetos que no se diferencian analizan problemas de
permutaciones en las que es inevitable la repetición, y responde a la pregunta de
cuántos ordenamientos distintos de n objetos son posibles si algunos de los objetos
son idénticos y por lo tanto no se puede diferenciarlos
La formula general del número total de ordenamientos distintos de estos objetos esta
dada por:
Permutaciones de objetos que no se diferencian
k1K
nnnn nnn
n +++= ...!..!
!2
!21
Teorema. El numero de combinaciones de n objetos distintos, de los cuales se
seleccionan r a la vez, denotados con rnC o
r
n , esta dado por:
)!(!
!
rnr
n
r
nCrn −
=
=
La estadística mediante sus métodos: el enfoque personal, el de frecuencia relativa y
el clásico, permiten la asignación de una probabilidad frente a una situación en la que
haya incertidumbre en la respuesta que se desea obtener.
Se puede interpretar el comportamiento de sucesos que se estén estudiando mediante
el análisis de los métodos estadísticos.
Se puede construir modelos en base a los resultados obtenidos.
Para obtener las probabilidades que puede tener un problema expuesto es necesario,
dadas las características del problema, determinar que enfoque probabilístico se va a
utilizar para responder esta pregunta.
La probabilidad del enfoque de la frecuencia relativa es una aproximación, con un
número de ensayos altos pude llegar a ser muy precisa la probabilidad aproximada.
Las permutaciones y combinaciones son métodos de conteo alternos cuando no se
puede calcular la probabilidad con los métodos anteriores.
Con el conteo de permutaciones es posible responder cuantos arreglos de los objetos
dados son posibles.
Con el conteo de combinaciones es posible responder cuantas selecciones de los
objetos dados son posibles con no importa el orden en que se den.
Con las permutaciones de objetos que no se diferencian es posible responder cuantos
ordenamientos distintos de n objetos son posibles si algunos de los objetos no se
pueden diferenciar.
ALGUNAS LEYES DE PROBABILIDAD
AXIOMAS DE PROBABILIDAD
Las definiciones son los términos técnicos del sistema y los axiomas son
afirmaciones que se suponen verdaderas y que por lo tanto no necesitan
comprobación.
El axioma 1 expresa que la probabilidad asignada a un evento cierto es S es 1
El axioma 2 expresa que la probabilidades solo valores positivos
El axioma 3 afirma que cuando hay eventos mutuamente excluyentes, la
probabilidad de que ocurra por lo menos uno de ellos es la suma de las
probabilidades de esos eventos.
Axiomas de probabilidad
1. Sea S el espacio muestral de un experimento [ ] 1=SP
2. [ ] 0≥AP con cualquier evento A 3. Sean A1, A2, A3,... es una colección finita o infinita de eventos
mutuamente excluyentes. Entonces,
[ ] [ ] [ ] [ ] ⋅⋅⋅+−+=⋅⋅⋅∪∪ 321321 APAPAPAAAP
Por lo tanto una base hecha sobre axiomas y teoremas define lo que es y lo que
hace la probabilidad.
La regla general de la adición
La regla de adición permite calcular la probabilidad de que al menos uno de los
dos eventos tenga lugar cuando no sean por necesidad mutuamente
excluyentes.
La regla de adición relaciona a las operaciones de unión e intersección.
Si se conoce [ ]21 AAP ∩ , es posible usar la regla de adición para calcular
[ ]21 AAP ∪
PROBABILIDAD CONDICIONAL
La probabilidad condicional sirve para determinar la probabilidad de que ocurra
el evento A2 “condicionado” al supuesto de que ha tenido lugar otro evento, A1.
“si” y “dado que” son palabras claves que identifican una pregunta condicional.
Regla general de la adición
[ ] [ ] [ ] [ ]212121 AAPAPAPAAP ∩−+=∪
Donde [ ]1AP es la probabilidad de que ocurra el evento dado y
[ ]21 AAP ∩ la probabilidad de que tengan lugar tanto el evento dado como el
evento en cuestión
Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es
1/6. Si incorporamos nueva información (por ejemplo, alguien nos dice que el
resultado anterior ha sido un número par) entonces la probabilidad de que el
resultado sea el 2 ya no es 1/6 sino un 1/3 aplicando la definición de
probabilidad condicional
INDEPENDENCIA Y LA REGLA DE LA MULTIPLICACIÓN
Esta definición es útil para calcular la probabilidad de que ocurran dos eventos
cuando son claramente independientes.
Definición (probabilidad condicional). Sean A1 y A2 eventos
tales que [ ]12 AAP y se define con la fórmula siguiente
[ ] [ ][ ]1
2112 AP
AAPAAP
∩=
Definición (eventos independientes). Los eventos A1 y A2 son independientes si y sólo si
[ ] [ ] [ ]2121 APAPAAP =∩
En este caso recibir la información de que ocurrió el evento A1 no tiene efecto
alguno en la probabilidad asignada al evento A2
Este teorema sirve para comprobar la independencia entre dos eventos
Esta definición tiene el propósito de servir como forma de cálculo de la
probabilidad de que ocurra una serie de eventos supuestamente independientes
Para usar la definición anterior hay que tener la certeza de que es razonable
suponer que los eventos son independientes antes de aplicarla al calculo de la
probabilidad de que ocurra una serie de eventos.
Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B), condicionada a la probabilidad de que haga buen tiempo (suceso A), es igual a la propia probabilidad del suceso B.
Teorema. Sean A1 y A2 eventos tales que por lo menos [ ]1AP o
[ ]2AP difieren de cero. A1 y A2 son independientes si y sólo si: [ ] [ ] [ ][ ] [ ] [ ] 0
0
2112
1212
≠=
≠=
APsiAPAAP
yAPsiAPAAP
Definición. Sea niAC i ,,2,1: ⋅⋅⋅== un conjunto finito de
eventos. Estos eventos son independientes si y sólo si dado cualquier subconjunto ( ) ( ) ( )mAAA ,,, 21 ⋅⋅⋅ de elementos de C:
( ) ( ) ( )[ ] ( )[ ] ( )[ ] ( )[ ]mm APAPAPAAAP ⋅⋅⋅=∩⋅⋅⋅∩∩ 2121
LA REGLA DE LA MULTIPLICACIÓN
La regla de la multiplicación es otra forma de calcular la probabilidad de que
ocurran simultáneamente dos eventos si no son independientes.
TEOREMA DE BAYES
El Teorema de Bayes resuelve lo que se conoce como probabilidad inversa. Esto
significa que, contrario a la probabilidad clásica, donde lo que se busca es
conocer la probabilidad que se dé un evento de un total de casos conocidos, la
probabilidad inversa busca saber la probabilidad de lo contrario.
Ejemplo: El parte meteorológico ha anunciado tres posibilidades para el fin de
semana:
Regla de la multiplicación
[ ] [ ] [ ]11221 APAAPAAP =∩
Teorema (teorema de Bayes). Sean A1 , A2 , A3 , ... , An un conjunto de eventos mutuamente excluyentes, cuya union es S Sea B eventos tal que [ ] 0≠BP Entonces, para cualquier evento Aj,con j = 1,2,3,...,n, se tiene que:
[ ] [ ] [ ][ ] [ ]∑
=
= n
iii
jj
j
APABP
APABPBAP
1
a) Que llueva: probabilidad del 50%.
b) Que nieve: probabilidad del 30%
c) Que haya niebla: probabilidad del 20%.
Según estos posibles estados meteorológicos, la posibilidad de que ocurra un
accidente es la siguiente:
a) Si llueve: probabilidad de accidente del 10%.
b) Si nieva: probabilidad de accidente del 20%
c) Si hay niebla: probabilidad de accidente del 5%.
Resulta que efectivamente ocurre un accidente y como no estábamos en la
ciudad no sabemos que tiempo hizo (nevó, llovió o hubo niebla). El teorema de
Bayes nos permite calcular estas probabilidades:
Las probabilidades que manejamos antes de conocer que ha ocurrido un
accidente se denominan "probabilidades a priori" (lluvia con el 60%, nieve con
el 30% y niebla con el 10%).
Una vez que incorporamos la información de que ha ocurrido un accidente, las
probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B),
que se denominan "probabilidades a posteriori".
Vamos a aplicar la fórmula:
[ ] [ ] [ ][ ] [ ]∑
=
= n
iii
jj
j
APABP
APABPBAP
1
a) Probabilidad de que estuviera lloviendo:
La probabilidad de que efectivamente estuviera lloviendo el día del accidente
(probabilidad a posteriori) es del 71,4%.
b) Probabilidad de que estuviera nevando:
La probabilidad de que estuviera nevando es del 21,4%.
c) Probabilidad de que hubiera niebla:
La probabilidad de que hubiera niebla es del 7,1%.
DISTRIBUCIONES DISCRETAS
Las distribuciones discretas son aquellas en las que la variable puede pude
tomar un número determinado de valores:
Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un
dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un
valor del 1 al 32.
Las distribuciones continuas son aquellas que presentan un número infinito de
posibles soluciones:
Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos
valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc);
la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234
años).
∗ Variable es una magnitud que puede tener un valor cualquiera de los
comprendidos en un conjunto.
VARIABLES ALEATORIAS
Definición (variable aleatoria discreta). Una variable aleatoria es discreta si puede asumir cuando mucho un número finito o uno infinito contable de valores posibles.
Una variable aleatoria no es discreta cuando se pregunta “¿Cuáles son los
valores posibles de la variable?” Esto indica que el conjunto de posibilidades
abarca un intervalo o un conjunto continuo de números reales
DENSIDADES DE PROBABILIDAD DISCRETAS
La función de distribución discreta y función de distribución acumulativa se
usan para lograr en algún sentido predecir los valores que probablemente
asumirá la variable en un momento dado
La densidad indica la probabilidad de que X asuma el valor específico de x
Las dos condiciones siguientes afirman que una función f sea de densidad
discreta
Definición (densidad discreta). Sea X una variable aleatoria discreta. La función f esta dada por:
[ ]xXPxf ==)(
para el número real x se llama función de densidad de X
Condiciones necesarias y suficientes para que una función sea una densidad discreta.
1)(.2
)(.1
==
∑∀x
xf
Pxf
Definición (distribución acumulativa: discreta). Sea X una variable aleatoria discreta con densidad f. La función de distribución acumulativa de X, denotada con F, se define con la fórmula siguiente:
[ ]xXPxF ≤=)( para todo número real x
Definición (valor esperado). Sea X una variable aleatoria discreta con densidad f. Sea H(X) una variable aleatoria. El valor esperado de H(X), que se denota con [ ])(XHE , esta dado por
[ ] ∑∀
=x
xfxHXHE )()()(
Siempre y cuando∑∀x
xfxH )()( sea finita. La suma abarca
todos los valores de X que ocurran con probabilidad distinta de cero.
DISTRIBUCIÓN ACUMULATIVA
Esta función suma o acumula las probabilidades calculadas por medio de la
densidad.
La distribución acumulativa indica la probabilidad de que X tenga un valor
menor o igual a x
ESPERANZA Y PARÁMETROS DE UNA DISTRIBUCIÓN
En el caso especial de que H(X)=X, el valor esperado de X se obtiene por:
∗ Ejemplo: Sean X y Y variables aleatorias, con E[X] = 3 y E[Y] = 4.
E[5X-3Y+8] = E5[X]+E[-3Y]+E[8]
= 5E[X]+(-3)E[Y]+E[8]
= 5E[X]-3E[Y]+8
= 5(3)-3(4)+8
= 11
Valor esperado de X
[ ] ∑∀
=x
xxfXE )(
Teorema (reglas de la esperanza). Sean X y Y variables aleatorias y sea c cualquier número real.
1. E[c]= c (El valor esperado de toda constante es esa constante.)
2. E[cX]= cE[X] (Las constantes se pueden factorizar a partir de las esperanzas.)
3. E[X+Y] = E[X]+ E[Y] (El valor esperado de una suma es igual a la suma de los valores esperados.)
VARIANZA Y DESVIACIÓN ESTÁNDAR
∗ La media es una medición del centro de localización de la distribución.
∗ La varianza y la desviación estándar miden la variabilidad de la variable
aleatoria en torno a su media
∗ Varianza es la media de las desviaciones cuadráticas de una variable
aleatoria, referidas al valor medio de esta.
Definición (varianza). Sean X una variable aleatoria con media
µ . La varianza de X, denotada como Var X o 2σ , esta dada
por
( )[ ]22 µσ −== XEVarX
Teorema (fórmula de cálculo de 2σ )
[ ] [ ]( )222 XEXEVarX −==σ
Definición (desviación estándar). Sean X una variable aleatoria con
varianza 2σ . La desviación estándar de X, denotada con σ , esta
dada por:
2σσ == VarX
∗ La desviación estándar esta dada por la raíz cuadrada no negativa de la
varianza
La desviación estándar es una medición de variabilidad
DISTRIBUCIÓN BINOMIAL
La distribución binomial parte de la distribución de Bernoulli:
La distribución de Bernoulli se aplica cuando se realiza una sola vez un
experimento que tiene únicamente dos posibles resultados (éxito o fracaso),
por lo que la variable sólo puede tomar dos valores: el 1 y el 0
La distribución binomial se aplica cuando se realizan un número "n" de veces el
experimento de Bernoulli, siendo cada ensayo independiente del anterior. La
variable puede tomar valores entre:
0: si todos los experimentos han sido fracaso
n: si todos los experimentos han sido éxitos
Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido
ninguna la variable toma el valor 0; si han salido dos caras la variable toma el
valor 2; si todas han sido cara la variable toma el valor 10
La distribución de probabilidad de este tipo de distribución sigue el siguiente
modelo:
Ejemplo: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10
veces?
" k " es el número de aciertos. En este ejemplo " k " igual a 6
" n" es el número de ensayos. En este ejemplo son 10
" p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda.
Por lo tanto p = 0,5
La fórmula quedaría:
( )
20506
5.015.0)!610(!6
!10)6( 610
, ) P (x
xP k
==
−
−== −
Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10
veces una moneda
Distribución binomial
( ) knk ppknk
nkxP −−
−== 1
)!(!
!)(
DISTRIBUCIÓN BINOMIAL NEGATIVA
La distribución binomial negativa es una distribución de probabilidad discreta.
La distribución binomial negativa es lo inverso de la distribución binomial
En esta distribución la variable aleatoria el número de ensayos es fijo y el
número de ensayos cambia de un experimento a otro
∗ Un experimento consiste en una serie de ensayos, cuando al resultado de
cada ensayo lo podemos clasificar como éxito o fracaso el ensayo se
denomina ensayo de Bernoulli
Las siguientes propiedades caracterizan las situaciones en las que surge la
variable aleatoria binomial negativa
- El experimento consiste en una serie de ensayos de Bernoulli
independientes e idénticos con probabilidad p de éxito
- Los ensayos se observan hasta obtener exactamente r éxitos, el valor de
r lo fija el que realiza el experimento
- La variable aleatoria X es el número de ensayos que se necesitan para
lograr los r éxitos.
DISTRIBUCIÓN HIPERGEOMÉTRICA
Propiedades que caracterizan a la distribución hipergeométrica
- El experimento consiste en extraer una muestra aleatoria de tamaño n
sin
Reemplazo y sin considerar su orden, e un conjunto de N objetos.
- De los N objetos, solo r posee el rasgo que interesa
- La variable aleatoria X es el número de objetos de la muestra que posee
el rasgo
La distribución hipergeométrica es el modelo que se aplica en experimentos
del siguiente tipo:
En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la
probabilidad de que al sacar 2 bolas las dos sean blancas?
Son experimentos donde, al igual que en la distribución binomial, en cada
ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se
diferencia de la distribución binomial en que los distintos ensayos son
dependientes entre sí:
Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola
blanca, en el segundo ensayo hay una bola blanca menos por lo que las
probabilidades son diferentes (hay dependencia entre los distintos ensayos).
La distribución hipergeométrica sigue el siguiente modelo:
Definición (definición hipergeométrica). Una variable aleatoria X tiene distribución hipergeométrica con parámetros N, n y r si su densidad está dada por:
−−
=
n
N
xn
rN
x
r
xf )(
Donde N, r y n son enteros positivos.
Donde explicándolo con el experimento dado:
N: es el número total de bolas en la urna
N1=>r: es el número total de bolas blancas
N2=>N-r: es el número total de bolas negras
x: es el número de bolas blancas cuya probabilidad se está calculando
n: es el número de ensayos que se realiza
Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es
la probabilidad de que 3 sean blancas?
Entonces: N = 12; N1 = 7; N2 = 5; k = 3; n = 4
Si aplicamos el modelo:
==
4
12
1
5
3
7
)3(xP
Tenemos que, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas
blancas es del 35,3%.
DISTRIBUCIÓN DE POISSON
La distribución de Poisson parte de la distribución binomial:
Cuando en una distribución binomial se realiza el experimento un número "n"
muy elevado de veces y la probabilidad de éxito "p" en cada ensayo es
reducida, entonces se aplica el modelo de distribución de Poisson.
Se tiene que cumplir que:
" p " < 0,10
" p * n " < 10
La distribución de Poisson sigue el siguiente modelo:
Donde:
e = 2,71828
k = n * p (es decir, el número de veces " n " que se realiza el experimento
multiplicado por la probabilidad " p " de éxito en cada ensayo)
x => es el número de éxito cuya probabilidad se está calculando
Ejemplo: La probabilidad de tener un accidente de tráfico es de 0,02 cada vez
que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3
accidentes?
Definición (distribución de Poisson). Una variable aleatoria X tiene distribución de Poisson con parámetros k si su densidad f está dada por:
0
,...2,1,0!
)(
>
==−
k
xx
kexf
xk
Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor
que 10, entonces aplicamos el modelo de distribución de Poisson.
!3
6)3(
36−
== exP
P (x = 3) = 0,0892
Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es
del 8,9%
DISTRIBUCIONES CONTINUAS
Las distribuciones continuas son aquellas que presentan un número infinito de
posibles soluciones.
LA DISTRIBUCIÓN UNIFORME
Es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos
con la misma probabilidad.
Es una distribución continua porque puede tomar cualquier valor y no
únicamente un número determinado, como ocurre en las distribuciones
discretas.
DISTRIBUCIÓN NORMAL
Es el modelo de distribución más utilizado en la práctica, ya que multitud de
fenómenos se comportan según una distribución normal.
Esta distribución de caracteriza porque los valores se
distribuyen formando una campana de Gauss, en torno a un
valor central que coincide con el valor medio de la
distribución:
Un 50% de los valores están a la derecha de este valor central y otro 50% a la
izquierda
Esta distribución viene definida por dos parámetros:
-> El valor medio de la distribución y es precisamente donde se sitúa el centro
de la urva (de la campana de Gauss).
-> La varianza. Indica si los valores están más o menos alejados del valor
central: si la varianza es baja los valores están próximos a la media; si es alta,
entonces los valores están muy dispersos.
Cuando la media de la distribución es 0 y la varianza es 1se denomina "normal
tipificada", y su ventaja reside en que hay tablas donde se recoge la
probabilidad acumulada para cada punto de la curva de esta distribución.
DISTRIBUCIÓN NORMAL ESTÁNDAR
Hay un número ilimitado de distribuciones de probabilidad normal, aunque
afortunadamente todas están relacionadas con una distribución, la
distribución normal Estándar.
Propiedades de la Distribución Normal Standard
• El área total bajo la curva normal es igual a 1.
• La distribución tiene forma de campana y es simétrica; se extiende en
ambas direcciones y el eje x es su asíntota.
• Tiene media igual a 0 y desviación estándar igual a 1.
• La media divide el área en dos mitades.
DISTRIBUCION PROBABILIDAD GAMA.
Esta distribución se emplea de manera extensa en una gran variedad de áreas;
por ejemplo, para representar el tiempo aleatorio de falla de un sistema que
falla sólo si de manera exacta los componentes fallan y la falla de cada
componente ocurre con una frecuencia constante λ=1/β por unidad de tiempo.
La distribución Gamma es versátil puesto que exhibe varios perfiles que
dependen del valor del parámetro α, para α ≤1 la distribución Gamma tiene un
perfil en forma de J transpuesta. Para α>1, presenta un pico que ocurre en x =β
(α-1).
Los tiempos que tardan en revisar un motor de un automóvil ó avión tienen una
distribución de frecuencias sesgadas. Las poblaciones asociadas a estas
variables aleatorias frecuentemente tienen distribuciones que se pueden
modelar adecuadamente por la función de densidad tipo gamma.
Función de densidad de probabilidad para una variable aleatoria tipo gamma:
αβα ≤≤> y0;0,
)()(
/1
ατβ α
βα yeyyf
−−
=
En donde:
∫−−=
α αατ0
1)( dyey y
La cantidad de la de la función alfa se conoce como la función gamma. La
integración directa nos da que la función uno igual a uno. La integración por
partes nos da que la función de alfa menos uno alfa menos uno por la función
alfa menos uno para cualquier intervalo de alfa mayor o igual a uno y que la
función de n sea igual a n menos uno factorial, para un número entero n.
En el caso especial cuando alfa es un número entero, se puede expresar la
función de distribución de una variable aleatoria tipo gamma como una suma de
ciertas variables aleatorias de Poisson.
Si alfa no es un número entero, es imposible encontrar la antiderivada del
integrando de la expresión:
α<<< dc0
donde
dyeyd
c
y
∫−−
)(
/1
ατβ α
βα
Y por lo tanto es importante obtener las áreas bajo la función de densidad tipo
gamma mediante integración directa.
DISTRIBUCIÓN EXPONENCIAL
Devuelve la probabilidad de una variable aleatoria continua siguiendo una
distribución exponencial. Se usa para la planeación del tiempo entre dos
sucesos.
Esta distribución se puede usar en diversos casos tales como: el tiempo que
tardara una maquina de cajero automático en entregar efectivo. Esta función
puede usarse para determinar la probabilidad de que el proceso tarde como
máximo un minuto.
La función de densidad gamma para el caso especial siguiente, se denomina
función de densidad exponencial.
∞<≤> y0;0β
β
β
/1)(
y
eyf−
=
En cualquier punto.
La función de densidad exponencial muchas veces es útil en los modelos de
duración de componentes eléctricos.
Un fusible es un ejemplo de un componente para el cual este supuesto suele
cumplirse.
La ecuación de la distribución exponencial es:
( ) xexf λλλ −=;
La distribución exponencial puede modelar el lapso entre dos eventos
consecutivos de Poisson que ocurren de manera independiente y a una
frecuencia constante. Esta distribución se emplea con bastante frecuencia con
el objeto de modelar problemas del tipo tiempo-falla y como modelo para el
intervalo en problemas de líneas de espera.
La distribución exponencial es conocida por no tener memoria, es decir, la
probabilidad de ocurrencia de eventos presentes o futuros no depende de los
que hayan ocurrido en el pasado. De esta forma, la probabilidad de que una
unidad falle en un lapso específico depende nada más de la duración de éste, no
del tiempo en que la unidad ha estado en operación.
DESIGUALDADES DE CHEBYSHEV
Esta desigualdad nos sirve para estimar probabilidades cuando disponemos de
una distribución de probabilidad de una variable aleatoria cuyos valores estén
ordenados de forma creciente.
La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota
inferior a la probabilidad de que el valor de una variable aleatoria con varianza
finita esté a una cierta distancia de su esperanza matemática o de su media;
equivalentemente, el teorema proporciona una cota superior a la probabilidad
de que los valores caigan fuera de esa distancia respecto de la media. El
teorema es aplicable incluso en distribuciones que no tienen forma de "curva
de campana" y acota la cantidad de datos que están o no "en medio".
DISTRIBUCIÓN WEIBULL
La distribución Weibull fue establecida por el físico del mismo nombre, quien
demostró, con base en una evidencia empírica, que el esfuerzo al que se
someten los materiales puede modelarse de manera adecuada mediante el
empleo de esta distribución. Esta distribución se empleo como modelo para
situaciones del tipo tiempo-falla y con el objetivo de lograr una amplia variedad
componentes mecánicos y eléctricos.
Devuelve la probabilidad de una variable aleatoria siguiendo una distribución de
Weibull. Esta distribución se aplica en los análisis de fiabilidad, para
establecer, por ejemplo, el periodo de vida de un componente hasta que
presenta una falla.
DISTRIBUCIONES CONJUNTAS
Para resolver problemas en los que intervienen simultáneamente 2 variables es necesario estudiar las variables aleatorias bidimensionales o variables aleatorias divariadas de tipo discreto y continuo.
Una variable aleatoria asocia un número con cada resultado del experimento aleatorio. Es aleatoria porque al no conocer el resultado del experimento antes de realizarlo, tampoco conocemos el valor que va a tomar la variable.
Una variable aleatoria es discreta si puede asumir cuando mucho un Número finito o uno infinito contable de valores posibles Ejemplo: número de piezas defectuosas
Una variable aleatoria es continua si en su rango contiene un intervalo. Ejemplo: duración batería.
DENSIDAD DISCRETA CONJUNTA.
Definición.- Sean X y Y variables aleatorias discretas. El par ordenado (X;Y) se denomina variable aleatoria discreta bidimensional. La función fXY se denomina variable aleatoria discreta bidimensional. La función fXY :
( ) [ ]yYxXPyxf XY === Λ,
se llama densidad conjunta de (X,Y)
El propósito de la densidad es el cálculo de la probabilidad de que la variable aleatoria (X,Y) asuma valores específicos. La densidad conjunta de (X,Y) es no negativa, puesto que representa una probabilidad La distribución de probabilidad conjunta de (X, Y), mide la probabilidad de que los dos resultados, x e y, ocurran al mismo tiempo.
DISTRIBUCIONES MARGINALES Cuando se trabaja con más de una variable y se quiere calcular las distribuciones de frecuencias de cada una de manera independiente, tenemos las distribuciones marginales. Podemos encontrar la densidad marginal de la variable aleatoria X sumando sobre todos los posibles valores de la variable aleatoria Y: Igualmente podemos encontrar la densidad marginal de la variable aleatoria Y sumando sobre todos los posibles valores de la variable aleatoria X:
Condiciones necesarias y suficientes para que una función sea
una densidad discreta conjunta
∑ ∑ =≥
x yXY
XY
yxf
yxf
1),(
.0),(
yxf(x)fy
XYX ∑= ),(
yxf(y)fx
XYY ∑= ),(
A través de la distribución conjunta, podremos encontrar la función de probabilidad condicional de la otra variable, condicional al valor que tomó la variable. INDEPENDENCIA Dos variables son independientes cuando la información de que ha ocurrido uno de ellos no aporta indicios sobre las probabilidades de que ocurra el otro. Se dirá que las variables aleatorias X e Y son independientes si y sólo si se verifica que la función de distribución conjunta fXY es igual al producto de sus distribuciones marginales ESPERANZA Y COVARIANZA La esperanza condicional proporciona el valor esperado de una variable cuando conocemos los valores que han tomado las otras variables de las cuales depende. La covarianza es útil para describir el comportamiento de una variable en relación a otra La covarianza describe y mide la relación lineal entre dos variables aleatorias, se define como
Variables aleatorias independientes.- Sean X y Y variables aleatorias con densidad conjunta fXY y densidades marginales fX y fY, respectivamente. X y Y son independientes si y solo si:
( ) )()(, yfxfyxf YXXY =
para todos los valores de x y y.
Cov(X,Y) = E[(X - µX)(Y - µY)]
Cov(X,Y) = E[XY]-E[X]E[Y]
Si la Cov(x,y) es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa.
Si la Cov(x,y) es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa.
Si X e Y son variables aleatorias independientes Cov(x,y) = 0 .
La independencia es condición suficiente pero no necesaria para que la Cov(x,y) sea nula.
CORRELACIÓN • La correlación es una técnica estadística usada para determinar la relación entre dos o más variables
• El coeficiente de correlación nos permite valorar si ésta es fuerte o débil, positiva o negativa.
• La correlación puede ir de -1 a 1. Las correlaciones de signo negativo indican relación inversa; las de signo positivo, relación directa. Si el coeficiente es positivo, significa que cuando una variable aumenta, la otra también. Si el coeficiente es negativo, significa que cuando una variable aumenta, la otra disminuye (esto se suele denominar correlación "inversa").
• Una correlación igual a 0 indica que no existe relación entre las variables. El grado de relación lo da el valor absoluto de la correlación.
• El coeficiente de correlación es igual a la covarianza dividida por la raíz cuadrada del producto de la varianzas de X y Y
Coeficiente de correlación de Pearson.
))((
),(
YVarXVar
YXCovXY =ρ
Por ejemplo, la estatura y el peso se encuentran relacionados: las personas más altas suelen pesar más que las más bajas, pero la relación no es perfecta, es decir personas de igual altura que no pesan lo mismo y, a veces, una persona más baja pesa más que una más alta Existen caracteres que ni son independientes, ni se da entre ellos una relación de dependencia funcional, pero si se percibe una cierta relación de dependencia entre ambos; se trata de una dependencia estadística. Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia estadística se conoce como el problema de “regresión”, y el análisis del grado de dependencia que existe entre las variables se conoce como el problema de correlación. REGRESIÓN Cuando se estudian dos características simultáneamente sobre una muestra, se puede considerar que una de ellas influye sobre la otra de alguna manera. El objetivo principal de la regresión es descubrir el modo en que se relacionan. Por ejemplo, en una tabla de pesos y alturas de 10 personas se puede suponer que la variable “Altura” influye sobre la variable “Peso” en el sentido de que pesos grandes vienen explicados por valores grandes de altura. De las dos variables a estudiar, se denomina a X VARIABLE INDEPENDIENTE o EXPLICATIVA, y a Y como VARIABLE DEPENDIENTE o EXPLICADA. Por ejemplo, se anota el tiempo de estudio (en horas) y la nota de examen de cada alumno de una clase. En este caso un pequeño tiempo de estudio tenderá a obtener una nota más baja, y una nota buena indicará que tal vez el alumno ha estudiado mucho. Para determinar qué variable explica a la otra, está claro que el “tiempo de estudio”
explica la “nota de examen” y no al contrario, pues el alumno primero estudia un tiempo que puede decidir libremente, y luego obtiene una nota en la que ya no puede decidir arbitrariamente. Por tanto, X = Tiempo de estudio (variable explicativa o independiente) Y = Nota de examen (variable explicada o dependiente)
ESTADISTICA DESCRIPTIVA
La estadística descriptiva es el conjunto de técnicas diseñadas para recoger,
organizar, resumir y analizar los datos obtenidos para poder extraer
conclusiones sobre el comportamiento de las variables que se esta estudiando,
para tener un mayor conocimiento y poder tomar decisiones futuras, en las que
tener un conocimiento de su comportamiento pasado es de mucha utilidad.
El conjunto de todos los elementos que aportan información sobre la
investigación que se quiera realizar se denomina población, cuando estos
elementos son demasiado extensos, y la recolección de todos los datos no es
posible por el gran costo que represente en recursos (tiempo,dinero), lo que se
hace es tomar un subconjunto representativo del conjunto total para poder
obtener información, que refleje las características de la población, a este
subconjunto se lo denomina muestra. Individuo es cada uno de los elementos
objeto de estudio, que componen la población y Variable es cada una de las
características que se quieren estudiar sobre la población.
Así, si se estudia la preferencia por una marca de cualquier producto, se
recoge información de un subgrupo (muestra) que sea suficientemente
representativo para poder sacar conclusiones sobre cual es la marca preferida
por los consumidores(población) cada consumidor se denomina individuo y la
característica de conocer cual es preferencia es la variable que se quiere
estudiar.
Tipos de variables estadísticas
Cualitativas o atributos. Son las que expresan cualidades de los individuos y no toman valores numéricos (color de ojos, aceptable o defectuoso…). Cuantitativas. Son las que expresan cantidades de los individuos, toman valores numéricos. Cuantitativas discretas. Pueden tomar puntos aislados como valor, el
conjunto de valores es finito o infinito numerable (número de compras en un mes).
Cuantitativas continuas. Pueden tomar cualquier valor en algún intervalo o entre dos números reales (tiempo transcurrido entre la llegada de dos autobuses).
TABLA DE DISTRIBUCIÓN DE FRECUENCIAS
Frecuencia absoluta (ni) de una variable estadística es el número de veces que
cada valor de la variable se repite.
Cuando los atributos no se corresponden con una escala ordinal es conveniente
ordenarlos por su frecuencia de aparición. Si se trata de una variable
cuantitativa se ordenará por el orden de los valores que toma.
La frecuencia absoluta por sí sola no da una idea de la importancia o relevancia
de los datos obtenidos.
Frecuencia relativa (fr(xi)). La frecuencia relativa del valor xi es el cociente
entre la frecuencia absoluta y el número total de datos.
datosdetotalnixobservasequevecesn
ir xfº
º)( =
Se pueden multiplicar por 100 y así obtener porcentajes
Frecuencia absoluta acumulada (Ni).- es el resultado de acumular las
frecuencias absolutas.
Frecuencia relativa acumulada (Fi).- es el resultado de acumular las frecuencias
relativas.
Se puede dar que el porcentaje acumulado puede no sumar 100, debido a
errores de redondeo.
DATOS AGRUPADOS Cuando el número de valores distintos que toma una variable discreta es grande o cuando ésta sea continua, es conveniente agruparlos en clases. Para realizar la subdivisión por clases se tiene que: ♣ Redondear los datos, a lo sumo, tres cifras significativas y elegir las unidades de medida para que los datos tengan tres cifras enteras, siempre que sea posible.
♣ Decidir el número de clases entre 5 y 20. El número de clases es el entero más próximo a n , siendo n el número de datos. Es conveniente probar con varios y seleccionar la representación más clara.
♣ Se puede utilizar la siguiente tabla para determinar el número de clases en función del tamaño de la muestra.
Si n<16 el número de datos se considera insuficiente.
Número recomendado de clases en función del tamaño de la muestra
<16 Insuficiente 16-31 5 32-63 6 64-127 7 128-255 8
256-511 9 512-1023 10 1024-2047 11 2048-4095 12 4096-8190 13
♣ Seleccionar los límites de clase, que definirán los intervalos y la longitud de los mismos. Las observaciones se deben clasificar en una única clase sin ambigüedad.
♣ Contar el número de observaciones de cada clase para obtener la frecuencia absoluta de la clase.
Rango de datos =máximo – mínimo. Rango / nº clases = valor mínimo de amplitud para cubrir el rango. Para asegurarse de que ningún valor cae en el límite se comienza la primera clase ligeramente inferior al mínimo. Entonces la amplitud deberá ser un poco mayor que el cociente obtenido. El límite inferior se puede escoger ½ por debajo del mínimo. Medidas características de una distribución Cuando disponemos de un conjunto de datos homogéneo de una variable cuantitativa, resulta conveniente completar la distribución de frecuencias con ciertas medidas resumen. Medidas de tendencia central o centralización. Indican el valor medio de los
datos. Medidas de dispersión. Miden su variabilidad. Medidas de forma. Miden el grado de simetría y concentración de la
distribución. MEDIDAS DE LOCALIZACIÓN Media poblacional, µ, es el valor medio de la variable sobre toda la población. Mediana poblacional, M, aproximadamente el 50% de los valores de la población están en o por debajo de la mediana y el resto por encima de M. Los parámetros poblacionales son desconocidos y no pueden hallarse, pero es posible estimarlos a partir de una muestra, mediante la media muestral y la mediana muestral ( xx ~, )
Media muestral Sean x1,x2,…,xn un conjunto de n observaciones de la variable x. A la media aritmética de estos valores se le llama media muestral.
n
x
x
n
ii∑
== 1
Diferencias entre la media y la mediana La mediana tiene la ventaja de ser una medida resistente, es decir, una medida que se ve afectada sólo ligeramente por valores atípicos, valores alejados del resto de los datos. Mientras que la media muestral se ve muy afectada por este tipo de valores. La media tiene la ventaja de tener en cuenta todas las observaciones, mientras que la mediana sólo tiene en cuenta el orden de las mismas y no su magnitud. MEDIDAS DE DISPERSIÓN O VARIABILIDAD Se busca un estadístico que cumpla que cuando los datos están agrupados alrededor de la media, éste sea pequeño y que cuando los datos están distribuidos de manera amplia, su valor sea grande.
Parámetros poblacionales Parámetros muestrales. Estadísticos Varianza σ2 Varianza muestral s2
Desviación típica poblacional
σ Desviación típica muestral s
Rango intercuartílico IQR Rango intercuartílico muestral
iqr
Rango Rango muestral Varianza muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con media muestral x . La varianza muestral se denota por s2 y viene dada por la expresión:
n
nxxs
ii
i∑ −=
2
2
)(
Puesto que la varianza muestral no tiene las mismas unidades que los datos, se define la desviación típica muestral. Desviación típica muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con varianza muestral s2. La desviación típica muestral se simboliza por s y viene dada por la expresión:
n
nxxss i
ii∑ −==
2
2
)(
La desviación típica muestral no es un buen estimador de la desviación típica poblacional (se desvía a la izquierda de σ ). Para corregir esa desviación se suele hacer uso de la raíz cuadrada de la cuasivarianza muestral
1
)( 2
−
−∑n
nxxi
ii
La desviación típica se registra con un decimal más que los datos, sin antes redondear la varianza. La varianza se expresa con dos decimales más que los datos. Interpretación de la desviación típica La media y la desviación típica de una distribución proporcionan, de forma conjunta, una gran información. Entre la media y más/menos k veces la desviación típica se encuentra como mínimo el
)%1
1(1002k
− de los datos.
Rango muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x. El rango muestral es la diferencia entre el mayor y el menor de los valores observados. Percentiles Los percentiles son una medida de posición que no refleja la tendencia central. Son los noventa y nueve valores de la distribución que la dividen en cien partes, de forma que dentro de cada una están incluidos el 1% de los valores. Para distribuciones no agrupadas en intervalos se calculan previamente las frecuencias acumuladas y se calcula el valor que ocupa la posición s
n
100 de la
distribución.
Rango inter cuartíl, iqr Las medidas de dispersión utilizadas se ven muy afectadas por los datos atípicos. El rango intercuartíl es una medida resistente a los datos atípicos, y se define como la longitud del intervalo que contiene el 50% central de los datos.
iqr = q3 – q1
Si iqr es muy pequeño, implica que la mayoría de los datos están en el centro, si por el contrario es grande los datos se distribuyen ampliamente.
REPRESENTACIONES GRÁFICAS Diagrama de barras Un diagrama de barras permite transmitir la información contenida en una tabla de frecuencias para variables estadísticas cualitativas o cuantitativas discretas no agrupadas. ♣ Cada barra tiene la misma anchura. ♣ Cada barra representa una categoría. ♣ Las alturas dependen del número de observaciones por categoría. ♣ El eje vertical representa: frecuencias absolutas, frecuencias relativas o porcentajes.
La utilización de las frecuencias relativas o porcentajes tiene la ventaja de que la escala no dependerá de los datos, puesto que siempre oscilan entre 0 y 1 ó 0 y 100. También se pueden utilizar barras horizontales.
Histogramas Un histograma es una representación gráfica de los datos contenidos en una tabla de frecuencias de variables continuas o discretas agrupadas en intervalos. El área de cada barra es proporcional al número de objetos en la categoría o
clase que representa. Es posible utilizar las frecuencias absolutas, relativas o lo porcentajes.
Los histogramas proporcionan mucha información sobre la distribución de los datos. Diagrama de tallo y hojas Los diagramas de tallo y hojas permiten representar la distribución de una variable cuantitativa. Elegir los números que servirán de tallos.
o Para datos con 2 dígitos, se elegirán las decenas. o Para datos con 3 dígitos, se elegirán las decenas y centenas. Cada tallo define una clase y se escribe sólo una vez y el número de hojas representa su frecuencia absoluta.
Etiquetamos las filas con los tallos. Anotamos el dígito que sigue al tallo. Si la utilización del primer o de los dos primeros dígitos no proporciona suficiente información, entonces se pueden utilizar tallos dobles, en la primera rama se representan los valores menores que 5 y en la segundo los mayores. Ejemplo. El tiempo que una persona espera la llegada de un radio taxi
1.0 8.3 3.1 1.1 5.1 1.2 1.0 4.1 1.1 4.0 2.0 1.9 6.3 1.4 1.3 3.3 2.2 2.3 2.1 2.1 1.4 2.7 2.4 3.0 4.1 5.0 2.2 1.2 7.7 1.5
Diagrama de tallo y hojas
1 02409211435 2 02723411 3 310 4 101 5 01 6 3 7 7 8 3
Diagrama de cajas El diagrama de cajas es una representación gráfica de un conjunto de datos que facilita la percepción visual de su localización, extensión y del grado y la dirección del sesgo. También permite identificar datos atípicos.
♣ Calcular x~ , q1, q3, iqr. ♣ Determinar los separadores interiores:
f1 = q1 - 1,5 iqr f2 = q3 + 1,5 iqr
♣ Los puntos por debajo de f1 y por encima de f2 se consideran atípicos. ♣ Determinar los valores adyacentes a1 y a3: o a1 es el dato más próximo a f1 sin que esté por debajo de f1. o a3 es el dato más próximo a f2 sin que esté por encima de f2.
♣ Determinar los separadores exteriores F1 = q1 – 2(1,5) iqr F2 = q3 + 2(1,5) iqr
♣ Dibujar en una recta todos los puntos calculados. ♣ Dibujar una caja con q1 y q3. o Una línea en la mediana. o Representar por una “x” los valores a1 y a3. Bigotes – unirlos con una línea discontinua. o Los puntos entre f i y Fi son círculos abiertos, es decir, datos atípicos moderados. o Los puntos fuera de F=[F1, F2] son asteriscos, es decir, datos atípicos extremos.
La línea central indica la simetría de la distribución. Si la línea no está centrada la distribución será asimétrica en la dirección del lado más largo.
F1 f1 q1 x~ q3
f2
* *
F2
a3
a1
ESTIMACIÓN
ESTIMACIÓN DE PARÁMETROS
La teoría de muestreo puede emplearse para obtener información acerca de
muestras obtenidas aleatoriamente de una población conocida.
Esto nos sirve en la práctica para poder ser capaz de inferir información
acerca de una población a partir de muestras de ella, de ahí su importancia
Los problemas planteados que tenemos sobre los que queremos obtener
conclusiones de su comportamiento y evolución son tratados por la inferencia
estadística que utiliza principios de muestreo.
Un problema importante de la inferencia estadística es la estimación de
parámetros poblacionales o simplemente parámetros (como la media y la
varianza poblacionales)
La ventaja de la media es que es muy fácil de calcular, pero su desventaja es
que es muy sensible a valores extremos, es decir, si la mayoría de los datos se
encuentran alrededor de la media, pero si existe uno o varios valores cargados
hacia uno de los extremos el valor de la media se desplaza hacia ese lado.
La media aritmética es un promedio de los valores observados, mientras que la
mediana es cualquier valor que se encuentre en el promedio de todas las
posiciones de un arreglo ordenado. La mediana es una medida de tendencia
central más apropiada que la media cuando el conjunto de datos contiene unos
pocos valores extremos, altos o bajos.
La estimación es un proceso por el que se trata de averiguar un parámetro de
la población representado por una muestra, a partir del valor de un estadístico
llamado estimador y esta representado por .
El problema se resuelve en base al conocimiento de la "distribución muestral"
del estadístico que se use (varianza, desviación estándar, rangos muestrales).
.
Si para cada muestra posible calculamos la media muestral ( ) obtenemos un
valor distinto ( es un estadístico: es una variable aleatoria y sólo depende de
la muestra), habrá por tanto una distribución muestral de medias para .
Varianza de :
ntamañodealeatoriamuetran
ianza
muestralmediaX
nXVar
→→
→
=
var2
2
σ
σ
La desviación típica de esta distribución se denomina error típico de la media.
Evidentemente, habrá una distribución muestral para cada estadístico, no sólo
para la media, y en consecuencia un error típico para cada estadístico.
Si la distribución muestral de un estadístico estuviera relacionada con algún
parámetro de interés, ese estadístico podría ser un estimador del parámetro.
Así al procedimiento utilizado cuando se quiere conocer las características de
un parámetro poblacional, a partir del conocimiento de la muestra, se denomina
estimación. Hay que tener en cuenta que la población a muestrear es una
población presente, que ya existe en el momento de darse el proceso de lo
contrario se trataría de un pronostico, no de una estimación
INTERVALO DE CONFIANZA
Se llama así a un intervalo en el que sabemos que está un parámetro, con un
nivel de confianza específico.
Si se tiene que la media se encuentra en el intervalo (2,8 3,2) con un nivel de
confianza del 95%, lo que se dice es que si se hace muestras de tamaño 40, y
se fueran contabilizando sus medias, en el 95% de los casos, la media calculada
estaría en dicho intervalo.
NIVEL DE CONFIANZA
También se tiene que el porcentaje de intervalos que se puede esperar
contengan el valor real del parámetro, cuando se utilice una y otra vez el mismo
procedimiento de construcción de intervalo, se denomina nivel de confianza.
Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo
de confianza.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y
99,9%
ERROR DE ESTIMACIÓN MÁXIMO
Es el radio de anchura del intervalo de confianza.
Este valor nos dice en qué margen de la media muestral se encuentra la media
poblacional al nivel de confianza asignado.
Varianza de un estimador
Una propiedad importante de un estimador es su varianza (o su raíz cuadrada,
la desviación estándar).
La importancia de la desviación estándar es que permite darle un sentido
numérico a la cercanía del valor del estimador a su valor esperado.
Entonces entre menor sea la desviación estándar (o la varianza) de
un
estimador, será más probable que su valor en una muestra específica se
encuentre mas cerca del valor esperado.
Bien si se considera T1 y T2 dos estimadores en la que ambos son insesgados y
que la varianza de T1 es menor que la de T2. ¿Qué quiere decir esto? Que en
un entorno fijo del valor del parámetro, los valores de T1 son más probables
que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del
parámetro que a T2. Esto hace que las preferencias estén con T1.
Cuando un estimador tiene una varianza menor que otro se entiende que el
estimador es más eficiente.
Una estimación de un parámetro de la población dada por un solo número se
llama una estimación de punto del parámetro, se utiliza cuando el parámetro
poblacional como ya se mencionó se expresa en un sólo valor numérico, por
ejemplo, el tiempo máximo para que los estudiantes completen un examen de
matemáticas, el cual es de 2 hora
Una estimación de un parámetro de la población dada por dos puntos, entre los
cuales se pueden considerar encajado al parámetro, se llama una estimación del
intervalo del parámetro.
Ejemplo:
Un fabricante indica que una resistencia de 1 KΩ tiene una precisión de ± 0.5,
el fabricante esta dando una estimación por intervalo.
El margen de error o la percepción de una estimación, nos informa su
fiabilidad.
En general, las estimaciones de intervalo, que indican la precisión de una
estimación, las prefieren más que a las estimaciones de punto.
Para construir un intervalo, hay que hacer que la estimación puntual sea el
centro del intervalo y se crea un intervalo arriba y uno abajo del centro por
medio del error estándar del estimador, éste último es la desviación estándar
de la distribución muestral del estimador. Así se logra que el parámetro
desconocido supuestamente esté dentro de ese intervalo, mas no
necesariamente en su centro.
Recommended