26
Aplicaciones de la estadística Los científicos realizan experiencias utilizando los cálculos estadísticos para ajustar sus conclusiones respecto a los efectos de los errores indeterminados. Algunas aplicaciones de estos cálculos son: 1. En el intervalo, alrededor de una media de una serte, cabe esperar que, con cierta probabilidad, quede incluida la media verdadera. 2. El número de veces que debería repetirse una medición, para que la media experimental quede, con cierta probabilidad, dentro del intervalo predeterminado alrededor de la media verdadera. 3. Cuando conviene retenerse o rechazarse determinado valor de una serie de resultados repetidos, para calcular la media para la serie. 4. La probabilidad de que difiera significativamente la composición de dos muestras analizadas por el mismo método; es decir, cuando es cierto. o deja de serlo, que existe la posibilidad de que una diferencia en los resultados experimentales sea consecuencia de los errores indeterminados o de que realmente la composición sea distinta. 5. La probabilidad de que entre dos métodos de análisis haya una diferencia en la precisión. Intervalos de confianza El verdadero valor de la media ( μ ) de una medición es una constante que nunca se conoce. Sin embargo, con la ayuda de las técnicas estadísticas, se pueden establecer los limites alrededor de la media experimentalmente determinada (x), dentro de los que cabe esperar encontrar la media verdadera, con determinado nivel de probabilidad: los limites obtenidos de esta manera se denominan límites de confianza. El intervalo definido por estos límites se conoce como intervalo de confianza. Algunas de las propiedades del intervalo de confianza son dignas de mención. Para un determinado conjunto de datos, el tamaño del intervalo depende, en parte, de la exigencia deseada a la concordancia. Evidentemente, para que una suposición sea absolutamente correcta, se habrá de escoger un intervalo alrededor de la media lo suficientemente grande para incluir todos los valores posibles que x i pueda tomar. En consecuencia, tal intervalo no tiene un valor previsible. Además, no es necesario que eso intervalo sea tan grande si se está dispuesto a aceptar la probabilidad de ser correctos 99 veces de cada 100; todavía puede ser inferior si se acepta una concordancia en el 95 % de los casos. En definitiva, cuanto menos favorable es la posibilidad de que se cumpla determinada predicción, menor es el intervalo abarcado por los límites de confianza. La magnitud del intervalo de confianza, que se deduce de ¡a desviación típica s para el método de medida, depende del grado de seguridad con que se conoce s. A menudo, los

Aplicaciones de la estadística

  • Upload
    others

  • View
    19

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Aplicaciones de la estadística

Aplicaciones de la estadística

Los científicos realizan experiencias utilizando los cálculos estadísticos para ajustar sus conclusiones respecto a los efectos de los errores indeterminados. Algunas aplicaciones de estos cálculos son: 1. En el intervalo, alrededor de una media de una serte, cabe esperar que, con cierta

probabilidad, quede incluida la media verdadera. 2. El número de veces que debería repetirse una medición, para que la media experimental

quede, con cierta probabilidad, dentro del intervalo predeterminado alrededor de la media verdadera.

3. Cuando conviene retenerse o rechazarse determinado valor de una serie de resultados repetidos, para calcular la media para la serie.

4. La probabilidad de que difiera significativamente la composición de dos muestras analizadas por el mismo método; es decir, cuando es cierto. o deja de serlo, que existe la posibilidad de que una diferencia en los resultados experimentales sea consecuencia de los errores indeterminados o de que realmente la composición sea distinta.

5. La probabilidad de que entre dos métodos de análisis haya una diferencia en la precisión. Intervalos de confianza

El verdadero valor de la media (µ) de una medición es una constante que nunca se conoce. Sin embargo, con la ayuda de las técnicas estadísticas, se pueden establecer los limites alrededor de la media experimentalmente determinada (x), dentro de los que cabe esperar encontrar la media verdadera, con determinado nivel de probabilidad: los limites obtenidos de esta manera se denominan límites de confianza. El intervalo definido por estos límites se conoce como intervalo de confianza.

Algunas de las propiedades del intervalo de confianza son dignas de mención. Para un determinado conjunto de datos, el tamaño del intervalo depende, en parte, de la exigencia deseada a la concordancia. Evidentemente, para que una suposición sea absolutamente correcta, se habrá de escoger un intervalo alrededor de la media lo suficientemente grande para incluir todos los valores posibles que xi pueda tomar. En consecuencia, tal intervalo no tiene un valor previsible. Además, no es necesario que eso intervalo sea tan grande si se está dispuesto a aceptar la probabilidad de ser correctos 99 veces de cada 100; todavía puede ser inferior si se acepta una concordancia en el 95 % de los casos. En definitiva, cuanto menos favorable es la posibilidad de que se cumpla determinada predicción, menor es el intervalo abarcado por los límites de confianza.

La magnitud del intervalo de confianza, que se deduce de ¡a desviación típica s para el método de medida, depende del grado de seguridad con que se conoce s. A menudo, los

Page 2: Aplicaciones de la estadística

químicos tienen razón al creer que su valor experimental de s es una excelente aproximación de σ. Sin embargo, en otras situaciones, existe considerable incertidumbre en s; en estas circunstancias, el intervalo de confianza deberá ser necesariamente mayor.

Métodos para obtener buena aproximación de σ. Las oscilaciones del valor calculado para s disminuyen cuando aumenta el número de mediciones N en la ec. 4-5; de hecho, es correcto suponer que s y σ son, para todas las finalidades prácticas, idénticos cuando N es superior a, aproximadamente, 20. Esta conclusión posibilita que el químico logre buena aproximación de s cuando el método de medida no requiere mucho tiempo y se dispone de suficiente cantidad de muestra. Por ejemplo, si a lo largo de una investigación se ha de medir el pH de muchas disoluciones, puede ensayarse la determinación previa de s en una serie de disoluciones. Estas medidas son sencillas, y sólo se requiere sumergir en la disolución de prueba un par de electrodos limpios y secos, ya que el potencial entre los electrodos sirve como medida del pH. Para determinar s, se han de medir de 20 a 30 partes alícuotas de una disolución de pH constante y seguir exactamente todas las etapas del procedimiento. Corrientemente, deberá estarse seguro de la suposición de que el error indeterminado en la prueba será el mismo en las sucesivas mediciones y que el valor calculado para s, mediante la ec. 4-5, será una medida válida y exacta de la σ teórica.

E! procedimiento anterior no suele ser práctico para análisis que requieren tiempo. Sin embargo, a menudo son promediables los datos de precisión para series de muestras, obteniendo un valor de s para el método que es superior a las de los datos individuales. De nuevo, puede aceptarse que las fuentes de error indeterminado son las mismas para las diferentes muestras. Esta hipótesis suele ser válida siempre que la composición de las muestras sea similar y que cada una se analice del mismo modo. Para calcular una estimación ponderada de s, se elevan al cuadrado las desviaciones respecto a la media de cada subconjunto; se suman los cuadrados de todas las subseries y se divide por el correspondiente número de los grados de libertad. Se obtiene el valor de s ponderada extrayendo la raíz cuadrada de esta cantidad. Por cada subserie se pierde un grado de libertad Así, el número de grados de libertad para la s ponderada es igual al número total de mediciones menos el número de subseries. A continuación se da un ejemplo de estos cálculos.

Page 3: Aplicaciones de la estadística

Intervalo de confianza cuando s es una buena aproximación de σ. Como ya se ha dicho, σ

determina la amplitud de la curva de error normal. También viene dada por z en las ecs. 4-2 y 4-3. Mediante la ec. 4-2 se calcula el área bajo la curva normal relativa al área total, para cualquier valor deseado de z. Esta relación (normalmente en porcentaje) se denomina nivel de seguridad y mide la probabilidad de que la desviación absoluta (x-µ) sea menor que zσ. Así, el área de la curva delimitada por z = ± 1,96 σ corresponde a un 95 % del área total. Aquí, el nivel de seguridad es del 95 % y cabe establecer que para un número grande de medidas, el cálculo (x-µ) será igual o menor que ± 1,96 σ en 95 veces de cada 100. En la tabla 4-6 se dan los intervalos de confianza para varios valores de z.

Page 4: Aplicaciones de la estadística

Se obtiene el límite de confianza para una medida individual reordenando la ec. 4-3, sin

olvidar que z puede ser tanto mayor como menor que su valor. Así,

límite de confianza para µ = x + zσ (4-8)

En el siguiente ejemplo se muestra cómo utilizar la ec. 4-8.

Se aplica la ec. 4-8 al resultado de una medida sencilla. Puede demostrarse que el intervalo de confianza se reduce por N para el promedio de N medidas repetidas. Así, una forma más general de la ecuación 4-8 es

9)-(4 N

z x para confianza de límite

σ±=µ

Page 5: Aplicaciones de la estadística

Al considerar la ec. 4-9, se advierte la posibilidad de reducir a la mitad el intervalo de confianza para un análisis, empleando la media de cuatro mediciones. Para ajustar el límite en otra mitad se necesitan dieciséis medidas. Está claro que se alcanza rápidamente un punto de pocas mejoras a pesar de aumentar la adquisición de datos. Por tanto, el químico suele sacar ventaja del aumento relativamente grande que se obtiene promediando dos o cuatro mediciones. Por otro lado, raramente dispone del tiempo necesario para mayores aumentos de la confianza.

Límites de confianza cuando se desconoce σ. A menudo, el químico debe emplear métodos analíticos con los que no está familiarizado. Además, limitaciones de tiempo o de la cantidad de muestra disponible excluye la correcta estimación de σ. Aquí, un simple conjunto de medidas repetidas, deberá proporcionar no sólo el valor medio sino también la estimación de la precisión. Como ya se ha indicado antes, se corre el riesgo de que la s calculada a partir de un conjunto

Page 6: Aplicaciones de la estadística

limitado de datos, esté sujeta a considerable incertidumbre; así, en estas circunstancias, los límites de confianza se ampliarán.

Para explicar la posible variabilidad de s en la ec. 4-3 se utiliza, en lugar de z, el factor t, que se define como

t no sólo depende del índice de seguridad deseado. sino también del número de grados de libertad disponibles en el cálculo de s. En la tabla 4-7 constan valores de t para diferentes circunstancias. Nótese que cuando el numero de grados de libertad se hace infinito, los valores de t coinciden con los de z dados en la tabla 4-6.

El límite de confianza se deduce de t mediante una ecuación análoga a la ec. 4-9, que es:

10)-(4 s

- x t

µ=

11)-(4 N

ts x para confianza de límite ±=µ

Page 7: Aplicaciones de la estadística

Ayudas estadísticas para comprobar hipótesis

Muchos ensayos de los científicos e ingenieros se basan en comprobaciones de hipótesis. Así, con el fin de explicar una observación, se anticipa un modelo de hipótesis, el cual sirve como base para comprobar experimentalmente su validez. Si los resultados de estos experimentos no lo corroboran, se rechaza el modelo y se busca otro nuevo. Si, por el contrario, hay buena concordancia entre los resultados experimentales y lo que se esperaba según las características del modelo hipotético, entonces dicha hipótesis puede servir de base para posteriores experiencias. Cuando la hipótesis se cumple para el suficiente número de datos, se acepta como una teoría útil mientras que con el correr del tiempo no se aporten nuevos datos que la refuten.

Raramente los resultados experimentales coinciden exactamente con los previstos mediante el modelo teórico. En consecuencia, a menudo el científico y el ingeniero deben emitir un juicio de cuando una diferencia numérica es una situación real que conduce a rechazar la hipótesis o es el resultado de los errores indeterminados que inevitablemente comporta la medición. Determinadas pruebas estadísticas son de utilidad para contrastar estos criterios.

Page 8: Aplicaciones de la estadística

Como aproximación a una prueba de este tipo, se emplea una hipótesis nula, la cual supone que, de hecho, las cantidades numéricas que se han de comparar son la misma. Se calcula, según la teoría estadística, la probabilidad de que las diferencias observadas se den como resultado de los errores indeterminados. Normalmente, si la diferencia observada es tan grande o supera la diferencia que podría ocurrir 5 veces de cada 100 (el 5 % del índice de probabilidad), se considera discutible la hipótesis nula y se califica la diferencia como significativa. También resultan aceptables otros índices de probabilidad, como el 1 entre 100 ó 10 entre 100, en función de la certidumbre deseada al formular la hipótesis.

Los tipos de prueba que los químicos utilizan más a menudo, comprenden la comparación de medias, x1 y x2 procedentes de dos conjuntos de análisis, la media de un análisis x, y aquel que se considera que es el verdadero valor µ, las desviaciones típicas s1 y s2, o bien σ1 y σ2 para dos conjuntos de medidas, y la desviación típica s de un conjunto de datos pequeño con la desviación típica s de un conjunto grande de mediciones. En las siguientes secciones se trata de alguno de esos métodos para aquilatar estas comparaciones.

Comparación de una media experimental con un valor verdadero. Un procedimiento muy corriente para comprobar los errores determinados consiste en aplicar el método al análisis de una muestra cuya composición es exactamente conocida. Con toda probabilidad, la media experimental x diferirá del verdadero valor µ; deberá decidirse si esta diferencia se debe a los errores indeterminados de la medición o a la presencia de alguna causa de error determinado.

El proceso estadístico para este tipo de problemas consiste en la comparación entre la diferencia (x - µ) con la diferencia que cabe esperar corrientemente, como consecuencia de los errores indeterminados. Si la diferencia observada es menor que la calculada para determinado nivel de seguridad, se confirma la hipótesis nula de que no existe diferencia entre x y µ; entonces, es lícito sacar la conclusión de que la experiencia indica la ausencia de errores determinados de valor importante. Por otro lado, si (x - µ) es considerablemente mayor que el valor crítico estimado, se concluirá que la diferencia es real y que hay un error significativo.

Se obtiene el valor crítico para rechazar la hipótesis nula escribiendo la ec. 4-11 en la forma

donde N es el número de repeticiones de la medición en que consiste la prueba. Si se dispone de una buena estimación de σ, cabe modificar la ec. 4-12 sustituyendo t y s por z y σ, respectivamente.

12)-(4 Nts

- x ±=µ

Page 9: Aplicaciones de la estadística

Comparación de dos medias experimentales. Los químicos aplican frecuentemente los datos analíticos para decidir si dos materiales son diferentes o idénticos. Aquí se deberá establecer un criterio sobre cuando la diferencia entre los datos analíticos es la consecuencia de los errores indeterminados o indican una diferencia real, Para dilucidarlo, supóngase que se efectúan N1 repeticiones del análisis del material 1 y N2 del material 2. Según la ec. 4-11,

donde x1 y x2 son dos medias experimentales. Con e: fin de establecer la existencia o ausencia de una diferencia real entre x1 y x2, se propone la hipótesis nula de que µ1, y µ2 son idénticas. Entonces, igualando las dos ecuaciones resulta

111 N

ts x ±=µ

222 N

ts x ±=µ

22

11

Nts

x Nts

x ±=±

Page 10: Aplicaciones de la estadística

Se reordena esta ecuación y da:

Se calcula el valor numérico para el término de la derecha utilizando la t para el índice de seguridad escogido. (El número de grados de libertad para t será N1 + N2 - 2.) Si la diferencia experimental, x1 y x2, es menor que el valor calculado, se confirma la hipótesis nula y no se deduce ninguna diferencia significativa entre las medias. Por otro lado, una diferencia experimental mayor que el valor calculado para t, es señal de diferencias considerables.

Si se dispone de una buena estimación de σ, cabe modificar la ec. 4-13 sustituyendo z y σ por t y s, respectivamente.

13)-(4 NNN N

ts x - x21

2121

+±=

Page 11: Aplicaciones de la estadística

En el último ejemplo, se ha encontrado que, con una probabilidad del 95 %, no existe diferencia significativa. Nótese que esta conclusión no equivale a decir que x1 es igual a x2; el ensayo no prueba que los dos vinos tengan el mismo origen, ya que cabe que uno sea tinto y el otro, blanco. Para establecer con una probabilidad razonable que los dos vinos son de la misma procedencia, se necesitarán ensayos complementarios sobre otras características tales como sabor, olor, índice de refracción, concentración de ácido acético, contenido de azúcar y contenido de elementos a escala de trazas. Si con todas estas pruebas y otras, no se detecta ninguna diferencia esclarecedora, entonces se puede afirmar que los dos vinos tienen el mismo origen. Por el contrario, la detección de alguna diferencia importante entre ambos indicará con claridad que son diferentes. Así, pues, fijar una diferencia significativa por un solo ensayo es mucho más concluyente que deducir la ausencia de diferencias.

Page 12: Aplicaciones de la estadística

Rechazo de datos

Cuando un conjunto de datos contiene un dato extraño que se diferencia excesivamente del promedio (o de la mediana), deberá decidirse sobre la conveniencia de aceptarlo o prescindir de él. La elección de criterios sobre el rechazo de un resultado sospechoso tiene sus peligros. Si se establece un criterio riguroso que dificulta eliminar una medida dudosa, se corre el riesgo de retener resultados anormales y de un efecto incierto sobre el promedio de los datos. Por otro lado, si se aplican límites amplios a la precisión, y es fácil rechazar resultados, se está igualmente expuesto a rehusar medidas que son correctas dentro de la serie: entonces se introduce una tendencia en los datos. Por desgracia, no hay una norma universal a seguir en la cuestión de aceptar o rechazar datos.

De los numerosos criterios estadísticos sugeridos para decidir la oportunidad de conservar o despreciar una medida, la prueba de Q os la preferida. Para ello, se divide la diferencia entre el resultado dudoso y el más próximo a él por el recorrido de todo el conjunto. La relación resultante, Q, se compara con unos valores de rechazo que son críticos para determinado grado de confianza. En la tabla 4-8 figuran estos valores críticos de Q para un nivel de seguridad del 90 %.

Page 13: Aplicaciones de la estadística

A pesar de la superioridad sobre otros criterios, la prueba de Q deberá utilizarse con un buen

sentido. Por ejemplo, hay situaciones en que la dispersión asociada a la totalidad del conjunto es casualmente pequeña y la aplicación indiscriminada de la prueba de Q conduce a rechazar valores que, en realidad, deberían retenerse; concretamente, en una serie de tres números, de los que dos son iguales, el valor experimental de Q se hace indefinido y grande. Por otro lado, se ha señalado que la magnitud de la cifra para el rechazo en pequeñas series provoca igualmente retención de datos erróneos.

La aplicación de pruebas estadísticas a ciegas, para decidir acerca de la aceptación o rechazo de medidas dudosas. en pequeñas series de datos, no constituye mejor criterio que una decisión arbitraria; realmente, puede ser un modo de proceder más acertado aplicar una buena opinión basada en una estimación de la precisión que cabe esperar, especialmente si para esta estimación se dispone de una amplia experiencia sobre el método analítico empleado. Sin embargo, en definitiva, la única razón totalmente válida para despreciar un resultado experimental dentro de una pequeña serie es la seguridad de haber incurrido en alguna equivocación al obtenerlo. Dejando aparte este criterio, se recomienda una cuidadosa atención en el rechazo de datos.

En resumen, se sugieren una serie de recomendaciones para tratar una pequeña serie de valores en la cual hay un valor sospechoso.

1. Repasar todos los datos relacionados con el resultado sospechoso. para localizar si hay algún error grande que pueda afectarlo. Para poder realizar esto, es imprescindible haber seguido la recomendación de anotar cuidadosamente todas las observaciones en el diario de laboratorio.

2. Si es posible, estímese la precisión que lógicamente cabe esperar del procedimiento, para estar seguro de que el resultado marginado es dudoso.

3. Repítase el análisis si es lo suficientemente sencillo y se dispone del tiempo necesario. La concordancia del nuevo dato obtenido con aquellos que se consideraban como válidos, apoya la opinión de que deberá rechazarse el resultado dudoso. Además, éste tendrá menor efecto sobre la media si la serie es mayor, en el caso que sea indicado conservarlo.

4. Si no es posible contar con más datos, aplíquese la prueba de Q a los datos disponibles, para ver si con esta base deberá conservarse o rechazarse el resultado dudoso.

5. Si la prueba de Q aconseja retenerlo, tómese en consideración utilizar la mediana del conjunto mejor que la media. La mediana tiene la ventaja de permitir la participación de

Page 14: Aplicaciones de la estadística

todos los datos del conjunto sin la irregular influencia de un dato marginal. Además, se ha demostrado que la mediana de la distribución normal de un conjunto de datos, que contiene tres mediciones, suele proporcionar mejor estimación del valor correcto que la facilitada por la media del conjunto después de separar arbitrariamente el valor marginado.

TRANSMISIÓN DE ERRORES EN LOS CÁLCULOS

Con frecuencia, el científico debe estimar el error de un resultado obtenido por cálculo a partir de dos o más datos, cada uno de los cuates tiene su propio error. La forma cómo se acumulan los errores individuales depende de las relaciones aritméticas entre los términos que contienen el error y la cantidad que se ha de calcular. Además, el efecto de los errores determinados sobre un resultado calculado difiere del efecto de los errores indeterminados. Acumulación de errores determinadas

La forma de acumularse los errores en una suma o diferencia es distinta de la del producto o del cociente.

Errores en una suma o diferencia. Considérese la relación y = a + b - c

donde a, b, c son los valores de tres cantidades medibles. Si los errores absolutos determinados asociados a estas cantidades son ∆a, ∆b, ∆c, respectivamente, las medidas obtenidas serán (a + ∆a), (b + ∆b), (c + ∆c). El error que resulta en y es ∆y, entonces:

y + ∆y = (a + ∆a) + (b + ∆b) - (c + ∆c) Se deduce el error en el resultado calculado restando la primera ecuación de la segunda. O sea,

∆y = ∆a + ∆b - ∆c (4-14) Se comprueba, pues, que en las adiciones o sustracciones, el error absoluto para la suma o diferencia se determina a partir del error absoluto de los miembros que constituyen la suma o la diferencia.

Page 15: Aplicaciones de la estadística

Errores en un producto o corriente. Considérese primero el producto

y = a x b Supóngase de nuevo los errores determinados ∆a y ∆b de los que resulta el error ∆y. Entonces,

y + ∆y = (a + ∆a) (b + ∆b) = ab + a ∆b + b ∆a + ∆a ∆b

Restando la primera de la última, resulta

∆y = b ∆a + a ∆b + ∆a ∆b Dividiendo ahora esta ecuación por la primera, se obtiene

El tercer término de la derecha de la ecuación suele ser muy pequeño respecto a las otras dos, puesto que el numerador es el producto de los dos términos menores y el denominador el producto de las dos mayores. Entonces, si ∆a ∆b / ab « (∆a/a + ∆b/b),

Nótese que los tres términos corresponden a errores determinados relativos, en lugar de los absolutos, como ocurre para la suma y diferencia.

Para el error en un cociente se deduce una relación análoga. Así,

abb a

bb

aa

yy ∆∆+∆+∆=∆

bb

aa

yy ∆+∆=∆

ba

y =

Page 16: Aplicaciones de la estadística

entonces,

es conveniente escribir estas dos ecuaciones como:

yb = a yb + b ∆y + y ∆b + ∆y ∆b = a + ∆a

Ahora se combinan estas dos ecuaciones para dar:

b ∆y + y ∆b + ∆y ∆b = ∆a Dividiendo por yb = a y reagrupando términos, se obtiene:

De nuevo, generalmente es posible suponer que

∆y ∆b / yb « (∆a/a - ∆b/b) y entonces

Para el caso más general

Se demuestra con los mismos argumentos que

O sea, que para la multiplicación o división, el error relativo del producto o el cociente viene

b) (ba) (a

y y ∆+∆+=∆+

ybby

-bb

- aa

yy ∆∆∆∆=∆

15)-(4 cc

- bb

aa

yy ∆∆+∆=∆

cab

y =

15)-(4 cc

- bb

aa

yy ∆∆+∆=∆

Page 17: Aplicaciones de la estadística

determinado por los errores relativos de los números que intervienen en el cálculo del resultado.

Acumulación de errores indeterminados Como ya se ha indicado, la desviación típica absoluta o relativa sirve como la medida más adecuada de los errores indeterminados en un resultado experimental. En contraste con los errores determinados, no cabe asignar signo alguno a la desviación típica. pues existe igual probabilidad de que sea positiva o negativa. Este hecho conduce hacia un conjunto de desviaciones típicas posibles para el resultado calculado. Por ejemplo, considérese la suma

+ 0.50 (± 0.02) + 4.10 (± 0.03) - 1.97 (± 0.05)

2.63 Aquí, los números entre paréntesis son las desviaciones típicas. Nótese que si las dos primeras incertidumbres ocurren en sentido positivo y la tercera en el negativo, la desviación típica del resultado seria:

sy = + 0.02 + 0.03 - (-0.05) = 0.10 Por otro lado, en otras circunstancias aleatorias, la acumulación de incertidumbres puede ser cero. Si las tres incertidumbres son positivas

sy = + 0.02 + 0.03 - (+0.05) = 0.00

Page 18: Aplicaciones de la estadística

Ninguna circunstancia es tan probable como una combinación que dé una incertidumbre entre estos dos extremos.

La teoría estadística demuestra que el mejor valor o más probable, para la desviación típica absoluta, sy, de la suma o diferencia viene dado por:

donde sa, sb, sc, … son las desviaciones típicas absolutas de los números que constituyen la suma o la diferencia. Obsérvese que la varianza absoluta del resultado es la suma de las varianzas absolutas individuales. Así, también cabe escribir la ec. 4-16 como

Para la multiplicación y la división, las desviaciones típicas relativas se combinan de manera similar. Así, para obtener la desviación típica para y en la relación

se escribe:

.... s s s s 2c

2b

2ay ++=

cab

y =

17)-(4 c

s

b

s

a

s

y

2c

2b

2ay

+

+

=

s

.... s s s s 2c

2b

2a

2y ++=

Page 19: Aplicaciones de la estadística
Page 20: Aplicaciones de la estadística

Transmisión de errores en cálculos de potencias Para mostrar cómo se transmiten los errores cuando se calcula la potencia o la raíz de un resultado experimental a, considérese

Y = ax donde x es la potencia o la raíz y no contiene ninguna incertidumbre. La derivada de esta expresión es

dy = xa(x-1) da dividiendo por la expresión original se tiene:

Page 21: Aplicaciones de la estadística

Pero

Por tanto,

O en incrementos finitos

Aquí, ∆y es el error absoluto en y, que procede del error ∆a en a. Evidentemente, el error relativo ∆y/y del resultado calculado es sencillamente el error relativo del número experimental ∆a/a multiplicado por el exponente. Por ejemplo, el error relativo en el cuadrado de un número es dos veces el del propio número; del mismo modo, el error relativo de la raíz cúbica de un número es simplemente un tercio del que presenta el número.

También es importante destacar que la transmisión de un error indeterminado al elevar un número a una potencia se trata de un modo distinto que en una multiplicación, pues no existe la posibilidad de que los errores se anulen entre sí. Recuérdese que la desviación típica en el producto a x b estará relacionada con la suma y la diferencia de las desviaciones típicas de los dos miembros, y es posible calcular un valor probable tomando la raíz cuadrada de la suma de cuadrados de las incertidumbres. Esta técnica no es aplicable al producto de una medida individual a x a; aquí, los signos son necesariamente idénticos, ya que el número es idéntico. Por ello, la incertidumbre relativa en a2 debe ser el doble que para a. La ec. 4-18 también se aplica a la determinación de errores indeterminados; en ese caso, ∆y y ∆a se sustituyen por sy y sa respectivamente.

x

1)-(x

a

da xa

ydy

=

a1

a

ax

1)-(x=

ada

x y

dy =

18)-(4 aa

x yy ∆=∆

Page 22: Aplicaciones de la estadística

Transmisión de errores en los cálculos de logaritmos y antilogaritmos Para demostrar cómo se transmiten los errores cuando se calculan logaritmos o antilogaritmos. se tomará la derivada de la expresión

y = log a = 0.434 Ln a donde Ln indica el logaritmo natural. Entonces

ada

0.434 dy =

Page 23: Aplicaciones de la estadística

Pasando a incrementos finitos se tiene

Nótese que la incertidumbre absoluta en y viene determinada por la incertidumbre relativa en a y el factor de conversión. Empleando la ec. 4-19, la desviación típica relativa puede, como antes, sustituirse por ∆a/a y la desviación típica absoluta en y por ∆y.

Nótese que el antilogaritmo de un número con pocas cifras después de la coma decimal, comporta un gran error absoluto. Aquí, la mayor incertidumbre procede del hecho de que los

19)-(4 aa

0.434 y ∆

=∆

Page 24: Aplicaciones de la estadística

números a la izquierda de la coma decimal (la característica) sólo sirven para localizar la coma decimal. En el último ejemplo, el gran error en el antilogaritmo proviene de la incertidumbre relativamente grande en la mantisa del número (que es 0,4 ± 0.3).

CONVENIO SOBRE CIFRAS SIGNIFICATIVAS

Al reseñar una medición, el investigador no sólo incluirá el valor que considera que es el mejor, ya sea la media o la mediana, sino también su estimación sobre la incertidumbre. Esta última se da preferentemente como la desviación típica del resultado; también puede emplearse la desviación sobre la media, la desviación sobre la mediana o el recorrido, ya que este indicador de la precisión es fácil de calcular. La práctica diaria muestra asimismo que todo resultado experimental se ha redondeado de manera que sólo contenga los números conocidos con seguridad más el primero de los inseguros. Esta práctica se llama convenio sobre cifras significativas.

Por ejemplo, el promedio de las cantidades experimentales 61,60, 61,46, 61,55 y 61,61 es 61,555. La desviación típica de la suma es ± 0,069. Claramente se comprueba que la segunda cifra decimal está sometida a incertidumbre. En este caso, todos los números en los siguientes lugares decimales carecen de significación y se está obligado a redondear convenientemente el valor promedio. Se ha de considerar tomar 61,55 ó 61,56, al estar el valor 61,555 igualmente distante de ambos. Una buena norma a seguir, cuando hay que redondear un 5, es redondearlo siempre a número inmediatamente siguiente: haciéndolo así, se elimina cualquier tendencia a redondear en determinado sentido, puesto que hay la misma posibilidad de que el número inmediatamente siguiente sea el mayor o el menor en una situación determinada. Así, se podrán dar los anteriores resultados como 61,56 ± 0,07. Por otro lado, si se tienen dudas de que ±0,07 sea una estimación válida de la precisión, cabe presentar los resultados como 61,6 ± 0,1.

Algunas veces se utiliza el convenio de las cifras significativas en lugar de una estimación específica del resultado. Así. en este ejemplo, al decir sólo 61,6, se quiere decir que, de hecho, el primer 6 y el 1 son cifras seguras pero que el valor del segundo 6 es dudoso. Es obvio el inconveniente de esta técnica; cada lector puede establecer un valor en el margen de incertidumbre; aquí, mayor que ±0,05 y menor que ±0,5.

Al emplear el convenio de cifras significativas, es importante tener en cuenta que el cero no sólo actúa como un número sino que también sirve para localizar la coma decimal en cantidades muy pequeñas y muy grandes. Un caso de éstos es el número de Avogadro. Se conocen con seguridad las tres primeras cifras, 6, 0 y 2; el siguiente no es seguro pero probablemente es 3. Puesto que no se conocen los números que siguen al 6023, se sustituyen por ceros los 19 lugares siguientes para situar la coma decimal. Aquí, los ceros sólo indican el orden de magnitud del número y no poseen ningún otro significado. Está claro que se ha de distinguir entre aquellas cifras que tienen un significado físico (esto es, cifras significativas) y las que son desconocidas o

Page 25: Aplicaciones de la estadística

sin sentido debido a las limitaciones de las mediciones. Los ceros situados a la izquierda pueden ser significativos o no serlo. Así, la masa de un peso

de 20 mg que no lleva ninguna corrección (a la décima de miligramo) se conoce con tres cifras significativas, 20,0 mg; cuando se expresa como 0,0200 g, no cambia el número de cifras significativas. Si, por otro lado, se desea expresar el volumen de un vaso de 2 l, como 2000 ml, el último número sólo contiene una cifra significativa; los ceros únicamente indican el orden de la magnitud. Podría ser que para el vaso en cuestión se hubiera encontrado experimentalmente que contiene 2,0 l; aquí el cero que sigue a la corra decimal es significativo y propone que el volumen se conoce con una aproximación de ±0,5 l y puede llegar a ±005 l. Si este volumen se expresa en mililitros, el cero que sigue al 2 seguirá siendo significativo, mientras que los otros dos, no. Empleando las anotaciones exponenciales se elimina esta dificultad. Se puede, pues, indicar el volumen corro 2,0 x 103 ml.

Se ha de poner cierto cuidado al determinar el número de cifras significativas que hay en el resultado de la combinación aritmética de dos o más números. Para la suma y resta, el número de cifras significativas se advierte por inspección visual. Por ejemplo,

3.4 + 0.02 + 1.31 = 4.7 Evidentemente, la segunda cifra decimal no puede ser significativa, ya que el 3,4 introduce incertidumbre en la primera cifra decimal.

Cuando los datos se multiplican o dividen, se suele aceptar que el número de cifras significativas en el resultado coincide con las del número que tiene menos cifras significativas. Por ejemplo,

Aquí, el 24 tiene sólo dos cifras significativas y, por tanto, se ha redondeado el resultado según éste. Por desgracia, esta regla no siempre se aplica correctamente. Así, la incertidumbre en el 24 para este cálculo podrá ser tan pequeña como 0,5 y tan grande como 5. La incertidumbre en e cociente para estos dos límites es:

Cálculos como éste demuestran el dilema que plantean los científicos que sólo utilizan el

0.11 0.108 0.100

0.452 x 24 ==

Page 26: Aplicaciones de la estadística

convenio de cifras significativas como indicación de los errores indeterminados. Al redondear los logaritmos y antilogaritmos debe prestarse especial atención a las cifras

significativas correctas. Considérese de nuevo el primer ejemplo: el redondeo correcto de log 2,00 x l0-3 dará:

log 2.00 x 10-3 = -2.699 Aquí, la operación matemática proporciona un aumento del número de cifras significativas. Sin embargo, de hecho, el 2 inicial en el resultado sólo indica la situación de la coma decimal en el número original: la información sobre 2,00 se tiene en las tres cifras 0,699. Así hay concordancia en el número de cifras significativas entre esta parte del resultado y el número original.

Como se ha mostrado por el último ejemplo, se produce una reducción aparente de una cifra significativa en el cálculo de un antilog. De nuevo, la razón para esta anomalía aparente está relacionada con la característica de un logaritmo.