Siguiendo la propagación de errores (cuadrática), se obtiene una «desviación estándar» del valor medio de la magnitud indirecta, a partir de medidas directas de otras magnitudes experimentalmente accesibles. Pero esa desviación estándar se debe multiplicar por un prefactor que dependerá del nivel de confianza exigido y de los grados de libertad (número de medidas menos 1). Usando la aproximación de Welch-Satterthwaite, es posible calcular el número de grados de libertad efectivo resultante de varias medias de medidas directas. Si este número efectivo es menor que 30, se deberá usar la distribución t-Student con esos grados de libertad para calcular los percentiles oportunos según el nivel de confianza elegido.
Incertidumbre asociada a la media ponderada
Si se tiene una serie de medidas de la misma magnitud en idénticas condiciones, aunque con diferente incertidumbre cada medida (por ejemplo, valores obtenidos de ajustes a una serie de curvas que corresponden a repeticiones, o datos tomados con diferente fondo de escala…), se debe calcular la media artimética ponderada con las inversas al cuadrado de cada incertidumbre y la incertidumbre asociada a esa media será la raíz cuadrada de la normalización de la ponderación anterior.
¿Es posible mejorar la incertidumbre de la pesada de dos objetos?
- Pesar a la vez el objeto 1 y el objeto 2 y anotar la medida directa (S=A+B).
- Pesar el objeto 1, tarar, retirar el objeto 1, colocar el objeto 2 y anotar la medida directa (D=B-A).
- Con álgebra, A=(S-D)/2 y B=(S+D)/2
- y por propagación de errores accidentales (CUADRÁTICA), error_A=sensibilidad/Sqrt(2) y error_B=sensibilidad/Sqrt(2) pero esto viola el principio de acumulación de errores.
- o por propagación de errores sistemáticos (LINEAL), error_A=sensibilidad y error_B=sensibilidad, como ocurre si se pesan por separado.
El error de la media muestral NO es la media de los errores
Si bien formalmente es correcto aplicar la propagación de errores a la media aritmética, entendida como una relación funcional entre variables independientes (medidas repetidas), no es apropiado en el laboratorio. En este caso las incertidumbres de cada medida están correlacionadas entre sí y no son mutuamente independientes (puesto que las variables provienen de una misma distribución). Esto no ocurre con magnitudes diferentes mutuamente independientes. Así, se reserva la propagación de errores para leyes físicas o relaciones matemáticas entre magnitudes. Un caso distinto es el de una magnitud que decrece monótona con el tiempo aun debiendo ser constante según la teoría, para lo que se toma un valor promedio entre dos instantes cercanos por representatividad. En ese caso, el error de la magnitud, antes que la desviación estándar, resulta de la propagación de errores como medida indirecta.
Más allá de su naturaleza estadística, y muchas veces controvertida (diferentes criterios, contextos, tipos de error, notaciones), hay un consenso en el ámbito de la metrología y calibración (como en el de investigación) sobre la idoneidad de expresar el error de la media a partir de intervalos de confianza cuando se desconoce tanto el valor verdadero de la magnitud como su varianza y las desviaciones siguen la distribución Gaussiana. Cuando se hacen menos de 30 medidas, se usa la distribución t-Student, la cual es la distribución normal cuando N->infinito [1 ,2].
La incertidumbre de la media de medidas directas con errores aleatorios (accidentales) viene dada por regla general por el intervalo de confianza. Cuando se toma como valor estimado de la magnitud su media muestral acompañada de la desviación estándar muestral como incertidumbre, estamos diciendo que tenemos la certeza del 80% con N=3 medidas y 90% con N=5 medidas de que el valor verdadero se encuentre en dicho intervalo. Tener más certeza va acompañado de tener un intervalo más amplio a no ser que aumentemos el número de medidas. Por ello, siempre hay que realizar el mayor número de medidas que permita el montaje y el tiempo.
Sobre ajuste de datos
¿Es lo mismo realizar un ajuste por mínimos cuadrados que interpolar unos datos experimentales?
No. Interpolar es unir los puntos mediante polinomios.
¿Ajustar unos datos es evaluar los datos experimentales en una función-prueba?
La sustitución directa de los datos en una función-prueba con la intención de conocer los parámetros libres de la función, en general, lleva a un sistema de ecuaciones sobredeterminado, luego incompatible y por tanto irresoluble algebraicamente. El ajuste por mínimos cuadrados permite obtener una solución que es la mejor según ciertos criterios estadísticos, aunque no es exacta desde el punto de vista algebraico.
¿Un ajuste debe tener en cuenta los errores de X e Y?
Sí, se deben incluir los errores de X e Y en los ajustes (conocidos como ajustes ponderados). Los mínimos cuadrados suponen que la incertidumbre en X es despreciable comparada con la de Y, pero no siempre es así. En sentido matemático, todo ajuste debería ser ortogonal, donde lo que se minimiza es la distancia del punto (X, Y) al modelo. Sin embargo, computacionalmente resulta más sencillo implementar el ajuste como una minimización de las distancias en Y, de ahí que las incertidumbres que ponderan el ajuste por mínimos cuadrados son las de Y. Más info en [1].
¿Cuál es la interpretación de las incertidumbres de los coeficientes del ajuste?
Representan un intervalo de confianza (con al menos un 95% de confianza siempre que N>=7)
¿Qué problemas tiene la linealización de una ley exponencial para realizar un ajuste lineal?
Uno es el dimensional. El argumento de logaritmo (decimal o neperiano) tiene que ser adimensional. Ello implica que la medida deberá dividirse por el valor 1 expresado en la unidad de medida. Otro es el intervalo de ajuste (unidades en forma de submúltiplos o valores cercanos a 1) donde el logaritmo cambia abruptamente.