Errores
En la literatura técnica y científica, el término error se utiliza frecuentemente con dos significados bastante diferentes. En algunos casos se utiliza para cuantificar la diferencia entre el resultado de una medida y el considerado como valor de la misma (valor verdadero, valor real o estándar) mientras que en otras se utiliza para denominar la incertidumbre del resultado de una medida, es decir, para cuantificar la imperfección del método e instrumento de medida empleado. (Universidad de Jaén)El error se define, tal como habíamos dicho, como la diferencia entre el valor verdadero y el obtenido experimentalmente. Los errores no siguen una ley determinada y su origen está en múltiples causas. Atendiendo a las causas que lo producen, los errores se pueden clasificar en dos grandes grupos: errores sistemáticos y errores aleatorios. (Técnicas Auxiliares de Laboratorio )
Errores Sistemáticos
Es constante a lo largo de todo el proceso de medida y, por tanto, afecta a todas las medidas de un modo definido y es el mismo para todas ellas. Estos errores tienen siempre un signo determinado y las causas probables pueden ser:- Errores instrumentales (de aparatos); por ejemplo, el error de calibrado de los instrumentos.
- Error personal: Este es, en general, difícil de determinar y es debido a las limitaciones de carácter personal. Como, por ejemplo, los errores de paralaje, o los problemas de tipo visual.
- Errores de método de medida, que corresponden a una elección inadecuada del método de medida; lo que incluye tres posibilidades distintas: la inadecuación del aparato de medida, del observador o del método de medida propiamente dicho.
Errores Aleatorios
Se deben a las pequeñas variaciones que aparecen entre observaciones sucesivas realizadas por el mismo observador y bajo las mismas condiciones. Las variaciones no son reproducibles de una medición a otra y se supone que sus valores están sometidos tan sólo a las leyes del azar y que sus causas son completamente incontrolables para un observador.Los errores aleatorios poseen, en su mayoría, un valor absoluto muy pequeño y si se realiza un número suficiente de medidas se obtienen tantas desviaciones positivas como negativas. Y, aunque con los errores aleatorios no se pueden hacer correcciones para obtener valores más concordantes con los reales, si pueden emplearse métodos estadísticos, mediante los cuales se pueden llegar a algunas conclusiones relativas al valor más probable en un conjunto de mediciones.
La Exactitud vs La Precisión
La exactitud se define como el grado de concordancia entre el
valor “verdadero” y el experimental. De manera que un aparato es
exacto si las medidas realizadas con él son todas muy próximas al valor
“verdadero” de la magnitud medida. Mientras tanto, la precisión hace referencia a la concordancia entre las medidas
de una misma magnitud realizadas en condiciones sensiblemente
iguales. De modo que, una aparato será preciso cuando la diferencia
entre diferentes mediciones de una misma magnitud sean muy
pequeñas.
La exactitud implica, normalmente, precisión, pero la afirmación
inversa no es cierta, ya que pueden existir aparatos muy precisos que
posean poca exactitud, debido a errores sistemáticos, como el “error de
cero”, etc.
Cálculo de Errores
Cuando indiquemos el resultado de una medida (o de un conjunto de
medidas) de una magnitud, tendremos que indicar, siempre, el grado de
incertidumbre de la misma, para lo cual acompañamos el resultado de la
medida de sus error absoluto; expresando el resultado así
x ± ∆x
El error absoluto nos da una medida de la desviación, en términos
absolutos, respecto al valor “verdadero”. No obstante, en ocasiones nos
interesa resaltar la importancia relativa de esa desviación. Para tal fin, se usa el
error relativo.
Existen diferentes formas para determinar el error absoluto, en este post nos centraremos en tres de ellas, que describiré a continuación desde la menos precisa a la mejor recomendada:
- La apreciación del instrumento: La apreciación es la menor variación de la medida que se puede registrar con un instrumento. En aquellos instrumentos que tienen una escala, el valor entre dos divisiones consecutivas es la apreciación. En los instrumentos digitales la apreciación es el menor cambio que se registra en él. (aulas.uruguayeduca.edu.uy)
- Datos en el Manual o Instructivo del instrumento: especificaciones del fabricante, datos provenientes de calibraciones y otros informes, e incertidumbres asignadas a datos de referencia tomados de manuales.
- Evaluaciones estadísticas: se pueden basar en cualquier método estadístico válido de tratamiento de datos, como por ejemplo, calcular la desviación típica de la media de una serie de observaciones independientes realizadas bajo condiciones de medida definidas, usar el método de ajuste por mínimos cuadrados con el fin de estimar el valor de los parámetros y sus desviaciones típicas, o llevar a cabo un análisis de varianzas con el fin de identificar y cuantificar los efectos aleatorios en determinados tipos de medidas.
Una de las herramientas estadísticas más usadas es la desviación estándar:
Donde son las desviaciones de cada medida calculadas según el concepto de error absoluto () y la N son el total de medidas realizadas. Otra forma utilizada es la desviación media:
Por otro lado, El error relativo se define como el cociente entre el error absoluto y el valor “verdadero”:
Y por último tenemos el error porcentual que se expresa como:
De modo que una expresión final que represente coherentemente todas las medidas realizadas es:
Dadas tres mediciones a, b y c, que cumplen con la expresión "x ± ∆x", se deben seguir las siguientes reglas:Manejo de Incertidumbres en los Cálculos
-------------------------------------
Próximamente dejaré enlaces con un vídeo explicativo de esta publicación y vídeos de ejercicios resueltos paso a paso.
-------------------------------------
Deja en los comentarios cualquier saludo o pregunta que tengas presente. Comparte la publicación, es probable que esta información le sea interesante y útil a otros.
No hay comentarios:
Publicar un comentario