Teoría de errores: fallos que mejoran procesos
La medición de una cantidad física nunca se puede hacer con una precisión perfecta, siempre habrá algún error o incertidumbre presente. De esta premisa parte la teoría de errores, que explica que, para cualquier medición hay un número infinito de factores que pueden causar que un valor obtenido experimentalmente se desvíe del valor verdadero (teórico). La mayoría de estos factores tienen un efecto insignificante en el resultado de un experimento y generalmente pueden ignorarse. Sin embargo, algunos efectos pueden causar una alteración significativa o error en el resultado experimental.
Para que una medición sea útil, es necesario tener una idea cuantitativa de la magnitud de los errores. Por lo tanto, cuando se informan resultados experimentales, van acompañados de una estimación del error experimental, denominada incertidumbre. Esta incertidumbre indica cuán confiable es el experimentador cree que los resultados son.
¿Qué es la teoría de errores?
La teoría de errores es la rama de la estadística matemática dedicada a la inferencia de conclusiones precisas sobre los valores numéricos de cantidades medidas aproximadamente, así como sobre los errores en las mediciones.
Las mediciones repetidas de una misma cantidad constante generalmente dan resultados diferentes, ya que cada una contiene un cierto error y dentro de ellos, la teoría de errores se centra en el estudio de los errores brutos y aleatorios.
Las cuestiones básicas de esta teoría son estudiar las leyes de distribución de errores aleatorios, buscar estimaciones de parámetros desconocidos utilizando los resultados de las mediciones, establecer los errores en estas estimaciones e identificar errores brutos.
Tipos de errores que identifica la Teoría
Según explica la teoría de errores, puede diferenciarse entre tres tipos básicos de error: sistemático, bruto y aleatorio. Cada uno tiene sus particularidades y, así, por ejemplo:
- Los errores sistemáticos siempre sobreestiman o subestiman los resultados de las mediciones y surgen por razones específicas (configuración incorrecta del equipo de medición, el efecto del ambiente, etc.), que afectan sistemáticamente las mediciones y las alteran en una dirección. La estimación de los errores sistemáticos se logra utilizando métodos que van más allá de los límites de las estadísticas matemáticas.
- Los errores graves, a menudo llamados valores atípicos, surgen de errores de cálculo o lecturas incorrectas del equipo de medición, entre otros. Los resultados de las mediciones que contienen errores graves difieren mucho de otros resultados de las mediciones y, por lo tanto, a menudo son fáciles de identificar.
- Los errores aleatorios surgen de varias razones que tienen un efecto imprevisto en cada una de las mediciones, tanto en la sobreestimación como en la subestimación de los resultados.
Gracias a la aplicación de la teoría de errores es posible centrarse en los problemas y eliminar su fuente raíz, por lo que, en el ámbito empresarial, se puede llegar a configurar un conjunto de procesos muy robusto y encaminado a la mejora continua.
Prestar atención a cuando las cosas salen mal y buscar preventivos prácticos es una forma de avanzar hacia la construcción de mejores procesos y puede aclarar por qué ciertas prácticas comunes producen resultados consistentemente malos.
El objetivo de algunas metodologías de gestión, como Six Sigma, por ejemplo, es que un elevado porcentaje de los resultados producidos estén libres de defectos. Eso es más sencillo de lograr si eliminamos las fuentes más comunes de sesgo, error humano y metodología, algo para lo que la teoría de errores supone un buen apoyo.
Si te interesa este tema, descubre por qué deberías estudiar Big Data, además, te presentamos nuestro Máster en Big Data que podría ser de tu interés si decides dedicarte a esta rama de la tecnología.