Artículos
INCERTIDUMBRE, TOLERANCIA Y PRECISION

INCERTIDUMBRE, TOLERANCIA Y PRECISION

Incertidumbre, en metrología, es una cota superior del valor de la corrección residual de la medida.

También puede expresarse como el valor de la semi-amplitud de un intervalo alrededor del valor resultante de la medida, que se entiende como el valor convencionalmente verdadero. El carácter convencional, y no real de tal valor, es consecuencia de que el intervalo se entiende como una estimación adecuada de la zona de valores entre los que se encuentra el valor verdadero del mensurando, y que en términos tanto teóricos como prácticos es imposible de hallar con seguridad o absoluta certeza: teóricamente porque se necesitaría una sucesión infinita de correcciones, y en términos prácticos por no ser útil continuar con las correcciones una vez que la incertidumbre se ha reducido lo suficiente como para no afectar técnicamente al objeto al que va a servir la medida.

El Vocabulario Internacional de Metrología (VIM) define la incertidumbre de medida como un parámetro, asociado al resultado de una medición, que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al mensurando.

Existen muchas formas de expresar la incertidumbre de medida o conceptos derivados o asociados: incertidumbre típica, incertidumbre expandida, incertidumbre de calibración -calibración-, incertidumbre máxima, incertidumbre de uso, etc.

Como concepto metrológico, es del mismo ámbito, pero diferente a los de tolerancia y precisión.

Para la determinación del valor de las magnitudes fundamentales (obtenido experimentalmente) en unidades del SI, se aplica la incertidumbre típica, revisada periódicamente.
 

Incertidumbre, Tolerancia y Precisión son términos que aparecen frecuentemente relacionados y no siempre resulta fácil diferenciarlos, en muchas ocasiones se utilizan indistintamente de forma incorrecta.

Sin embargo, siguiendo los principios y definiciones de la Metrología estos tres conceptos se diferencian claramente. En este artículo corto se definirán cada uno de ellos, se analizaran sus origenes y se comentaran cuales son sus principales diferencias. Para ello se ha consultado el texto "Fundamentos de Metrología", de Ángel Mª Sánchez Pérez, Mayo de 1999. Monografías del Departamento de Físcia Aplicada, Escuela Técnica Superior de Ingenieros Industriales, Universidad Politécnica de Madrid.

 


Sobre el origen de la incertidumbre de medidas

El término incertidumbre siempre aparece asociado a la medida de magnitudes. Medir una cantidad de magnitud es compararla con otra de su misma clase que se adopta como unidad, siempre se mide comparando la magnitud a medir, mensurando, con otra cantidad de referencia de la misma clase, ya sea haciendo intervenir directamente patrones en el proceso y empleando un instrumento comparador (método de medida diferencial o por comparación), o aplicando exclusivamente un instrumento de medida sobre el mensurando ( método de medida directa).

Cuando se realiza la medición siempre están presentes el mensurando (lo que se quiere medir), el instrumento de medida (lo que mide), el operador (el que mide) y el resto del universo, que de alguna forma física está influyendo en la medida realizada. No podemos considerar que cuando se realiza una medida, el sistema formado por el mensurando-instrumento de medida-operador, está aislado de su entorno, sino que el entorno actúa a través de las magnitudes de influencia, de manera que aquellas medidas que ignoran las influencias significativas carecen de sentido metrológico.

Las magnitudes de influencia son aquellas magnitudes que no constituyen el objeto directo de la medida pero que están presentes durante la medición y la perturban.

Se considerarán aquellas magnitudes de influencia como significativas cuando se encuentren en el orden de magnitud de la precisión con la que se mide el mensurando. Para que el resultado de una medición sea representativo, es necesario establecer unas condiciones de referencia que especifiquen los valores de las magnitudes de influencia, determinen que se trabaja con instrumentos adecuados, que el mensurando está suficientemente bien definido y que se utiliza un modo operativo apropiado. Se dice que las magnitudes de influencia se encuentran bajo control cuando se emplean los medios necesarios para que sus valores se sitúen en un cierto intervalo alrededor del valor de referencia. A pesar de que las magnitudes de influencia se encuentren bajo control, es inevitable la variabilidad de las mismas que se traducen en una cierta dispersión de las medidas cuando se reiteran sucesivas mediciones del mensurando, siempre que la división de escala del instrumento sea lo suficientemente pequeña, que el instrumento posea la sensibilidad adecuada.

La medida de cualquier magnitud posee naturaleza aleatoria al existir siempre una variabilidad inevitable que confiere dicho carácter a las indicaciones del instrumento cuando se realizan sucesivas mediciones del mensurando, siempre en las mismas condiciones de referencia. El orden de significación de la variabilidad, para un determinado nivel de control de las magnitudes de influencia, depende esencialmente del grado de definición del mensurando y de la sensibilidad del instrumento de medida empleado. Puesto que el resultado de medir un mensurando es una variable aleatoria, el mensurando debe caracterizarse en la forma habitual empleada con las variables aleatorias, utilizando un parámetro de centrado y otro de dispersión. Ese parámetro de dispersión como veremos más adelante será la precisión.

A veces no es posible efectuar las medidas con las magnitudes de influencia controladas en el entorno de los valores de referencia. En este caso hay que aplicar correcciones a los valores indicados o brutos para que el resultado de la medición corresponda al que se habría obtenido si se hubiese trabajado con aquellas magnitudes en sus valores de referencia. La introducción de correcciones incrementa la complejidad de las medidas pues no siempre se conoce la relación funcional que existe entre el resultado de la medida y los valores de las mganitudes de influencia. Además de las correcciones indicadas, la exigencia de la trazabilidad impone la utilización de instrumentos calibrados lo que determina la incorporación de las correcciones de calibración. La calibración del instrumento se efectúa midiendo patrones de referencia al objeto de comprobar si las indicaciones de la escala se ajustan a los valores de las correspondientes unidades del SI.

De todos los razonamientos anteriores se observa que no es posible obtener valores exactos como resultado de las medidas. La única forma de conseguirlo sería la de introducir exactamente todas las correcciones necesarias en el tiempo y en el espacio, lo cual no es posible debido a la imperfección de los medios y del conocimiento, y por otro lado los medios necesarios para obtener una medida exacta no se justificarían desde el punto de vista práctico de la metrología industrial. De ahí que se origine un bucle al admitir que toda medida debe ser corregida (al menos con la corrección de calibración del instrumento de medida), lo que obliga a medir nuevas magnitudes que, a su vez, habrán de ser corregidas hasta alcanzar los niveles metrológicos más elevados, no puede agotarse en la práctica y debe cortarse en algún punto, lo que supone dejar sin corregir algo que debiera haberse corregido, es decir, una corrección residual.

La correción residual es desconocida pero existe la posiblidad de acotarla. De ahí una primera definición de incertidumbre:

La incertidumbre de la medida es una cota superior del valor de la corrección residual.

El valor verdadero de un mensurando es el valor que mejor caracteriza dicho mensurando pero no tiene existencia física real. En la práctica es suficiente con aproximarse convenientemente al valor verdadero. El valor obtenido cuando se decide interrumpir la aplicación de sucesivas correcciones suele denominarse valor convencionalmente verdadero o valor resultante de la medida, el mejor valor que puede obtenerse con los medios disponibles. Se dará un nueva defición:

La incertidumbre de la medida es el valor de la semiamplitud de un intervalo alrededor del valor resultante de la medida (valor convencionalmente verdadero). Dicho intervalo representa una estimación adecuado de una zona de valores entre los cuales es "casi seguro" que se encuentre el valor verdadero del mensurando.

Así pues, el resultado de la medida se expresa mediante: x ± U

La defición de incertidumbre que incorpora el Vocabulario Internacional de Metrología (VIM):

La incertidumbre de medida es un parámetro, asociado al resultado de una medición, que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al mensurando.

Cuanto menor sea la incertidumbre de la medida, mejor ésta. El valor de la incertidumbre es el primer índice de la calidad de una medida, que es tanto mayor cuanto menor es aquella.

Intervalo de tolerancia e incertidumbre de medida

Las magnitudes significativas de los productos industriales, de los trabajos topográficos, de los trabajos cartográficos, de los proyectos de ortofotografías.... se especifican mediante tolerancias, que son los intervalos de los valores admisibles para la magnitud en cuestión en cada caso. Las tolerancias surgen en el diseño industrial de cualquier elemento, o en los pliegos de condiciones técnicas de los trabajos topográficos y cartográficos, determinando el rechazo o aceptación de los producidos con valores fuera del intervalo de tolerancia.

Desde el punto de vista de la producción industrial, la especificación mediante tolerancias es compatible con el principio de intercambiabilidad que constituye la base de la producción en serie. El diseño se efectúa de forma que las tolerancias especificadas aseguren la intercambiabilidad de elementos análogos en conjuntos más complejos sin alterar la funcionalidad de los mismos. Desde un planteamiento clásico, no es necesario que para ello se establezcan unos valores "exactos" para las magnitudes críticas, sino que es suficiente que dichos valores vengan obligados a pertenecer a un intervalo de tolerancia, de mayor o menor valor según la aplicación y el grado de responsabilidad correspondiente.

Tolerancia de una magnitud es el intervalo de valores en el que debe encontrarse dicha magnitud para que se acepte como válidad.

Cada vez que hay que decidir si el valor concreto de una magnitud está dentro de tolerancia, es preciso medir, y si la medida de comprobación no se asegura con la calidad necesaria (incertidumbre) aquella decisión puede ser errónea.

Cuando el intervalo de incertidumbre está contenido en el intervalo de tolerancia, se está en condiciones de afirmar, casi con seguridad, que el valor verdadero del mensurando es admisible. Cuando los intervalos de incertidumbre y de tolerancia son disjuntos, hay seguridad casi total en rechazar el mensurando. Cuando los intervalos de incertidumbre y de tolerancia se solapan en parte, es decir, cuando poseen una parte común y otra no común, la determinación de aceptación o rechazo es dudosa.

En la práctica se opta por un criterio de seguridad que consiste en rechazar cualquier mensurando en situación dudosa, lo que resulta adecuado siempre que el intervalo de incertidumbre sea varias veces inferior al de tolerancia. Esto equivale a definir como intervalo de decisión para los valores medidos el correspondiente a: T - 2U (tolerancia efectiva), limitando el valor del cociente de ambos intervalos (tolerancia e incertidumbre). En medidas dimensionales, suele ser frecuente considerar admisible:

3 ≤ T / 2U ≤ 10

En la relación anterior, valores mayores que diez exigirían medios de medida muy costosos, y la reducción del límite inferior por debajo de tres supondría un rechazo importante de elementos correctos.

Cuantificación de la incertidumbre. Relación entre incertidumbre y precisión.

Durante mucho tiempo se ha empleado la expresión "error de medida" para cuantificar la imperfección del método e instrumento de medida utilizados. Además, se clasificaban los errores en sistemáticos y aleatorios, determinando el error de medida como combinación lineal o cuadrática de ambos. Esta división no siempre resulta fácil de establecer, y a veces no es posible, debido a la escasa base conceptual que la soporta, lo que favoreció que proliferasen las "recetas" para calcular los límites máximos de error, con el grave inconveniente de no disponer de criterios uniformes para enjuiciar resultados de mediciones que, obtenidos con métodos e instrumentos análogos, eran efectuados por diferentes observadores.

En 1980 el Comité Internacional de Pesas y Medidas (CIPM) emitió las siguientes recomendaciones sobre la incertidumbre:

Dependiendo del método empleado para su determinación numérica, las componentes de la incertidumbre de medida pueden agruparse en dos categorías:

a) las que se estiman mediante procedimientos estadísticos sobre los valores obtenidos al reiterar medidas de un mensurando, a las que se propone denominar de tipo A.
b) las que se aprecian por otros métodos, a las que se denominan de tipo B.
Ambos tipos de componentes deben cuantificarse mediante varianzas o cantidades equivalentes, debiendo caracterizarse las situaciones de dependencia - en su caso - por las correspondientes covarianzas.

La incertidumbre así determinada, puede multiplicarse por un factor superior a la unidad, para obtener una incertidumbre total mayor, pero indicando siempre el valor de dicho factor.

Las razones que recomiendan el empleo de desviaciones típicas para cuantificar la incertidumbre frente a la utilización exclusiva de intervalos de confianza son:

La determinación de un intervalo de confianza presupone la aceptación de una función de distribución concreta que caracterice la población de resultados de medida.
La ley de propagación de varianzas permite, de forma muy simple e independientemente del carácter poblacional, obtener la incertidumbre en medidas indirectas, lo que no es posible, de forma general, si se emplean intervalos de confianza.
La propuesta del CIPM fue desechar la hipótesis de que todas las distribuciones de resultados de medida responden a una ley normal; trabajar siempre con desviaciones típicas o varianzas; y no identificar la incertidumbre con un intervalo de confianza, por las razones expuestas, sino directamente con la desviación típica resultante (u). La multiplicación de esta última por un factor de cobertura, inclusión o recubrimiento (k), habitualmente entre 2 y 3, y que debe especificarse siempre como parte del resultado de medida, permite obtener unos valores de incertidumbre expandida ( U ) "más seguros" para aplicaciones industriales, lo que determina:

U = k · u

Si se aplican todas las correcciones significativas a las indicaciones brutas, se percibe intuitivamente que el valor verdadero del mensurando debe encontrarse hacia el centro de las indicaciones corregidas, pero ante la dificultad de identificar alguno de estos valores como verdadero, se acepta como "mejor valor" del mensurando un índice o parámetro de la tendencia central del conjunto de aquellas indicaciones.

Con el objeto de decidir si el "mejor valor" está suficientemente próximo al verdadero puede emplearse algún indicador de la dispersión de los resultados. Cuanto menor sea dicha dispersión, más cerca se encuentran ambos valores, siempre que se mantengan similares condiciones de repetibilidad y se hayan aplicado análogas correciones. En este sentido aparece el término precisión, como un término asociado a la dispersión de las mediciones reiteradas. Más adelante veremos si la incertidumbre se puede asociar directamente también a la dispersión, y en ese caso precisión e incertidumbre serían los mismo, pero eso no será así...

Para caracterizar cualquier función de densidad se emplean parámentros que permiten comparar poblaciones con distintas funciones de densidad. Los parámetros más sencillos y utilizados son los de centrado y dispersión. Los parámetros de centrado proporcionan una primera idea sobre la posición de la función de densidad, estableciendo un valor próximo al "centro" de la misma. Los parámetros de dispersión informan del menor o mayor grado de variabilidad entre los elementos de la población (resultados de medida corregidos).

En metrología se adopta como parámetro de centrado la media ( µ ) y como parámetro de dispersión la desviación típica (σ) de la que se emplea su cuadrado con el nombre de varianza (σ2). En la práctica, al no conocerse la correspondiente función de densidad, la estadística nos proporciona unos valores aproximados, los estimadores, que pueden evaluarse a partir de cualquier muestra concreta de resultados de extensión n. Los estimadores, que se presentan por û, m para la media y s^, V para la varianza, pueden ser varios, pero en metrología se utilizan casi exlusivamente la media aritmética ( X ) y la varianza muestral (s 2).

û = m = X = 1 / n ∑i=1n Xi

V = s 2 = 1 / (n-1) ∑i=1n ( Xi - X)2

En un primer análisis, cabría pensar que el resultado de las medidas pudiera reflejarse mediante:

m ± s

Dado que la reiteración de valores se está efectuando en condiciones de repetibilidad y después de haber introducido todas las correcciones significativas que pueden evaluarse. Por consiguiente, la media aritmética es el mejor valor corregido y debería adoptarse como valor resultante de la medición en todas las áreas de la metrología, se acepta que el valor resultante de las medidas, valor convencionalmente verdadero, es la media aritmética de las indicaciones corregidas.

Asímismo, cabría pensar en cuantificar la incertidumbre del resultado mediante el parámetro de dispersión indicado, la desviación típica muestral s, pero eso resultaría inapropiado por diferentes razones.

En primer lugar, s es un estimador de la dispersión de la población de medidas reiteradas en condiciones de repetibilidad. Cada una de las medidas obtenidas es un elemento de dicha población, pero el resultado atribuido al mensurando como consecuencia de dicha medición no es uno de aquellos sino la media artimética ( X ) que podría, incluso, no coincidir con ninguno de los elementos de la media poblacional. No parece correcto asignar un parámetro de dispersión al valor resultante ( X ) que en realidad se refiere a la dispersión de otra población ( X ).

Si se analiza la cuestión con auxilio de la estadística, siguiendo las leyes de propagación de varianzas-covarianzas, la aprente dificultad se resuelve sin dificultad. En realidad, el estimador media aritmética X es otra variable aleatoria, distinta de la que representa la población considerada pero relacionada con ella. Es sencillo deducir que las varianzas de ambas varables satisfacen la expresión siguiente:

σ2 x = σ2 / n

Si se trabaja con estimadores la relación resulta:

sx = s / √ n

s es un mal estimador de σ cuando n es pequeño. La primera recomendación es procurar calcular s mediante un número apreciable de reiteraciones.

Conclusiones

Tras la exposición realizada sobre la incertidumbre se puede decir que su diferencia con respecto al término precisión radica en que son términos que se refieren a conceptos distintos. Por un lado esta la incertidumbre referida a un intervalo dentro del cual estará el valor verdadero, acotando las correcciones residuales. Siendo en este último matiz donde reside la diferencia entre los términos, ya que la incertidumbre también da un idea de la dispersión de las medidas, al igual que el término de la precisión cuando se asocia directamente con la varianza muestral. Digamos que el término incertidumbre tiene un significado mucho mayor, mientras que precisión se reduce sólo a una parte, a una forma de cuantificar la incertidumbre. Por otro lado, podemos referirnos al término precisión como al grado de agrupación o por contra dispersión que tienen nuestras observaciones, lo cual no tiene porqué coincidir con la exactitud, entendida esta última como proximidad al valor real.

La diferencia entre tolerancia e incertidumbre es mucha más clara tal y como se ha expresado . La tolerancia siempre será un intervalo marcado por los pliegos de condiciones dentro del cual deben encontrarse las medidas corregidas junto a su incertidumbre asociada.

Finalmente, remarcar los nuevos conceptos sobre los componentes de la incertidumbre donde se desecha la teoría clásica de errores sistemáticos y aleatorios.



En Equipos y Laboratorio de Colombia estamos listos para asesorarle.

Redes sociales
Síguenos en Linkedin Llámanos en este momento para atenderlo. Instagram Conversemos aquí Síguenos en Facebook

Contáctenos
Teléfono(57)+604 4480388

Titulo..

Mensaje..

×