Calibración de transmisores de presión

Calibración de transmisores de presión

Debido a influencias mecánicas, químicas o térmicas, la precisión de un dispositivo de medición cambia con el transcurso del tiempo. Este proceso de envejecimiento es normal y no puede pasarse por alto. Por tanto, es fundamental reconocer estas alteraciones a tiempo mediante la calibración.

La calibración de los manómetros es importante por varias razones. Por un lado, se trata de la adherencia a estándares establecidos como ISO 9001, por mencionar solo uno. Los fabricantes, por otro lado, también obtienen ventajas muy específicas, como mejoras en los procesos y ahorros de costes (al utilizar las cantidades correctas de materias primas, por ejemplo). Esto puede resultar muy valioso, ya que un estudio realizado por Nielsen Research Company en 2008 muestra que los costos de la calibración defectuosa para las empresas productoras promedian 1,7 millones de dólares por año. Además, la calibración también debe considerarse como un componente central del aseguramiento de la calidad. En algunos sectores, como la industria química, las calibraciones consistentes y sin errores también son un factor relevante para la seguridad.

Definición: Calibración, ajuste y verificación

The terms calibration, adjustment and verification are often used synonymously. All three terms, however, contain significant differences. In the case of calibration, the display of the measuring instrument to be tested is compared to the results from a standard. The standard here is a reference device, the precise function of which remains assured. Using comparative measurements, each measuring device must be capable of being traced back to a national standard through a chain of comparative measurements (“traceability”). For the primary standards, meaning those at the very top of the calibration hierarchy, deadweight testers are generally used for pressure gauges (as are piston manometers), which are employed in national institutes and calibration laboratories.

Durante el ajuste (también denominado alineación), tiene lugar una intervención en el dispositivo de medición para minimizar los errores de medición. La intención aquí es corregir las inexactitudes que surgen del envejecimiento. Por lo tanto, el ajuste precede generalmente a una calibración y aquí se realiza una intervención directa en el dispositivo de medición. Por tanto, también se lleva a cabo una calibración adicional después de un ajuste para verificar y documentar esa corrección.

La verificación implica una forma especial de calibración. Siempre se aplica cuando el dispositivo a probar está sujeto a controles legales. Este es siempre el caso cuando la precisión de la medición es de interés público. También es siempre el caso cuando los resultados medidos tienen una influencia directa en el precio de un producto. Un ejemplo aquí serían los caudalímetros instalados en las estaciones de servicio. En Alemania, la validación es el área de responsabilidad de la Oficina Nacional de Pesas y Medidas y los centros de prueba aprobados por el estado.

La calibración de manómetros: requisitos

Antes de la calibración, primero debe determinarse la capacidad de calibración real del dispositivo de medición. El Servicio de Calibración Alemán (DKD) ha publicado la directiva DKD-R 6-1 para la calibración de manómetros. Al calibrar manómetros mecánicos, el DKD estipula una serie de pruebas, que se dividen en pruebas de apariencia (incluida la inspección visual de daños, contaminación y limpieza, inspección visual del etiquetado) y pruebas funcionales (integridad del sistema de línea del dispositivo calibrado, funcionalidad eléctrica , funcionamiento impecable de los elementos de control).

En el siguiente capítulo de la directiva DKD-R 6-1, el DKD señala las condiciones ambientales para la calibración, donde la calibración debe realizarse a una temperatura ambiental estable. Además, sería ideal si se llevara a cabo en las condiciones reales de funcionamiento del propio instrumento de medición.

La calibración de manómetros: procedimiento

Una vez que se determina la capacidad de calibración y las condiciones ambientales son ideales, puede comenzar la calibración real. El manómetro debe calibrarse aquí preferiblemente como un todo (cadena de medición), teniendo en cuenta también la posición de montaje prescrita.

En la directiva DKD-R 6-1 de DKD, se describen diferentes ciclos de calibración para diferentes clases de precisión. En este punto, nos limitaremos al ciclo de calibración A para la clase de precisión de <0.1 . Este ciclo de calibración también resulta ser el más extenso.

Secuencias de calibración según la directiva DKD-R 6-1

Al calibrar dispositivos de clase de precisión A, el DKD estipula tres cargas hasta el rango de medición completo antes de que se lleven a cabo las secuencias de medición reales. En cada caso, la presión máxima debe mantenerse durante 30 segundos antes de liberarse por completo.

A continuación, se deben alcanzar nueve puntos distribuidos uniformemente en el rango de medición mediante un aumento continuo de la presión. El punto cero se considera aquí el primer punto de medición. Los puntos de medición de destino deben alcanzarse “desde abajo”. Como resultado, el aumento de presión solo se puede realizar lentamente. Si se sobrepasa un punto objetivo, la histéresis resultante conduce a una falsificación de los resultados. En este caso, la presión debe reducirse drásticamente para llegar desde debajo del punto de medición a alcanzar. Una vez que se alcanza el valor, esto también debe mantenerse durante al menos 30 segundos antes de que se lea realmente.

Este proceso se repite luego para todos los puntos de medición restantes. Pero el último punto tiene una peculiaridad, ya que se mantiene durante dos minutos más y luego se lee de nuevo y se documenta.

Una vez completada, puede comenzar la segunda etapa de la primera secuencia. Esto ahora ocurre a la inversa, donde los puntos de medición individuales se alcanzan de arriba a abajo. La presión debe reducirse solo lentamente aquí para que esta vez no se supere el valor objetivo. Esta segunda secuencia de medición termina con una lectura en el punto cero.

La segunda secuencia de medición puede comenzar después de que el medidor haya estado en un estado sin presión durante tres minutos. Ahora se repite el ciclo de subir y bajar la presión sobre los puntos de medición individuales.

Secuencia de calibración A según la directiva DKD-R 6-1

Calibración interna de transmisores de presión

En la mayoría de las aplicaciones industriales, la calibración por un laboratorio especializado no es necesaria y, a menudo, tampoco es práctica. Para la calibración de manómetros in situ, serían adecuados los calibradores de presión portátiles. Estos no son tan precisos como un probador de peso muerto, pero por regla general son completamente suficientes. En estos dispositivos portátiles, se combinan los estándares de trabajo y la generación de presión. Al calibrar un transmisor de presión, se realiza una calibración de punto cero con las válvulas abiertas, una vez establecidas las conexiones de presión y eléctricas entre el transmisor y el instrumento de prueba. Los puntos de prueba de presión individuales se pueden controlar con la bomba integrada. Las señales eléctricas resultantes se miden y almacenan a través de registradores de datos integrados, donde estos datos se pueden leer en una PC.

La estabilidad a largo plazo de los sensores de presión

La estabilidad a largo plazo de los sensores de presión

Factores como la temperatura y la tensión mecánica pueden tener efectos negativos sobre la estabilidad a largo plazo de los sensores de presión. Sin embargo, los efectos pueden minimizarse mediante pruebas diligentes durante la producción.

Los fabricantes suelen indicar la estabilidad a largo plazo de sus sensores de presión en hojas de datos. El valor dado en estas hojas de datos se determina en condiciones de laboratorio y se refiere al cambio máximo esperado de punto cero y rango de salida en el transcurso de un año. Por ejemplo, una estabilidad a largo plazo de <0,1% FS significa que el error total de un sensor de presión puede deteriorarse en un 0,1 por ciento de la escala total en el transcurso de un año.

Los sensores de presión suelen tardar un tiempo en “asentarse”. Como ya se mencionó, el punto cero y la sensibilidad (señal de salida) son los principales factores que se mencionarán aquí. Los usuarios suelen notar cambios en el punto cero, ya que son fáciles de reconocer y ajustar.

¿Cómo se puede optimizar la estabilidad a largo plazo?

Para lograr la mejor estabilidad posible a largo plazo, lo que significa que solo se producen cambios menores durante la vida útil del producto, el elemento central debe ser el correcto: el chip sensor. Un sensor de presión de alta calidad es la mejor garantía para una funcionalidad óptima a largo plazo. En el caso de los sensores de presión piezorresistivos, este es el chip de silicio sobre el que se difunde el puente de Wheatstone. La base de un sensor de presión estable ya está puesta al comienzo del proceso de producción. Por lo tanto, una calificación diligente del chip de silicio es fundamental para la producción de sensores de presión con una gran estabilidad a largo plazo.

El montaje del sensor también es decisivo. El chip de silicio está pegado a una carcasa. Debido a los efectos de la temperatura y otras influencias, el chip pegado puede moverse y, por lo tanto, también afectar la tensión mecánica ejercida sobre el chip de silicio. La consecuencia son resultados de medición cada vez más inexactos.

La práctica ha demostrado que un sensor nuevo necesita algo de tiempo para estabilizarse realmente, especialmente durante el primer año. Cuanto más antiguo es un sensor, más estable es. Con el fin de mantener al mínimo los desarrollos no deseados y poder evaluar mejor el sensor, se envejece y se somete a algunas pruebas antes de que salga de producción.

La forma en que se hace esto varía de un fabricante a otro. Para estabilizar los nuevos sensores de presión, STS los trata térmicamente durante más de una semana. El “movimiento”, que suele ocurrir en el sensor durante el primer año, se anticipa en gran medida. Por tanto, el tratamiento térmico es una forma de envejecimiento artificial.

Imagen 1: Tratamiento térmico de celdas de medición de presión piezorresistivas

El sensor se somete a más pruebas para caracterizarlo. Esto incluye evaluar el comportamiento del sensor individual a varias temperaturas, así como un tratamiento de presión en el que el dispositivo está expuesto a la sobrepresión deseada durante un período de tiempo más largo. Estas medidas sirven para caracterizar cada sensor individual. Esto es necesario para poder hacer declaraciones fiables sobre el comportamiento del instrumento de medida a diferentes temperaturas ambientales ( compensación de temperatura ).

Por tanto, la estabilidad a largo plazo depende en gran medida de la calidad de la producción. Por supuesto, las calibraciones y los ajustes regulares pueden ayudar a corregir cualquier cambio. Sin embargo, esto no debería ser necesario en la mayoría de las aplicaciones: los sensores producidos correctamente funcionarán de manera realista durante mucho tiempo.

¿Qué importancia tiene la estabilidad a largo plazo?

La relevancia de la estabilidad a largo plazo depende de la aplicación. Sin embargo, es ciertamente de mayor importancia en el rango de baja presión. Por un lado, esto se debe al hecho de que las influencias externas tienen un efecto más fuerte en la señal. Pequeños cambios en la tensión mecánica del chip tienen un mayor efecto en la precisión de los resultados de la medición. Además, los sensores de presión producidos para aplicaciones de baja presión se basan en un chip de silicio cuyo grosor de membrana suele ser inferior a 10 μm. Por lo tanto, se requiere un cuidado especial aquí durante el montaje.

Imagen 2: Vista detallada de un chip de silicona bondend y pegado

A pesar de todos los cuidados, una estabilidad a largo plazo infinita y también una precisión es físicamente imposible. Factores como la histéresis de presión y la histéresis de temperatura no se pueden eliminar por completo. Son, por así decirlo, las características de un sensor. Los usuarios pueden planificar en consecuencia. Para aplicaciones de alta precisión, por ejemplo, la histéresis de presión y temperatura no debe exceder el 0.02 por ciento de la escala total.

También debe mencionarse que las leyes de la física imponen ciertos límites a la estabilidad a largo plazo de un sensor. Es de esperar desgaste en aplicaciones particularmente exigentes, como aplicaciones con altas temperaturas fluctuantes. Las altas temperaturas constantes superiores a 150 ° C eventualmente destruyen el sensor: la capa de metal, que sirve para contactar las resistencias del puente de Wheatstone, se difunde en el silicio y literalmente desaparece.

Por lo tanto, los usuarios que utilicen mediciones de presión en condiciones tan extremas o que exijan el más alto nivel de precisión deben analizar detenidamente las opciones con los fabricantes de antemano.

La posición puede influir en la precisión de los transmisores de presión

La posición puede influir en la precisión de los transmisores de presión

La precisión de una medición de presión definitivamente puede verse influenciada por la posición del transmisor de presión. Se debe prestar especial atención a esto en el rango de baja presión.

En lo que respecta a la dependencia de la posición, pueden producirse inexactitudes si la posición del transmisor de presión difiere en la práctica de la utilizada durante el proceso de calibración en el fabricante. En STS, la norma es que los transmisores de presión se calibren en una posición vertical apuntando hacia abajo (vea la imagen adjunta arriba). Si los usuarios ahora montan uno de estos sensores de presión calibrados en la posición opuesta, es decir, apuntando verticalmente hacia arriba, pueden producirse imprecisiones durante la medición de la presión.

La razón de esto es simple. En la última posición, el peso real del transmisor de presión influirá en su precisión . La membrana, el cuerpo de llenado y el fluido de transmisión actúan sobre el chip sensor real debido a la fuerza gravitacional de la tierra. Este comportamiento es común a todos los sensores de presión piezorresistivos , pero solo tiene importancia en el rango de baja presión.

Instalación de transmisores de presión: precaución en los rangos de presión más bajos

Cuanto menor sea la presión a medir, mayor será en este caso el error de medición. Con un sensor de 100 mbar, el error de medición asciende al uno por ciento. Cuanto mayor sea el rango de medición, menor será el efecto. A partir de una presión de 1 bar, este error se vuelve prácticamente insignificante.

Los usuarios pueden detectar fácilmente esta inexactitud de medición, especialmente cuando se utiliza un sensor de presión relativa. Si los usuarios están trabajando en el rango de baja presión y no es posible montar el instrumento de medición en la posición en la que fue calibrado de fábrica, debe recalibrarse en su posición real. Alternativamente, los usuarios también pueden compensar el error de medición ellos mismos numéricamente en la unidad de control.

Este esfuerzo adicional, por supuesto, puede evitarse fácilmente mediante un asesoramiento de aplicación competente. Aunque los transmisores de presión STS se calibran verticalmente hacia abajo como estándar, es fácilmente posible realizar la calibración en una posición diferente. Nuestro consejo es que nos comunique con anticipación la posición de montaje de su transmisor de presión y luego recibirá un instrumento de medición perfectamente adaptado a su aplicación.

¡Estaremos encantados de asesorarle!

¿Error total o precisión?

¿Error total o precisión?

El tema de la precisión suele ser la consideración principal para los usuarios finales al comprar un transmisor de presión. Se trata de una variedad de terminología relevante para la precisión, que ya hemos explicado aquí . La precisión, sin embargo, es solo un aspecto parcial de otro concepto, el error total, que también aparece en las hojas de datos de los transmisores de presión. A continuación, explicaremos cómo debe entenderse esta designación en las hojas de datos y qué papel debe desempeñar en la selección del sensor de presión adecuado.

En primer lugar, se puede afirmar que la precisión no proporciona información sobre el error total. Esto depende de varios factores, como en qué condiciones se utiliza realmente el sensor de presión. Podemos ver en la Figura 1 los tres aspectos en los que se compone el error total: Errores ajustables, precisión y efectos térmicos.

Figura 1: Orígenes del error total

Como vemos en la ilustración anterior, el aspecto parcial del error ajustable consiste en el punto cero y los errores de tramo. La designación ‘error ajustable’ resulta del hecho de que los errores de punto cero y de tramo pueden identificarse y ajustarse fácilmente. Por lo tanto, estos son errores con los que los usuarios no necesitan vivir y, de hecho, ambos ya se han corregido de fábrica en sensores de presión de fabricación STS.

La estabilidad a largo plazo, también conocida como error a largo plazo o deriva a largo plazo, es la causa de los errores de punto cero y rango durante la operación. Esto significa que estos dos errores ajustables pueden reaparecer o incluso “empeorar” después de un uso prolongado del sensor. Por medio de la calibración y el ajuste posterior, esta deriva a largo plazo se puede corregir nuevamente. Lea más sobre calibración y ajuste aquí.

Exactitud

El aspecto parcial de la precisión también aparece en las hojas de datos bajo el término “desviación de la curva característica”. Esta falta de claridad conceptual se reduce al hecho de que el término “precisión” en sí mismo no está sujeto a ningún estándar definido por ley.

El término abarca los errores de no linealidad, histéresis (presión) y no repetibilidad (ver Figura 2). La no repetibilidad describe las desviaciones observadas cuando se aplica una presión varias veces consecutivas. La histéresis se refiere al hecho de que las señales de salida pueden diferir exactamente a la misma presión cuando se aborda desde una dirección “ascendente” y “descendente”. Ambos factores, sin embargo, son muy menores en los transductores de presión piezorresistivos.

La mayor influencia en la precisión y, por tanto, también en el error total, se reduce a la no linealidad. Esta es la mayor desviación positiva o negativa de la curva característica de una línea de referencia a presión creciente y decreciente. Lea más sobre la terminología aquí.

Figura 2: La mayor diferencia en la curva característica cuando la presión a medir se aproxima varias veces se denomina no linealidad.

Efectos térmicos

Las fluctuaciones de temperatura influyen en los valores medidos de un sensor de presión. También hay un efecto conocido como histéresis de temperatura. En general, la histéresis describe la desviación de un sistema cuando el mismo punto de medición se aproxima desde direcciones opuestas. En el caso de la histéresis de temperatura, esta histéresis describe la diferencia (error) de la señal de salida a una cierta temperatura cuando esa temperatura específica se acerca desde una temperatura más baja o más alta. En STS, esto generalmente se enumera a 25 ° C.

Puede encontrar más información sobre las características térmicas de los transductores de presión piezorresistivos aquí.

Figura 3: La apariencia típica de efectos térmicos en transmisores de presión.

¿Error total o precisión?

La pregunta importante que surge de estos diversos aspectos, por supuesto, es a qué deben prestar más atención los usuarios en la selección de sensores. Esto variará según el caso. Dado que el aspecto de los errores ajustables ya se ha corregido en la fábrica, esto juega solo un papel secundario. En este caso, el sensor, en general, debería recalibrarse y ajustarse después de un año de uso.

Al comprar un nuevo sensor, los aspectos duales de precisión y efectos térmicos ahora se vuelven decisivos. La pregunta clave en este contexto es: “¿Realizo mis mediciones de presión en condiciones controladas?” Esto significa que cuando los usuarios realizan sus mediciones cerca de la temperatura de referencia durante la calibración (típicamente 25 ° C), los efectos térmicos esencialmente pueden ignorarse. Sin embargo, la designación del error total se vuelve importante cuando la medición de presión se realiza en un amplio rango de temperaturas.

Por último, veremos una hoja de datos en el transmisor de presión piezorresistivo ATM.1st de STS (Figura 4):

Figura 4: Extracto de una hoja de datos (ATM.1st)

Las especificaciones técnicas del ATM.1st muestran tanto la precisión como el error total, donde las entradas de precisión se desglosan en sus respectivos rangos de presión. Los valores dados se derivan de la no linealidad, histéresis y no repetibilidad a temperatura ambiente. Los usuarios que deseen realizar mediciones en condiciones de temperatura controlada (temperatura ambiente) pueden orientarse hacia estos valores de precisión especificados.

El error total representado en la hoja de datos, por otro lado, incluye efectos térmicos. Además, el error total se complementa con las entradas de “típ.” y “máx.”. El primero de ellos describe el error total típico. No todos los sensores de presión son absolutamente idénticos y su precisión puede variar ligeramente. La precisión de los sensores corresponde a la distribución normal gaussiana. Esto significa que el 90% de los valores medidos en todo el rango de presión y temperatura de un sensor corresponden al valor designado en el error total típico. A esos valores medidos restantes se les atribuye el error total máximo.  

Descarga nuestra infografía gratuita sobre el tema: 

Suscríbete a nuestro boletín

Suscribase a nuestra lista de correo para recibir las últimas noticias y actualizaciones de nuestro equipo.

¡Te has suscripto satisfactoriamente!