Your browser is no longer supported.
Unfortunately, Internet Explorer is not compatible with this website.

Please update to a more modern browser, such as:

microsoft edge

Microsoft Edge

google chrome

Google Chrome

firefox

Firefox

opera

Opera

Carro de consulta de producto

Producto / s que estoy interesado

Actualmente no tiene productos en su carrito de consultas, continúe navegando y seleccione más productos.

Consigue una cotización

Continuar navegando

Base de conocimientos >

Calibración frente a mediciones de caída en probadores de fugas por caída de presión

3 min de lectura

Base de conocimientos >

Calibración frente a mediciones de caída en probadores de fugas por caída de presión

Se ha planteado la cuestión de la relación entre «calibración» (precisión del comprobador de fugas de caída de presión) y «resolución» (capacidad del comprobador para detectar una diferencia de presión – «caída» – que se produce durante la prueba de fugas). , existe confusión con respecto a cómo la “resolución” del sistema de prueba de fugas puede ser de 0,0001 psi, aunque la precisión de la “calibración” (precisión) del instrumento puede ser significativamente mayor, como +/- 0,075 psi. La respuesta a la pregunta radica en la definición de estos dos parámetros de los probadores de fugas por caída de presión y la comprensión de lo que sucede durante una prueba de fugas por caída de presión.

La determinación de fugas en un dispositivo mediante el método de «caída de presión» implica presurizar el
dispositivo a una presión predeterminada, bloqueando la fuente de suministro de la presión y detectando un cambio de presión («caída») durante un tiempo de prueba predeterminado. Los instrumentos modernos de medición de caída de presión, como el probador de fugas de solución electrónica TM, son capaces de detectar cambios de presión tan pequeños como 0,0001 psi. Esta capacidad de detectar cambios de presión durante el tiempo de prueba se define como la «resolución» del instrumento. Esto no está relacionado con la presión de inicio de la prueba (excepto por la circunstancia especial en la que se utiliza la tasa de fuga especificada como criterio de prueba). Para obtener información más detallada sobre cómo el instrumento de prueba detecta este cambio de presión, por qué la resolución está limitada por factores externos y ambientales, y los
física de la prueba de fugas por caída de presión, consulte el Apéndice A a continuación.

La calibración, por otro lado, se refiere a la precisión de la reproducción del probador de fugas de la presión de prueba deseada para la prueba de fugas. Por ejemplo, si está realizando una prueba de fugas por caída de presión usando 50 psi como presión de prueba, la calibración precisa asegura que su instrumento de prueba reproducirá consistentemente esa presión de prueba, en un conjunto específico de unidades de medida, en un conjunto estándar de condiciones, cada vez que realiza una prueba, dentro de un rango de variación definido por la precisión del instrumento. Los instrumentos de prueba de fugas de TM Electronics se calibran con referencia a un medidor «estándar» conocido, controlado por un organismo de estándares como el Instituto Nacional de Tecnología de Estándares (NIST).

En resumen, la resolución del sistema de prueba de fugas se define por la diferencia de presión más pequeña (caída) que el instrumento puede detectar constantemente durante un tiempo de prueba predeterminado, independientemente de la presión inicial de la prueba de fugas. La calibración del instrumento se define como la precisión de la presión de prueba aplicada al comienzo de la prueba de fugas. A todos los efectos prácticos, estos dos elementos no están relacionados, sino que son características totalmente independientes del instrumento de prueba de fugas.

APÉNDICE A: Discusión
La determinación de fugas en un dispositivo mediante el método de «caída de presión» implica presurizar el dispositivo a una presión predeterminada (generalmente en psi, manómetro, psig), bloquear la fuente de suministro de la presión y esperar un período de tiempo para detectar una presión cambiar. La capacidad de detectar el cambio de presión está determinada por la «resolución» del instrumento de prueba, que es el dígito de medición menos significativo del instrumento. La resolución de un medidor de caída de presión electrónico moderno es una función de la amplificación del sistema electrónico del transductor de presión básico (el dispositivo que convierte la presión en una señal electrónica), la conversión del voltaje electrónico (o corriente) en una señal digital, la software de entrada / salida, así como el software básico
física de las leyes de los gases relacionadas con la temperatura y la estabilidad mecánica del sistema.

Los instrumentos modernos de medición de caída de presión tienen habitualmente la capacidad de crear resoluciones de presión de hasta 0,0001 psi [0 .01mbar], sin embargo, a pesar de que se pueden lograr resoluciones electrónicas mayores, la física del cambio real de presión relacionado con factores externos, como el cambio de volumen mecánico cuando se aplica una carga a un dispositivo, o cambios de temperatura adiabáticos en ciclos de prueba cortos, o cambios de temperatura ambiental en Los tiempos de prueba más largos, y el régimen de flujo laminar o turbulento limitan la realidad de las mediciones repetibles y fiables.
La ley general de los gases PV = nRT indica que tanto el volumen como la temperatura son un factor en la medición.

Cuando se introduce el tiempo, la tasa de fuga de volumen [Q] se puede calcular relacionando el cambio de presión[dP] a un cambio de hora[dt] . La ecuación de la ley de los gases se puede reducir a
Q = dP / Pa * V / dt

Las unidades de medida elegidas determinarán entonces la salida de tasa de fuga apropiada [sccm,
sccs, Pa-m3 / seg].

A partir de esta ecuación, se observa que la medida variable para determinar una tasa de fuga es la capacidad de medir la diferencia de presión en un tiempo fijo. Se supone que el volumen del sistema y la presión de conciliación con las condiciones estándar son constantes durante el tiempo de prueba. Dado que dP es una diferencia de presión inicial y final, la determinación de la tasa de fuga real es una función de la capacidad del instrumento de prueba para diferenciar pequeños cambios de la señal eléctrica, pero no necesariamente el valor absoluto de la señal. El valor absoluto de la señal es función de la salida del transductor de presión por unidad de presión, por ejemplo, 1 voltio / psi. La presión real que se mide es parte de la especificación del transductor y es «Calibración» para un estándar de presión conocido. La mayoría de los transductores tienen una salida de voltaje relacionada con su rango máximo, por ejemplo, 10 voltios / 10 psi (presión manométrica o presión absoluta).

La «calibración» del transductor principal de un instrumento está relacionada con un calibre «estándar» conocido. Estos calibres o medidas comparativas están controlados por un organismo de estándares, como el Instituto Nacional de Tecnología de Estándares (NIST). La calibración de un instrumento luego se relaciona con la capacidad de un instrumento para reproducir una presión conocida en un conjunto específico de unidades de medida relacionadas con un estándar conocido en un conjunto estándar de condiciones.

La capacidad de determinar una tasa de fuga determinada depende de muchos factores. En el instrumento de caída de presión, la resolución de la «diferencia de presión» es el factor principal. Dado que la medición de la diferencia de presión es una combinación del voltaje de salida del transductor y su capacidad para reproducir este valor y la electrónica de la capacidad del instrumento para reproducir consistentemente la señal, entonces están en juego una serie de errores sistemáticos y aleatorios. Por esta razón, generalmente se realiza un estudio R&R de calibre en el instrumento y el sistema de prueba al que está conectado.

El estudio R&R del medidor se realiza mejor en relación con el sistema de prueba real que se está utilizando para probar el instrumento. El estudio de manómetro típico se realiza con un dispositivo de fuga conocido o predecible, como un orificio o una válvula microajustable que puede usarse para desafiar todo el sistema de prueba. El llamado «estándar de fuga» se define por su presión de funcionamiento y su valor de flujo medido de una fuente estándar. Cuando se aplica a un sistema de prueba de fugas compuesto por el instrumento, los tubos de conexión y los accesorios y la parte de prueba que no tiene fugas conocida, la fuga estándar se puede medir repetidamente para identificar la variación del sistema. La «precisión» del sistema se puede entonces determinar estadísticamente para que se puedan establecer los estándares de rendimiento para el
método de prueba aplicado. Se deben aplicar buenos procedimientos de validación de métodos de prueba para incluir la variación entre operadores y la variación ambiental. Si varios laboratorios realizarán la prueba, entonces un protocolo de prueba de reproducibilidad entre laboratorios proporcionará esa variación.

Por lo tanto, «calibración» y «precisión»[repeatability] de una tasa de fuga o un cambio de presión se consideran dos medidas separadas y distintas en la medición de la prueba de fugas por caída de presión. La calibración se refiere a la capacidad de un instrumento para leer una presión conocida relacionada con un estándar.
la medida. La reproducción de una tasa de fuga conocida o estimada depende de la física del medio y la estructura del sistema, incluida la parte de prueba. La capacidad de reproducir consistentemente una fuga dada es una función de la precisión del sistema basada en el instrumento y otras partes de
el sistema.