Your browser is no longer supported.
Unfortunately, Internet Explorer is not compatible with this website.

Please update to a more modern browser, such as:

microsoft edge

Microsoft Edge

google chrome

Google Chrome

firefox

Firefox

opera

Opera

Produktanfrage Warenkorb

Produkte, für die ich mich interessiere

Sie haben derzeit keine Produkte in Ihrem Anfragekorb, bitte stöbern Sie weiter und wählen Sie weitere Produkte aus.

Ein Angebot bekommen

Weiter stöbern

Wissensbasis >

Kalibrierung Vs-Abfall-Messungen in Druckabfall-Lecktestgeräten

3 Minuten lesen

Wissensbasis >

Kalibrierung Vs-Abfall-Messungen in Druckabfall-Lecktestgeräten

Es wurde die Frage nach der Beziehung zwischen „Kalibrierung“ (Genauigkeit des Druckabfall-Leckprüfgeräts) und „Auflösung“ (Fähigkeit des Prüfgeräts, eine Druckdifferenz – „Abfall“ – zu erkennen, die während der Dichtheitsprüfung auftritt, aufgeworfen.) Konkret , besteht Verwirrung darüber, wie die „Auflösung“ des Dichtheitsprüfsystems 0,0001 psi betragen kann, obwohl die Genauigkeit der „Kalibrierung“ (Genauigkeit) des Instruments deutlich höher sein kann, beispielsweise +/- 0,075 psi. Die Antwort auf diese Frage liegt in der Definition dieser beiden Parameter von Druckabfall-Leckprüfgeräten und dem Verständnis dessen, was während einer Druckabfall-Leckprüfung passiert.

Bei der Bestimmung von Lecks in einem Gerät mit der Methode „Druckabfall“ wird der
auf einen vorbestimmten Druck, Sperren der Druckversorgungsquelle und Erfassen einer Druckänderung („Abfall“) während einer vorbestimmten Testzeit. Moderne Druckabfallmessgeräte wie der TM Electronics Solution Leak Tester sind in der Lage, Druckänderungen von nur 0,0001 psi zu erkennen. Diese Fähigkeit, Druckänderungen während der Testzeit zu erkennen, wird als „Auflösung“ des Instruments definiert. Dies hat nichts mit dem Anfangsdruck der Prüfung zu tun (mit Ausnahme des besonderen Umstands, in dem die angegebene Leckrate als Prüfkriterium verwendet wird). Ausführlichere Informationen darüber, wie das Prüfgerät diese Druckänderung erkennt, warum die Auflösung durch externe und Umgebungsfaktoren begrenzt ist und die grundlegenden
Physik des Druckabfall-Lecktests, siehe Anhang A unten.

Die Kalibrierung hingegen bezieht sich auf die Genauigkeit der Wiedergabe des gewünschten Prüfdrucks durch das Dichtheitsprüfgerät für die Dichtheitsprüfung. Wenn Sie beispielsweise einen Druckabfall-Lecktest mit 50 psi als Prüfdruck durchführen, stellt die genaue Kalibrierung sicher, dass Ihr Prüfgerät diesen Prüfdruck in bestimmten Maßeinheiten und unter Standardbedingungen konsistent reproduziert. bei jedem Test innerhalb eines durch die Gerätegenauigkeit definierten Schwankungsbereichs. Die Dichtheitsprüfgeräte von TM Electronics werden mit Bezug auf ein bekanntes „Standard“-Messgerät kalibriert, das von einer Normungsorganisation wie dem National Institute of Standards Technology (NIST) kontrolliert wird.

Zusammenfassend lässt sich sagen, dass die Auflösung des Dichtheitsprüfsystems durch die kleinste Druckdifferenz (Abfall) definiert wird, die das Gerät während einer vorgegebenen Prüfzeit unabhängig vom Anfangsdruck der Dichtheitsprüfung konstant erfassen kann. Die Kalibrierung des Gerätes ist definiert als die Genauigkeit des zu Beginn der Dichtheitsprüfung angelegten Prüfdrucks. Für alle praktischen Zwecke sind diese beiden Punkte nicht miteinander verbunden, sondern völlig unterschiedliche Eigenschaften des Dichtheitsprüfgeräts.

ANHANG A: Diskussion
Die Bestimmung von Lecks in einem Gerät mit der „Druckabfall“-Methode umfasst das Beaufschlagen des Geräts auf einen vorbestimmten Druck (normalerweise in psi, Manometer, psig), das Absperren der Druckversorgungsquelle und das Warten einer gewissen Zeit, um einen Druck zu messen Veränderung. Die Fähigkeit, die Druckänderung zu erkennen, wird durch die „Auflösung“ des Prüfgeräts bestimmt, dh durch die niedrigstwertige Messstelle des Messgeräts. Die Auflösung eines modernen elektronischen Druckabfallprüfgeräts hängt von der Verstärkung des elektronischen Systems des Basis-Druckaufnehmers (dem Gerät, das Druck in ein elektronisches Signal umwandelt), der Umwandlung der elektronischen Spannung (oder des Stroms) in ein digitales Signal, der Ein-/Ausgabe-Software, sowie die Basis
Physik der Gasgesetze in Bezug auf Temperatur und mechanische Stabilität des Systems.

Moderne Druckabfallmessgeräte haben routinemäßig die Fähigkeit, Druckauflösungen bis 0,0001 psi . zu erzeugen [0 .01mbar], obwohl höhere elektronische Auflösungen möglich sind, die Physik der tatsächlichen Druckänderung in Bezug auf externe Faktoren wie mechanische Volumenänderung bei Belastung eines Geräts oder adiabatische Temperaturänderungen in kurzen Testzyklen oder Umgebungstemperaturänderungen in längere Testzeiten und das laminare oder turbulente Strömungsregime begrenzen die Realität wiederholbarer und zuverlässiger Messungen.
Das allgemeine Gasgesetz PV= nRT besagt, dass sowohl Volumen als auch Temperatur bei der Messung eine Rolle spielen.

Wenn die Zeit eingeführt wird, kann die Volumenleckrate [Q] berechnet werden, indem die Druckänderung in Beziehung gesetzt wird[dP] zu einer Zeitumstellung[dt] . Die Gasgesetzgleichung kann dann reduziert werden auf
Q= dP/Pa * V/dt

Die gewählten Maßeinheiten bestimmen dann die entsprechende Leckratenausgabe [sccm,
sccs, Pa-m3/s].

Aus dieser Gleichung erkennt man, dass die variable Messung zur Bestimmung einer Leckrate die Fähigkeit ist, eine Druckdifferenz in einer festen Zeit zu messen. Das Volumen des Systems und der Ausgleichsdruck auf Normalbedingungen werden während der Prüfzeit als konstant angenommen. Da dP eine Differenz von Anfangs- und Enddruck ist, ist die tatsächliche Leckratenbestimmung eine Funktion der Fähigkeit des Prüfgeräts, kleine Änderungen des elektrischen Signals zu unterscheiden, aber nicht unbedingt der Absolutwert des Signals. Der Absolutwert des Signals ist eine Funktion der Ausgabe des Druckaufnehmers pro Druckeinheit, beispielsweise 1 Volt/psi. Der tatsächlich gemessene Druck ist Teil der Wandlerspezifikation und seine „Kalibrierung“ auf einen bekannten Druckstandard. Die meisten Aufnehmer haben einen Spannungsausgang bezogen auf ihren maximalen Bereich, zum Beispiel 10 Volt/10 psi (entweder Überdruck oder Absolutdruck).

Die „Kalibrierung“ des Primärwandlers eines Instruments bezieht sich auf ein bekanntes „Standard“-Messgerät. Diese Messgeräte oder Vergleichsmessungen werden von einem Normungsgremium wie dem National Institute of Standards Technology (NIST) kontrolliert. Die Kalibrierung eines Instruments bezieht sich dann auf die Fähigkeit eines Instruments, einen bekannten Druck in einem bestimmten Satz von Maßeinheiten bezogen auf einen bekannten Standard unter einem Standardsatz von Bedingungen zu reproduzieren.

Die Fähigkeit, eine bestimmte Leckrate zu bestimmen, hängt von vielen Faktoren ab. Beim Druckabfallinstrument ist die Auflösung der „Druckdifferenz“ der primäre Faktor. Da die Messung der Druckdifferenz eine Kombination aus der Ausgangsspannung des Wandlers und seiner Fähigkeit ist, diesen Wert zu reproduzieren, und der Fähigkeit des Instruments, das Signal konsistent zu reproduzieren, ist eine Reihe systematischer und zufälliger Fehler am Werk. Aus diesem Grund wird in der Regel eine Messröhren-R&R-Studie am Instrument und dem daran angeschlossenen Testsystem durchgeführt.

Die Messröhren-R&R-Studie wird am besten in Bezug auf das tatsächliche Testsystem durchgeführt, das mit dem Instrument getestet wird. Die typische Manometeruntersuchung wird mit einem bekannten oder vorhersehbaren Leckagegerät wie einer Blende oder einem mikroeinstellbaren Ventil durchgeführt, mit dem das gesamte Testsystem herausgefordert werden kann. Der sogenannte „Leckstandard“ wird durch seinen Betriebsdruck und seinen gemessenen Durchflusswert aus einer Standardquelle definiert. Bei Anwendung auf ein Dichtheitsprüfsystem bestehend aus dem Instrument, Anschlussschläuchen und Fittings und dem bekannten Dichtheitsprüfteil kann das Standardleck wiederholt gemessen werden, um die Variation des Systems zu erkennen. Die „Genauigkeit“ des Systems kann dann statistisch bestimmt werden, um die Performanz für die
Prüfmethode angewendet. Es sollten gute Prüfverfahrensvalidierungsverfahren angewendet werden, um Schwankungen zwischen Betreibern und Umgebungsschwankungen einzubeziehen. Wenn mehrere Labore den Test durchführen, wird ein Protokoll für den Reproduzierbarkeitstest zwischen den Labors diese Variation liefern.

„Kalibrierung“ und „Präzision“[repeatability] einer Leckrate oder Druckänderung werden bei der Messung der Druckabfall-Leckprüfung als zwei separate und unterschiedliche Maßnahmen angesehen. Die Kalibrierung bezieht sich auf die Fähigkeit eines Instruments, einen bekannten Druck bezogen auf einen Standard abzulesen
messen. Die Reproduktion einer bekannten oder geschätzten Leckagerate ist abhängig von der Physik des Medien- und Systemaufbaus einschließlich des Prüfteils. Die Fähigkeit, ein bestimmtes Leck konsistent zu reproduzieren, hängt von der Präzision des Systems ab, die auf dem Instrument und anderen Teilen von basiert
das System.