Genauigkeitsangaben bei Drucksensoren richtig deuten

Genauigkeitsangaben bei Drucksensoren richtig deuten

Bei der Suche nach dem passenden Drucktransmitter oder Druckmessumformer spielen verschiedene Faktoren eine Rolle. Während manche Anwendungen einen besonders hohen Druckmessbereich oder eine hohe Temperaturbeständigkeit erfordern, ist bei anderen die Genauigkeit ausschlaggebend. Genauigkeit ist aber in keiner Norm definiert. Wir verschaffen Ihnen einen Überblick über die verschiedenen Angaben.

Zwar ist „Genauigkeit“ keine definierte Norm, dennoch lässt sie sich anhand genauigkeitsrelevanter Angaben überprüfen, da diese normübergreifend definiert sind. Wie diese genauigkeitsrelevanten Angaben in den Datenblättern unterschiedlicher Hersteller spezifiziert sind, ist allerdings deren Sache. Das erschwert den Vergleich zwischen verschiedenen Herstellern für Anwender. Es kommt also darauf an, wie die Genauigkeit in den Datenblättern angegeben wird und diese richtig zu deuten. Denn 0,5 % Fehler können letztlich genauso genau wie 0,1 % sein – alles eine Frage der zur Ermittlung der Genauigkeit herangezogenen Methode.

Genauigkeitsangaben von Drucktransmittern: Ein Überblick

Die am meisten verwendete Genauigkeitsangabe in der Druckmesstechnik ist die Nichtlinearität. Diese beschreibt die grösstmögliche Abweichung der Kennlinie von einer Referenzgeraden. Um letztere zu ermitteln, gibt es drei Methoden: die Grenzpunkteinstellung, die Kleinstwerteinstellung (BFSL) und die Anfangspunkteinstellung. Sie alle führen zu unterschiedlichen Ergebnissen.

Die am leichtesten nachvollziehbare Methode ist die Grenzpunkteinstellung. Hier geht die Referenzgerade durch Kennlinienanfang und -ende. Die Kleinstwerteinstellung ist hingegen die Methode, welche die kleinsten Fehlerwerte ergibt. Dabei wird die Referenzgerade so gelegt, dass die maximale positive und negative Abweichung gleich gross ist.

Die Anfangspunkteinstellung ist was die Ergebnisse betrifft zwischen den anderen beiden Methoden einzuordnen. Nach welcher dieser Methoden die Hersteller verfahren, muss meistens direkt angefragt werden, da diese Information häufig nicht in den Datenblättern vermerkt ist. Bei STS wird in der Regel die Angabe Kennlinie nach Anfangspunkteinstellung verwendet.

Die drei Methoden im Vergleich:

Die Messabweichung ist die für Anwender wohl am einfachsten nachzuvollziehende Angabe zur Genauigkeit eines Sensors, da sie direkt aus der Kennlinie abzulesen ist und die relevanten Fehler-Faktoren bei Raumtemperatur beinhaltet (Nichtlinearität, Hysterese, Wiederholbarkeit etc.). Mit der Messabweichung wird die grösste Abweichung der tatsächlichen Kennlinie von der idealen Kennlinie beschrieben. Da die Messabweichung einen grösseren Wert ergibt als die Nichtlinearität, wird sie von Herstellen nicht so häufig in Datenblättern angegeben.

Eine weitere verwendete Genauigkeitsangabe ist die typische Genauigkeit. Da individuelle Messgeräte nicht identisch miteinander sind, geben Hersteller einen maximalen Wert an, der nicht überschritten wird. Die darunter liegende „typische Genauigkeit“ wird also nicht von allen Geräten geleistet. Es ist aber davon auszugehen, dass die Verteilung dieser Geräte dem 1-Sigma- Wert nach der Gauss’schen Normalverteilung entspricht (also rund zwei Drittel). Das bedeutet auch, dass ein Teil der Sensoren genauer ist, als angegeben und ein weiterer Teil ungenauer (ein bestimmter Maximalwert wird aber nicht überschritten).

So paradox es klingen mag: Genauigkeitsangaben können unterschiedlich genau sein. In der Praxis bedeutet das, dass ein Drucksensor mit 0,5 % Fehler nach maximaler Nichtlinearität nach Grenzpunkteinstellung genauso genau ist, wie ein Sensor mit 0,1 % Fehler nach typischer Nichtlinearität nach Kleinstwerteinstellung.

Temperaturfehler

Die Genauigkeitsangaben Nichtlinearität, typische Genauigkeit und Messabweichung beziehen sich auf das Verhalten des Drucksensors bei Referenztemperatur, welche in der Regel 25°C beträgt. Es gibt natürlich auch Anwendungen, bei denen sehr tiefe oder sehr hohe Temperaturen auftreten können. Da die Temperaturbedingungen die Genauigkeit des Sensors beeinflussen, muss zusätzlich der Temperaturfehler mit eingerechnet werden. Mehr zum Temperaturverhalten piezoresistiver Drucksensoren erfahren Sie hier.

 

Genauigkeit über die Zeit: Langzeitstabilität

Die Angaben zur Genauigkeit in den Produktdatenblättern geben Auskunft über das Instrument zum Ende des Produktionsprozesses. Ab diesem Moment kann sich die Genauigkeit des Geräts verändern. Das ist absolut normal. Die im Laufe der Lebensdauer des Sensors auftretende Veränderung wird in der Regel als Langzeitstabilität aufgeführt. Auch hier beziehen sich die Angaben auf Labor- oder Referenzbedingungen. Das bedeutet, dass sich auch in aufwendigen Tests unter Laborbedingungen die angegebene Langzeitstabilität nicht zwingend für die realen Einsatzbedingungen genau beziffern lässt. Zu beachten sind schliesslich eine Vielzahl Faktoren: Temperaturbedingungen, Vibrationen oder die auszuhaltenden Drücke selbst beeinflussen die Genauigkeit über die Produktlebensdauer.

Daher empfehlen wir, die Drucksensoren einmal im Jahr auf die Einhaltung ihrer Spezifikationen zu überprüfen. Es gilt, die Veränderung des Geräts hinsichtlich der Genauigkeit zu untersuchen. Dafür reicht es normalerweise aus, den Nullpunkt im drucklosen Zustand auf Veränderungen zu überprüfen. Fallen diese grösser aus, als vom Hersteller angegeben, ist das Gerät wahrscheinlich defekt.

Die Genauigkeit eines Drucksensors kann von einer Vielzahl von Faktoren beeinflusst werden. Darum ist es unbedingt ratsam, sich vorab umfassend vom Hersteller beraten zu lassen: In welchen Bedingungen wird der Drucktransmitter angewendet? Welche möglichen Fehlerquellen können auftreten? Wie lässt sich das Instrument am besten in die Anwendung integrieren? Wie wurde die im Datenblatt angegebene Genauigkeit ermittelt? So lässt sich schliesslich sicherstellen, dass Sie als Anwender den Drucktransmitter erhalten, der Ihren Ansprüchen hinsichtlich Genauigkeit optimal entspricht.

Kennlinie, Hysterese, Messfehler: Begriffe der Druckmesstechnik

Kennlinie, Hysterese, Messfehler: Begriffe der Druckmesstechnik

Erste Informationsquelle für Anwender von Druckmesstechnik sind oft die von den Herstellern bereitgestellten Datenblätter. Von grossem Interesse sind dabei in der Regel die Genauigkeitsangaben. In diesem Zusammenhang tauchen eine Vielzahl Begriffe auf, deren Kenntnis bei der Einschätzung des jeweiligen Messinstruments von grosser Bedeutung ist.

Zum Thema Genauigkeit lässt sich grundlegend sagen, dass der Begriff keiner definierten Norm unterliegt. Anders ist dies bei den Begriffen, die im Zusammenhang mit Genauigkeitsangaben vorkommen, darunter Kennlinie, Hysterese, Nichtlineartität, Nichtwiederholbarkeit und Messfehler. Im Folgenden wollen wir diese Begriffe kurz erläutern.

Kennlinie

Die Kennlinie bezeichnet die Abhängigkeit des Ausgangssignals (Messwert) vom Eingangssignal (Druck). Im Idealfall ist die Kennlinie eine Gerade.

Nichtlinearität

Als Nichtlinearität wird die grösste Abweichung (positiv oder negativ) der Kennlinie von einer Referenzgeraden beschrieben. Die Referenzgerade kann mittels drei verschiedener Methoden bestimmt werden: Grenzpunkteinstellung, die Kleinstwerteinstellung (BFSL) und die Anfangspunkteinstellung. Jede dieser Methoden führt zu anderen Ergebnissen. Die Grenzpunkteinstellung ist die in Europa am häufigsten verwendete Methode. Dabei verläuft die Referenzgerade durch Anfangs- und Endpunkt der Kennlinie.

Messfehler

Der Messfehler oder auch die Messabweichung beschreibt die Abweichung des angezeigten Wertes vom „richtigen“ Wert. Dieser „richtige“ Wert ist ein Idealwert, den man in der Praxis nur mit einem hochgenauen Messgerät bei Referenzbedingungen, beispielsweise einem Primärnormal wie es zur Kalibrierung eingesetzt wird, ermitteln kann. Die Messabweichung wird als absoluter oder relativer Fehler angegeben. Der absolute Fehler hat dieselbe Einheit wie die Messgrösse. Der relative Fehler bezieht sich auf den richtigen Wert und ist einheitsfrei.

Nullpunkt- und Spanne-Fehler

Bei der Sensor-Produktion kommt es zu Abweichungen zum Referenzgerät (Normal). Messabweichungen am Messbereichsanfang und -ende werden als Nullpunkt- und Spannefehler bezeichnet. Letzterer bezieht sich auf die Differenz aus beiden Werten. Der Nullpunktfehler ist die Differenz zwischen dem idealen Nullpunkt der Soll-Kennlinie und dem tatsächlichen Ausgangswert der Ist-Kennlinie.

Der Nullpunktfehler kann vom Anwender einfach im drucklosen Zustand abgelesen werden. Um ihn zu eliminieren muss er diesen als Offset in die Auswerteeinheit eingeben. Das Eliminieren des Spannefehlers gestaltet sich etwas schwieriger, da hierfür der Druck am Messbereichsende exakt angefahren werden muss.

Hysterese

Der angezeigte Messwert hängt nicht nur von der Eingangsgrösse ab (hier: Druck), sondern auch von den Werten, die von der Eingangsgrösse zuvor gemessen wurden.

Wenn also die Kennlinie des Messgeräts bei kontinuierlich zunehmendem Druck aufgenommen und dann mit der Kennlinie bei kontinuierlich abnehmendem Druck verglichen wird, fällt auf, dass die Ausgangssignale trotz identischer Drücke nicht exakt gleich sind. Die maximale Abweichung zwischen beiden Kennlinien bezeichnet man als Hysterese. Sie wird in Prozent der Gesamtskala angegeben (% FS).

Nichtwiederholbarkeit

Auch wenn unter identischen Bedingungen gemessen wird unterliegen elektronische Drucktransmitter stochastischen Einflüssen, wegen derer das Ausgangssignal für gleiche Druckwerte bei aufeinanderfolgenden Messungen nicht identisch ist. Mit Nichtwiederholbarkeit wird daher die grösste Abweichung aus drei nacheinander in gleicher Richtung erfolgten Messungen angegeben. Ein zuverlässiges Druckmessinstrument erkennen Anwender an einer möglichst geringen Nichtwiederholbarkeit.

Wie die Hysterese kann die Nichtwiederholbarkeit nicht kompensiert werden.

 

Temperaturfehler

Temperaturänderungen beeinflussen die Eigenschaften des Drucksensors unmittelbar. Der elektrische Widerstand von Halbleitern, wie sie bei piezoresistiven Druckmessumformern genutzt werden, nimmt beispielsweise mit steigender Temperatur ab. Hersteller optimieren ihre Produkte daher hinsichtlich eines ausgeglichenen Temperaturverhaltens. Temperaturbedingte Fehler werden entweder direkt auf dem Sensor oder elektronisch kompensiert. Manche Geräte verfügen auch über einen Temperatursensor, der auftretende temperaturbedingte Fehler direkt kompensiert. Dennoch lassen sich solche Fehler nur minimieren und nicht völlig eliminieren. Dieser Rest-Temperaturfehler wird von manchen Herstellern als Temperaturkoeffizient angegeben.

Überlastdruck

Die angegebenen Fehlergrenzen werden im Überlastbereich überschritten. Der Druckmessumformer erleidet aber noch keine bleibenden Schäden.

Berstdruck

Der Berstdruck gibt den Druck an, bei dem es zu Verformungen des Druckmessumformers kommt und er mechanisch beschädigt wird.

Langzeitstabilität

Äussere Einflüsse wirken auf das Messinstrument. Darum bleibt die Kennlinie nicht über Jahre hinweg konstant. Die Langzeitstabilität (auch Langzeitdrift) wird von den Herstellern unter Laborbedingungen ermittelt und in den Datenblättern in Prozent von der Gesamtskala pro Jahr angegeben.

Die realen Einsatzbedingungen des Gerätes können sich signifikant von den Testbedingungen unterscheiden. Auch können die Testabläufe unter den Herstellern stark variieren, was die Vergleichbarkeit der Angaben erschwert. Generell empfiehlt es sich, den Druckumformer in regelmässigen Abständen zu kalibrieren und gegebenenfalls zu justieren.

Genauigkeit: Die Kennlinienabweichung

Wie eingangs erwähnt, ist „Genauigkeit“ keine feste Grösse. Ein anderer Begriff, der gelegentlich für Genauigkeit benutzt wird, ist die Kennlinienabweichung. Diese beschreibt den maximalen Gesamtfehler nach IEC 770 und besteht aus der Linearitätsabweichung, der Hysterese sowie der Nichtwiederholbarkeit. Es handelt sich demnach um die Abweichung des Messbereichsendwertes von der idealen Kennlinie in Prozent.

Laden Sie sich unsere gratis Inforgrafik zum Thema Gesamtfehler:

Die physikalische Grösse Druck und die unterschiedlichen Druckarten

Die physikalische Grösse Druck und die unterschiedlichen Druckarten

Neben der Temperatur zählt der Druck zu den am häufigsten gemessenen physikalischen Grössen in industriellen Anwendungen. Es gibt allerdings verschiedene Masseinheiten für und Arten von Druck. Im Folgenden erklären wir die grundlegenden Begriffe.

Druck beschreibt die auf eine Fläche (A) wirkende Kraft (F) und wird mit dem Formelzeichen p angegeben:

p= F/A

Nach dem internationalen Einheitssystem wird die SI-Einheit von Druck Pascal (Pa) genannt. Die Bezeichnung geht auf den französischen Mathematiker Blaise Pascal (1623 – 1662) zurück und wird aus den SI-Einheiten Meter und Newton wie folgt abgeleitet: 1 Pa = 1 N/m2.

Das Pascal ist eine sehr kleine Druckeinheit. In industriellen Anwendungen greift man daher in der Regel auf die Einheit bar zurück. Die verwendeten Einheiten zur Angabe eines Druckes variieren von Anwendungsgebiet zu Anwendungsgebiet. So wird Pa für Druckmessungen in Reinräumen benutzt. Die Meteorologie greift auf die Einheit hPa zurück. Der Blutdruck wird hingegen in der Einheit mmHg gemessen. Wie sich diese einzelnen Einheiten zueinander verhalten wird in der unten stehenden Umrechnungstabelle deutlich.

Abbildung 1: Umrechungstablle Druckeinheiten

Die Druckarten

Für Anwender ist es wichtig, die verschiedenen Druckarten unterscheiden zu können, um den idealen Drucktransmitter für ihre Anwendung zu wählen.

Für die Druckmessung ist die Unterteilung in Absolut-, Differenz- und Relativdruck entscheidend.

Absolutdruck

Der absolute Druck bezieht sich auf den Druck Null. Damit ist ein luftleerer Raum gemeint, wie er beispielsweise in den Weiten des Universums oder in einem idealen Vakuum herrscht. Der Messdruck ist demnach immer grösser als der Referenzdruck. Zur besseren Unterscheidung von den anderen Druckarten wird der Absolutdruck mit dem Index abs kenntlich gemacht: Pabs.

Absolutdrucksensoren nutzen als Referenzdruck ein im Sensorelement eingeschlossenes Vakuum. Dieses befindet sich auf der Sekundärseite der Membran. Neben meteorologischen Anwendungen werden Absolutdrucksensoren auch oft in der Verpackungsindustrie eingesetzt (z.B. bei der Herstellung von Vakuumverpackungen).

Abbildung 2: Übersicht der unterschiedlichen Druckarten

Relativdruck 

Der Relativdruck referenziert den atmosphärischen Druck. Der atmosphärische Druck wird mit dem Index amb gekennzeichnet. Dabei handelt es sich um den Druck, der durch die erdumhüllende Luftschicht wirkt. Dieser Druck nimmt bis zu einer Höhe von ca. 500 Kilometer kontinuierlich ab (ab dieser Höhe herrscht absoluter Druck). Der atmosphärische Druck entspricht auf Meereshöhe in etwa 1013 mbar und schwankt bei Hoch- und Tiefdrucklagen um zirka fünf Prozent.

Im Unterschied zu einem Absolutdrucksensor ist die Sekundärseite eines Relativdrucksensors offen, um einen Druckausgleich zum Atmosphärendruck zu gewährleisten. Neben Relativdruck ist auch die Bezeichnung Überdruck üblich. Von einem positiven Überdruck spricht man, wenn der absolute Druck höher als der Atmosphärendruck ist. Ist dies nicht der Fall, wird von einem negativen Überdruck gesprochen (früher war auch die Bezeichnung Unterdruck gebräuchlich).

Als praktisches Beispiel für eine Relativdruckmessung soll der Reifendruck eines Fahrzeuges dienen: Werden bei einem Luftdruck von 1 bar einem Reifen 2 bar relativer Druck zugeführt entspricht dies 3 bar Absolutdruck.

Differenzdruck

Beim Differenzdruck wird der Druckunterschied zwischen zwei beliebigen Drücken angegeben. Aus diesem Grund besitzen Differenzdrucksensoren zwei Druckanschlüsse.

Ein Anwendungsbeispiel für die Differenzdruckmessung ist die hydrostatische Druckmessung in geschlossenen Tanks.

Mehr dazu lesen Sie hier.

Abonnieren Sie unserenNewsletter

Tragen Sie sich in unsere Mailingliste ein, um die neuesten Nachrichten und Updates von unserem Team zu erhalten.

Sie haben sich erfolgreich angemeldet!