Genauigkeitsangaben bei Drucksensoren richtig deuten
Bei der Suche nach dem passenden Drucktransmitter oder Druckmessumformer spielen verschiedene Faktoren eine Rolle. Während manche Anwendungen einen besonders hohen Druckmessbereich oder eine hohe Temperaturbeständigkeit erfordern, ist bei anderen die Genauigkeit ausschlaggebend. Genauigkeit ist aber in keiner Norm definiert. Wir verschaffen Ihnen einen Überblick über die verschiedenen Angaben.
Zwar ist „Genauigkeit“ keine definierte Norm, dennoch lässt sie sich anhand genauigkeitsrelevanter Angaben überprüfen, da diese normübergreifend definiert sind. Wie diese genauigkeitsrelevanten Angaben in den Datenblättern unterschiedlicher Hersteller spezifiziert sind, ist allerdings deren Sache. Das erschwert den Vergleich zwischen verschiedenen Herstellern für Anwender. Es kommt also darauf an, wie die Genauigkeit in den Datenblättern angegeben wird und diese richtig zu deuten. Denn 0,5 % Fehler können letztlich genauso genau wie 0,1 % sein – alles eine Frage der zur Ermittlung der Genauigkeit herangezogenen Methode.
Genauigkeitsangaben von Drucktransmittern: Ein Überblick
Die am meisten verwendete Genauigkeitsangabe in der Druckmesstechnik ist die Nichtlinearität. Diese beschreibt die grösstmögliche Abweichung der Kennlinie von einer Referenzgeraden. Um letztere zu ermitteln, gibt es drei Methoden: die Grenzpunkteinstellung, die Kleinstwerteinstellung (BFSL) und die Anfangspunkteinstellung. Sie alle führen zu unterschiedlichen Ergebnissen.
Die am leichtesten nachvollziehbare Methode ist die Grenzpunkteinstellung. Hier geht die Referenzgerade durch Kennlinienanfang und -ende. Die Kleinstwerteinstellung ist hingegen die Methode, welche die kleinsten Fehlerwerte ergibt. Dabei wird die Referenzgerade so gelegt, dass die maximale positive und negative Abweichung gleich gross ist.
Die Anfangspunkteinstellung ist was die Ergebnisse betrifft zwischen den anderen beiden Methoden einzuordnen. Nach welcher dieser Methoden die Hersteller verfahren, muss meistens direkt angefragt werden, da diese Information häufig nicht in den Datenblättern vermerkt ist. Bei STS wird in der Regel die Angabe Kennlinie nach Anfangspunkteinstellung verwendet.
Die drei Methoden im Vergleich:
Die Messabweichung ist die für Anwender wohl am einfachsten nachzuvollziehende Angabe zur Genauigkeit eines Sensors, da sie direkt aus der Kennlinie abzulesen ist und die relevanten Fehler-Faktoren bei Raumtemperatur beinhaltet (Nichtlinearität, Hysterese, Wiederholbarkeit etc.). Mit der Messabweichung wird die grösste Abweichung der tatsächlichen Kennlinie von der idealen Kennlinie beschrieben. Da die Messabweichung einen grösseren Wert ergibt als die Nichtlinearität, wird sie von Herstellen nicht so häufig in Datenblättern angegeben.
Eine weitere verwendete Genauigkeitsangabe ist die typische Genauigkeit. Da individuelle Messgeräte nicht identisch miteinander sind, geben Hersteller einen maximalen Wert an, der nicht überschritten wird. Die darunter liegende „typische Genauigkeit“ wird also nicht von allen Geräten geleistet. Es ist aber davon auszugehen, dass die Verteilung dieser Geräte dem 1-Sigma- Wert nach der Gauss’schen Normalverteilung entspricht (also rund zwei Drittel). Das bedeutet auch, dass ein Teil der Sensoren genauer ist, als angegeben und ein weiterer Teil ungenauer (ein bestimmter Maximalwert wird aber nicht überschritten).
So paradox es klingen mag: Genauigkeitsangaben können unterschiedlich genau sein. In der Praxis bedeutet das, dass ein Drucksensor mit 0,5 % Fehler nach maximaler Nichtlinearität nach Grenzpunkteinstellung genauso genau ist, wie ein Sensor mit 0,1 % Fehler nach typischer Nichtlinearität nach Kleinstwerteinstellung.
Temperaturfehler
Die Genauigkeitsangaben Nichtlinearität, typische Genauigkeit und Messabweichung beziehen sich auf das Verhalten des Drucksensors bei Referenztemperatur, welche in der Regel 25°C beträgt. Es gibt natürlich auch Anwendungen, bei denen sehr tiefe oder sehr hohe Temperaturen auftreten können. Da die Temperaturbedingungen die Genauigkeit des Sensors beeinflussen, muss zusätzlich der Temperaturfehler mit eingerechnet werden. Mehr zum Temperaturverhalten piezoresistiver Drucksensoren erfahren Sie hier.
Genauigkeit über die Zeit: Langzeitstabilität
Die Angaben zur Genauigkeit in den Produktdatenblättern geben Auskunft über das Instrument zum Ende des Produktionsprozesses. Ab diesem Moment kann sich die Genauigkeit des Geräts verändern. Das ist absolut normal. Die im Laufe der Lebensdauer des Sensors auftretende Veränderung wird in der Regel als Langzeitstabilität aufgeführt. Auch hier beziehen sich die Angaben auf Labor- oder Referenzbedingungen. Das bedeutet, dass sich auch in aufwendigen Tests unter Laborbedingungen die angegebene Langzeitstabilität nicht zwingend für die realen Einsatzbedingungen genau beziffern lässt. Zu beachten sind schliesslich eine Vielzahl Faktoren: Temperaturbedingungen, Vibrationen oder die auszuhaltenden Drücke selbst beeinflussen die Genauigkeit über die Produktlebensdauer.
Daher empfehlen wir, die Drucksensoren einmal im Jahr auf die Einhaltung ihrer Spezifikationen zu überprüfen. Es gilt, die Veränderung des Geräts hinsichtlich der Genauigkeit zu untersuchen. Dafür reicht es normalerweise aus, den Nullpunkt im drucklosen Zustand auf Veränderungen zu überprüfen. Fallen diese grösser aus, als vom Hersteller angegeben, ist das Gerät wahrscheinlich defekt.
Die Genauigkeit eines Drucksensors kann von einer Vielzahl von Faktoren beeinflusst werden. Darum ist es unbedingt ratsam, sich vorab umfassend vom Hersteller beraten zu lassen: In welchen Bedingungen wird der Drucktransmitter angewendet? Welche möglichen Fehlerquellen können auftreten? Wie lässt sich das Instrument am besten in die Anwendung integrieren? Wie wurde die im Datenblatt angegebene Genauigkeit ermittelt? So lässt sich schliesslich sicherstellen, dass Sie als Anwender den Drucktransmitter erhalten, der Ihren Ansprüchen hinsichtlich Genauigkeit optimal entspricht.