Curva caratteristica, isteresi, errore di misurazione: concetti di tecnica di misura della pressione

Curva caratteristica, isteresi, errore di misurazione: concetti di tecnica di misura della pressione

Nella tecnica di misura della pressione la prima fonte di informazioni per gli utenti è spesso costituita dalle schede tecniche fornite dai produttori. Generalmente sono di notevole interesse i dati di accuratezza contenuti al loro interno. In questo contesto compaiono una serie di concetti che è fondamentale conoscere per poter valutare lo strumento di misura in questione.

Riguardo al tema dell’accuratezza possiamo fondamentalmente dire che si tratta di un termine non soggetto ad uno standard definito. Questo però non vale per quei termini legati ai dati di accuratezza, tra cui troviamo la curva caratteristica, l’isteresi, la non-linearità, la non-ripetibilità e l’errore di misura. Di seguito vogliamo spiegare brevemente questi concetti.

Curva caratteristica 

La curva caratteristica indica la dipendenza del segnale di uscita (il valore misurato) dal segnale di entrata (la pressione). Idealmente la curva caratteristica è una linea retta.

Non-linearità 

Con il termine non-linearità si descrive la massima deviazione (positiva o negativa) della curva caratteristica da una linea retta di riferimento. La retta di riferimento può essere determinata utilizzando tre metodi diversi: la regolazione del punto limite, la regolazione del valore minimo (BFSL dall’inglese “best fit straight line”) e la regolazione del punto iniziale. Ognuno di questi metodi porta a risultati diversi. In Europa il metodo più utilizzato è la regolazione del punto limite. Con questo metodo la linea retta di riferimento passa attraverso il punto iniziale e quello finale della curva di riferimento.

Errore di misura

L’errore di misura descrive la deviazione del valore indicato dal valore “vero”. Questo valore “vero” è un valore ideale che, in pratica, può essere determinato solo con uno strumento di misura estremamente accurato in condizioni di riferimento, ad esempio con un campione primario come avviene per la calibrazione. L’errore di misura è indicato come errore assoluto o errore relativo. L’errore assoluto ha la stessa unità della grandezza di misura. L’errore relativo, invece, si riferisce al valore vero e non ha un’unità di misura. 

Errore del punto zero e errore dell’intervallo 

Per produrre i sensori si verificano delle deviazioni dallo strumento di riferimento (campione). Le deviazioni di misura all’inizio e alla fine del campo di misura vengono definite errore del punto zero e errore dell’intervallo. Quest’ultimo si riferisce alla differenza tra entrambi i valori. L’errore del punto zero, invece, è la differenza tra il punto zero ideale della curva caratteristica nominale e il valore di uscita effettivo della curva caratteristica reale. 

L’errore del punto zero può essere facilmente letto dall’utente in assenza di pressione. Per eliminarlo bisogna impostarlo come offset nell’unità di valutazione. Eliminare l’errore dell’intervallo è un po’ più difficile, perché in questo caso la pressione a fondo scala deve essere trattata in modo esatto.

Isteresi

Il valore di misura visualizzato non dipende solo dalla variabile di ingresso (qui: la pressione), ma anche dai valori della variabile di ingresso prima misurati. 

Quindi, quando la curva caratteristica dello strumento di misura viene registrata a pressione in continua crescita e viene poi confrontata con la curva caratteristica a pressione in continua diminuzione, risulta evidente che i segnali di uscita, nonostante le pressioni siano identiche, non sono esattamente uguali. La deviazione massima tra entrambe le curve caratteristiche è detta isteresi e si esprime in percentuale del fondo scala (% FS).

Non-ripetibilità 

Eseguendo misurazioni una di seguito all’altra, anche in condizioni identiche, i trasmettitori elettronici di pressione sono soggetti a influenze stocastiche che fanno sì che il segnale di uscita per valori di pressione uguali non sia mai identico. Con il termine non-ripetibilità si indica quindi la deviazione massima tra tre misurazioni consecutive eseguite nella stessa direzione. Gli utenti possono riconoscere se uno strumento di misura della pressione è affidabile da una non-ripetibilità il più possibile bassa. Come l’isteresi, la non-ripetibilità non può essere compensata. 

Errore di temperatura 

Le variazioni di temperatura influenzano direttamente le proprietà dei sensori di pressione. Per esempio, la resistenza elettrica dei semiconduttori, come quelli utilizzati nei trasmettitori di pressione piezoresistivi, diminuisce all’aumentare della temperatura. Per questo i produttori ottimizzano i loro dispositivi per un comportamento termico equilibrato. Gli errori condizionati dalla temperatura vengono compensati o direttamente sul sensore o elettronicamente. Alcuni dispositivi dispongono anche di un sensore di temperatura per compensare direttamente l’errore legato alla temperatura che si verifica. Ciò nonostante, questi tipi di errori possono essere solo minimizzati e non eliminati del tutto. L’errore di temperatura residuo viene indicato da alcuni produttore come coefficiente di temperatura. 

Pressione di sovraccarico 

All’interno del campo di sovraccarico i limiti di errore stabiliti vengono oltrepassati, senza che, tuttavia, il trasmettitore di pressione subisca dei danni permanenti. 

Pressione di scoppio 

La pressione di scoppio indica la pressione alla quale il trasmettitore di pressione inizia a deformarsi, subendo danni meccanici. 

Stabilità a lungo termine 

Influenze esterne agiscono sullo strumento di misura. Pertanto, nel corso degli anni la curva caratteristica non rimane costante. La stabilità a lungo termine (o deriva a lungo termine) viene determinata dai produttori in condizioni di laboratorio e viene indicata nelle schede tecniche come percentuale del fondo scala per anno. 

Le reali condizioni di utilizzo del dispositivo possono differire in modo significativo rispetto alle condizioni di test. Inoltre, le procedure di prova possono variare molto da produttore a produttore, rendendo più difficile la comparabilità dei dati. In generale è consigliabile calibrare periodicamente il sensore di pressione e, se necessario, procedere con la messa a punto. 

Accuratezza: la deviazione della curva caratteristica 

Come accennato all’inizio, “l’accuratezza” non è una grandezza definita. Un altro concetto che viene talvolta utilizzato per l’accuratezza è la deviazione della curva caratteristica. La deviazione della curva caratteristica descrive l’errore totale massimo secondo IEC 700 ed è costituito dalla deviazione della linearità, dall’isteresi e anche dalla non-ripetibilità. Si tratta dunque della deviazione del valore finale del campo di misura dalla curva caratteristica ideale in percentuale.

La grandezza fisica della pressione e i diversi tipi di pressione

La grandezza fisica della pressione e i diversi tipi di pressione

Insieme alla temperatura, la pressione rientra tra le grandezze fisiche più misurate nelle applicazioni industriali. Esistono, però, varie unità di misura per i diversi tipi di pressione. Di seguito spieghiamo i concetti fondamentali.

La pressione descrive la forza (F) che agisce su una superficie (A) e viene indicata con il simbolo p: 

p= F/A 

Secondo il sistema internazionale di unità di misura, l’unità SI della pressione è denominata pascal (Pa). Questo termine prende il nomedal matematico francese Blaise Pascal (1623 – 1662) e deriva dalle unità di misura SI metro e newton come segue: 1 Pa = 1 N/m2. 

Il pascal è un’unità di pressione molto piccola. Per questo, di norma, nelle applicazioni industriali si ricorre all’unità bar. Le unità utilizzate per indicare la pressione variano a seconda dell’ambito di applicazione. Il Pa, ad esempio, è usato per le misurazioni della pressione nelle camere bianche. La meteorologia fa riferimento all’unità hPa. La pressione sanguigna, invece, viene misurata in mmHg. La tabella di conversione sottostante mostra il rapporto tra le varie unità di misura.

Immagine 1: tabella di conversione delle unità di misura della pressione

I tipi di pressione 

Per gli utenti è importante essere in grado di distinguere i diversi tipi di pressione per scegliere il trasmettitore ideale per la propria applicazione. 

Per la misura della pressione è decisiva la suddivisione tra pressione assoluta, pressione differenziale e pressione relativa. 

Pressione assoluta 

La pressione assoluta si riferisce alla pressione zero. Con questo termine s’intende un vuoto, come quello che c’è ad esempio nella vastità dell’universo o un vuoto ideale. La pressione di misura è dunque sempre maggiore della pressione di riferimento. Per una migliore distinzione rispetto agli altri tipi di pressione, la pressione assoluta è indicata con l’indice abs: Pabs 

I trasmettitori di pressione assoluta utilizzano come pressione di riferimento un vuoto racchiuso nell’elemento del sensore. Questo vuoto si trova sul lato secondario della membrana. Oltre che per le applicazioni meteorologiche, i sensori di pressione assoluta vengono spesso impiegati nell’industria di confezionamento (ad esempio per la realizzazione di confezioni sottovuoto).

Figure 2: Summary of various pressure forms

Pressione relativa 

La pressione relativa si riferisce alla pressione atmosferica. La pressione atmosferica è indicata con l’indice amb. Si tratta della pressione che agisce attraverso lo strato d’aria che avvolge la terra. Questa pressione diminuisce in modo costante fino ad un’altezza di circa 500 chilometri (da questa altezza in poi regna la pressione assoluta). A livello del mare la pressione atmosferica corrisponde a circa 1013 mbar e oscilla ad alte e basse pressioni di circa il 5 percento. 

Diversamente da un sensore di pressione assoluta, il lato secondario di un sensore di pressione relativo è aperto al fine di garantire una compensazione della pressione atmosferica. Oltre al termine “pressione relativa” si usa anche il termine “sovrapressione”. Si parla di sovrapressione positiva quando la pressione assoluta è maggiore della pressione atmosferica. In caso contrario si parla di sovrapressione negativa (in passato si utilizzava anche il termine “sottopressione”). 

La pressione degli pneumatici di un veicolo può servire come esempio pratico di misurazione della pressione relativa: se a pressione atmosferica di 1 bar vengono applicati 2 bar di pressione relativa su un pneumatico, la pressione assoluta è di 3 bar. 

Pressione differenziale 

Nella pressione differenziale viene indicata la differenza di pressione tra due pressioni qualsiasi. Per questo motivo i sensori di pressione differenziale dispongono di due connettori di pressione. 

Un esempio di applicazione per la misura della pressione differenziale è la misura della pressione idrostatica nei serbatoi chiusi.

Iscriviti alla nostraNewsletter

Iscriviti alla nostra mailing List per ricevere le ultime notizie e gli aggiornamenti dal nostro team.

Ti sei iscritto con successo!