La differenza fra “accuratezza” e “precisione”

Accuratezza e precisione sono due termini spesso utilizzati in modo errato nel contesto della misurazione, perciò è importante conoscerne bene la differenza. L’accuratezza indica quanto una misura vicina è al valore accettato. Ad esempio, ci aspettiamo che una bilancia legga 100 grammi se poniamo un peso standard di 100 grammi su di essa. In caso contrario, la bilancia non è accurata.

La precisione, invece, indica quanto vicini o quanto ripetibili siano i risultati. Uno strumento di misura preciso darà quasi lo stesso risultato ogni volta che viene utilizzato. In altre parole, la precisione di un esperimento, di uno strumento o di un valore è una misura dell’affidabilità e della coerenza. Sia l’accuratezza che la precisione sono termini usati nella scienza, in ingegneria e in statistica.

Più in generale, l’accuratezza di un esperimento, di uno strumento o di un valore è una misura di quanto strettamente i risultati concordino con il valore vero o accettato. L’accuratezza si riferisce al grado di conformità e correttezza di qualcosa rispetto a un valore vero o assoluto, mentre la precisione si riferisce a uno stato di rigida precisione, cioè a quanto costantemente qualcosa è strettamente esatto.

Quando una quantità viene misurata o calcolata, l’accuratezza della misurazione o il risultato calcolato danno il grado di vicinanza del valore al valore corretto. L’accuratezza, quindi, descrive una proprietà del risultato. La precisione, d’altra parte, quantifica il grado di efficacia con cui sono state effettuate le misure, o quanto bene sono stati effettuati i calcoli. La precisione dice qualcosa sul processo di misurazione o sul calcolo, ma non dice nulla sul risultato della misurazione o sul valore calcolato.

Spesso è possibile aumentare l’accuratezza di un risultato aumentando la precisione dello strumento di misura o del metodo di calcolo; tuttavia, se il modo di eseguire la misurazione o eseguire il calcolo non è corretto, aumentare la precisione non aumenterà necessariamente l’accuratezza del risultato. Inoltre, se il valore di una quantità è già noto con accuratezza, l’aumento della precisione non cambierà il valore.

I produttori di solito specificano l’accuratezza e la precisione che ci si può aspettare dalle loro apparecchiature come un’incertezza “+/-” . È possibile che uno strumento sia preciso, ma inaccurato. Ad esempio, considera il metro usato per misurare i vestiti. Dovrebbe essere lungo 1000 mm. Ma cosa succede se è lungo solo 995 mm? Avresti certamente la stessa misura precisa ogni volta che lo usi, ma non la misura accurata corretta. L’errore è così piccolo che probabilmente non lo noteresti nemmeno.

Tuttavia, nella scienza, le nostre misurazioni dovrebbero essere accurate e precise. Uno strumento può essere accurato e preciso: se ad esempio un termometro meteorologico legge 25 °C all’esterno e in realtà la temperatura è di 25°C, il termometro è accurato. Se il termometro registra costantemente la temperatura esatta per diversi giorni consecutivi (oppure se viene letto 10 volte nel giro di poco tempo e segna valori tutti vicini fra loro), il termometro è anche preciso.

Come riportare la precisione dei risultati

Esistono diversi modi per riportare (e valutare) la precisione dei risultati. Il più semplice è l’intervallo o range (ovvero la differenza tra i risultati più alti e quelli più bassi), spesso riportato come una differenza dalla media delle misure. Un modo migliore per indicare la precisione dei risultati – ma che richiede un’analisi statistica – sarebbe quello di segnalare la cosiddetta “deviazione standard”.

La deviazione standard descrive come i risultati sono distribuiti intorno alla media. Se i risultati sono distribuiti normalmente, il 68% di questi sarà all’interno di 1 deviazione standard della media. Una maggiore deviazione standard (mostrata in rosa chiaro) indica una maggiore dispersione nella precisione nei risultati. Una deviazione standard più piccola (mostrata in azzurro) indica meno dispersione. Entrambe le serie di risultati hanno la stessa media (la linea verde).

La deviazione standard dalla media.

Il modo difficile per calcolare la deviazione standard di un insieme di numeri è “a mano”, con il solo aiuto di una calcolatrice che usa la seguente formula, che definisce operativamente la deviazione standard:

Molti calcolatori hanno una funzione di deviazione standard incorporata. La maggior parte dei fogli di calcolo, come ad es. Excel, includono anche funzioni incorporate per l’analisi statistica dei dati (controlla il file di aiuto dei fogli di calcolo per il termine deviazione standard o analisi statistica).

Vi sono anche dei tool online che calcolano la deviazione standard di un insieme di numeri. Per utilizzarli, di solito basta inserire il set di numeri separati da spazi (ad esempio 100,00 100,01 99,99….). Quando sono stati inseriti tutti i numeri, basta premere il pulsante “Calcola” per visualizzare la deviazione standard e, solitamente anche la media, che è l’altro valore importante che interessa il ricercatore.

Influenza sulle cifre significative

Sia l’accuratezza che la precisione influenzano il numero di cifre significative che possono essere segnalate per esprimere il risultato di una misurazione. Quando viene presentato il valore numerico di una quantità, la precisione viene determinata in modo intrinseco in base al modo in cui viene visualizzato il valore. Ad esempio, 3,14 e 3,1415 sono due valori di π con diverse precisioni, che nel secondo caso è maggiore.

Per comprendere la precisione, dobbiamo prima capire la nozione di cifre significative. In qualsiasi rappresentazione di un valore numerico: la cifra diversa da zero più a sinistra è una cifra significativa; se non vi è alcun punto decimale, la cifra non netta più a destra è una cifra significativa; se c’è un punto decimale, la cifra più a destra è una cifra significativa, anche quando è zero; e tutte le cifre comprese tra le cifre più significative all’estrema sinistra e all’estrema destra sono tutte cifre significative.

Quindi, il numero di cifre significative in una rappresentazione dà la precisione del valore. I seguenti numeri hanno tutti 4 cifre significative: 3586, 358,6, 0358,6, 358,0, 35,00, 358600. Nell’ultimo numero, i due zeri non vengono conteggiati come cifre significative, sebbene siano significativi. Per risolvere questa ambiguità, dobbiamo mettere un punto decimale dopo lo zero più a destra, o usare una rappresentazione a virgola mobile. Quindi, o rappresentiamo il numero come 358600,0, o come 3,586 × 10^5.

Dopo che un valore è stato misurato o calcolato, a volte è necessario ridurre tale valore alla precisione richiesta. Ciò può essere ottenuto in due modi: a) tagliando o b) arrotondando. Quando riduciamo la precisione tagliando, scartiamo semplicemente ogni cifra nella rappresentazione alla destra della cifra meno significativa (la cifra più significativa più a destra). Ad esempio, tagliamo il valore 48,9864 con sei cifre significative ottenendo un valore con quattro cifre significative come 48,98.

Sebbene il “tagliare” sia molto semplice, non è attraente perché l’accuratezza del risultato è significativamente ridotta nel processo a causa del semplice scartare le cifre non significative. Quando arrotondiamo un valore, tuttavia, rimuoviamo le cifre non significative dopo aver preso in considerazione il loro significato sull’accuratezza del valore prima dell’arrotondamento. Per capire cosa intendiamo con “significato sull’accuratezza”, dobbiamo prima quantificarlo.

Il numero di cifre significative dopo il punto decimale (cioè a destra del punto decimale) indica le posizioni dei decimali in cui l’approssimazione ha un valore corretto rispetto al valore preciso. Ad esempio, il valore di π dato dalla frazione 22/7 è accurato solo in 2 punti decimali perché il valore corrisponde al risultato più accurato a solo due cifre significative dopo il punto decimale:

π = 3.1415…

22/7=3.1428…

Un valore numerico può invece essere arrotondato utilizzando la seguente procedura: (1) Innanzitutto, tagliate il valore alle posizioni richieste dei decimali e trattate le cifre da scartare come frazione decimale. (2) Se il valore da scartare è maggiore di 0,5, incrementate di 1 il valore meno significativo del valore tagliato. (3) Se il valore da scartare è inferiore a 0,5, non fate nulla. (4) Se il valore da scartare è uguale a 0,5, incrementate la cifra meno significativa del valore tagliato per 1, solo se è dispari.

Ad esempio, i valori 2,4865, 2,4854, 2,4855 e 2,4845 vengono arrotondati a 3 posizioni decimali rispettivamente a 2,486, 2,485, 2,486 e 2,484. Nella procedura sopra descritta, il passaggio 4 è importante in quanto riduce l’effetto dell’arrotondamento per eccesso o per difetto sull’accuratezza dell’approssimazione. Distribuendo gli incrementi in modo appropriato, i valori arrotondati vengono mantenuti vicino al valore corretto quando vengono eseguiti più calcoli usando lo stesso numero.