Differenza tra deviazione standard e media

Differenza tra deviazione standard e media
Differenza tra deviazione standard e media

Video: Differenza tra deviazione standard e media

Video: Differenza tra deviazione standard e media
Video: Sony Xperia Tablet Z vs Samsung Nexus 10 - Benchmarks [ITA] by TechnoLost 2024, Luglio
Anonim

Deviazione standard vs media

Nelle statistiche descrittive e inferenziali, vengono utilizzati diversi indici per descrivere un insieme di dati corrispondente alla sua tendenza centrale, dispersione e asimmetria. Nell'inferenza statistica, questi sono comunemente noti come stimatori poiché stimano i valori dei parametri della popolazione.

La tendenza centrale si riferisce e individua il centro della distribuzione dei valori. Media, moda e mediana sono gli indici più comunemente usati per descrivere la tendenza centrale di un set di dati. La dispersione è la quantità di diffusione dei dati dal centro della distribuzione. L'intervallo e la deviazione standard sono le misure di dispersione più comunemente utilizzate. I coefficienti di asimmetria di Pearson vengono utilizzati per descrivere l'asimmetria di una distribuzione di dati. Qui, l'asimmetria si riferisce al fatto se il set di dati è simmetrico rispetto al centro o meno e, in caso contrario, a quanto è asimmetrico.

Cosa significa?

Mean è l'indice di tendenza centrale più comunemente usato. Dato un set di dati, la media viene calcolata prendendo la somma di tutti i valori dei dati e quindi dividendola per il numero di dati. Ad esempio, i pesi di 10 persone (in chilogrammi) sono misurati come 70, 62, 65, 72, 80, 70, 63, 72, 77 e 79. Quindi il peso medio delle dieci persone (in chilogrammi) può essere calcolato come segue. La somma dei pesi è 70 + 62 + 65 + 72 + 80 + 70 + 63 + 72 + 77 + 79=710. Media=(somma) / (numero di dati)=710 / 10=71 (in chilogrammi).

Come in questo particolare esempio, il valore medio di un set di dati potrebbe non essere un punto dati del set ma sarà univoco per un dato set di dati. La media avrà le stesse unità dei dati originali. Pertanto, può essere contrassegnato sullo stesso asse dei dati e può essere utilizzato nei confronti. Inoltre, non esiste alcuna restrizione di segno per la media di un set di dati. Può essere negativo, zero o positivo, poiché la somma del set di dati può essere negativa, zero o positiva.

Cos'è la deviazione standard?

La deviazione standard è l'indice di dispersione più comunemente usato. Per calcolare la deviazione standard, vengono prima calcolate le deviazioni dei valori dei dati dalla media. La radice quadrata media delle deviazioni è chiamata deviazione standard.

Nell'esempio precedente, le rispettive deviazioni dalla media sono (70 – 71)=-1, (62-71)=-9, (65-71)=-6, (72-71)=1, (80-71)=9, (70-71)=-1, (63-71)=-8, (72-71)=1, (77-71)=6 e (79-71)=8. La somma dei quadrati di deviazione è (-1)2+ (-9)2+ (-6)2+ 1 2+92+ (-1)2+ (-8)2 + 12+ 62 + 82=366. La deviazione standard è √(366/10)=6,05 (in chilogrammi). Da ciò si può concludere che la maggior parte dei dati è nell'intervallo 71±6.05, a condizione che il set di dati non sia molto distorto, e lo è davvero in questo particolare esempio.

Poiché la deviazione standard ha le stesse unità dei dati originali, ci dà una misura di quanto sono deviati i dati dal centro; maggiore è la deviazione standard maggiore è la dispersione. Inoltre, la deviazione standard sarà un valore non negativo indipendentemente dalla natura dei dati nel set di dati.

Qual è la differenza tra deviazione standard e media?

• La deviazione standard è una misura della dispersione dal centro, mentre la media misura la posizione del centro di un set di dati.

• La deviazione standard è sempre un valore non negativo, ma la media può assumere qualsiasi valore reale.

Consigliato: