In analisi statistiche, " significato " ha un preciso significato tecnico . Nell'uso generale , significativo può significare che qualcosa ha un senso , o è importante. Tuttavia, quando gli scienziati e gli altri analisti di dati dicono che il risultato è stato significativo , non significano semplicemente un grande e notevole riscontro . Significano che i risultati ottenuti in questo studio sono soddisfatte certe condizioni statistiche . Importanza Testing
"ipotesi" è una previsione o una spiegazione per un certo fenomeno . Nella scienza , queste ipotesi sono testati in studi in cui i dati sono raccolti e poi analizzati per vedere se supporta o smentisce l'ipotesi . Tuttavia, poiché la raccolta e l'analisi dei dati non è mai perfetta , c'è sempre una certa probabilità di ottenere un risultato positivo , anche quando l'ipotesi è effettivamente corretto . Test di significatività cerca di capire cosa questa probabilità è , minore è la probabilità , la più significativi i risultati
P valorizza
Importanza viene segnalato con un " valore p . . " Questo valore misura la probabilità da zero , il che significa 0 per cento di possibilità , e 1 , il che significa 100 per cento di possibilità . Più la cifra è a zero , più difficile è quello di ottenere i risultati ottenuti nell'analisi per caso , e quindi le più ricercatori fiducia può avere nei risultati . . Il valore p è calcolato attraverso procedure di analisi complesse , di solito utilizzando programmi software specializzati
Alpha
Una questione importante per gli analisti da porsi è: " Che p valore è accettabile ? " Questo " livello accettabile "si chiama l'alfa , ed è il punto di cut - off , di sotto del quale i risultati sono considerati statisticamente significativi . In molti campi , tra cui la psicologia, la sociologia e l'economia , l'alfa è impostato su 0,05 . Ciò significa che , se la probabilità di ottenere i risultati per caso è del 5 per cento o inferiore , sono considerati statisticamente significativi .
Tipo I e tipo II errori
il livello alfa ha importanti implicazioni . Quando è impostato troppo alto, per esempio 0.2 , i falsi positivi saranno scivolare attraverso la rete e gli analisti assumono un effetto quando non ce n'è uno . Questo è un errore di I tipo . Quando è impostato troppo basso , per esempio 0.0001 , falsi negativi possono essere fatte e ricercatori possono assumere alcun effetto se ce n'è uno. Questo è un errore di tipo II . Non esiste un modo scientifico per impostare alfa , e la convenzione comunemente usato 0.05 è essenzialmente arbitrario .
Limitazioni
Una limitazione importante di NHST è che il valore p è altamente influenzato dal numero di punti di dati nell'analisi. Se ci sono migliaia di punti di dati per l'analisi , anche piccoli effetti stessi possono essere statisticamente significativo . Quindi , un effetto significativo in uno studio non potrebbe rappresentare qualcosa che sta avendo un effetto nel mondo reale . Per ovviare a questo , il significato è di solito combinata con altre statistiche , come ad esempio l '" effect size ", che approssima la dimensione della differenza .