Skillnaden mellan T-TEST och ANOVA



T-TEST vs ANOVA

Insamling och beräkning av statistiska uppgifter för att förvärva medelvärdet är ofta en lång och mödosam uppgift. T-testet och en-vägs variansanalys (ANOVA) är de två mest vanliga tester som används för detta ändamål.

T-testet är ett statistiskt hypotestest där provutfallets följer en student 'st fördelning om nollhypotesen stöds. Detta test används när provutfallets följer en normalfördelning och värdet av en skalnings term i provutfallet är känd. Om skalnings term är okänd, det ersätts sedan med en uppskattning baserad på tillgängliga data. kommer provutfallets följa en student 's t-fördelning.

William Sealy Gosset introducerade t-statistik 1908. Gosset var en kemist för Guinness bryggeri i Dublin, Irland. Guinness bryggeri hade policy av att rekrytera de bästa studenterna från Oxford och Cambridge, välja från dem som skulle kunna ge tillämpningar av biokemi och statistik till företaget 's etablerade industriella processer. William Sealy Gosset var en sådan kandidat. I processen, William Sealy Gosset utarbetat t-test. det var ursprungligen tänkt som ett sätt att övervaka kvaliteten på den stout (den mörka öl bryggeriet producerar) på ett kostnadseffektivt sätt. Gosset publicerade testet under pseudonym 'Student' i Biomet circa 1908. anledningen till pseudonym berodde på Guinness 'envishet, som bolaget ville behålla sin policy om att utnyttja statistik som en del av deras' affärshemligheter '.

T-teststatistik följer i allmänhet formen T = Z / s, där Z och s är funktioner av data. Z variabeln är konstruerad för att vara känslig för den alternativa hypotesen; effektivt, är storleken av Z-variabeln större när den alternativa hypotesen är sann. Under tiden, 's' är en skalningsparameter, vilket gör att fördelningen av T som skall bestämmas. De antaganden som ligger till grund en t-test är att a) Z är efter en standardnormalfördelning under nollhypotesen; b) ps2 följer en ?? två fördelning med p frihetsgrader under nollhypotesen (där p är en positiv konstant); och c) Z-värdet och S-värdet är oberoende. I en specifik typ av t-test, dessa villkor är konsekvenser av populationen som studeras, och av det sätt på vilket data samplas.

Å andra sidan, är analys av varians (ANOVA) en samling av statistiska modeller. Medan principerna för ANOVA har använts av forskare och statistiker för en lång tid, var inte det 'inte förrän 1918 som Sir Ronald Fisher gjorde ett förslag om att formalisera variansanalys i en artikel med rubriken' Korrelationen mellan släktingar på antagandet av Mendelian Inheritance ' . sedan dess ANOVA har utökats i omfattning och tillämpning. ANOVA är faktiskt en missvisande eftersom det inte härrör från skillnader i avvikelser utan snarare från skillnaderna mellan hjälp av grupper. det omfattar därmed förbundna förfaranden där observerade variansen i en variabel är uppdelad i komponenter som kan hänföras till olika källor till variation.

I grund och botten, ger en ANOVA ett statistiskt test av att avgöra om hjälp av flera grupper är alla lika eller inte och som ett resultat, generaliserar t-test för att mer än två grupper. En ANOVA kan vara mer användbar än en tvåprovs t-test eftersom det har en mindre chans att begå ett typ I fel. Till exempel, skulle ha flera tvåprovs t-test har en större chans att begå ett fel än en ANOVA av samma variabler inblandade för att få medelvärdet. Modellen är densamma och provutfallet är F-förhållandet. Enklare uttryckt, t-test är bara ett specialfall av ANOVA: göra en ANOVA kommer att ha samma resultat av flera t-test. Det finns tre klasser av ANOVA modeller: a) fast effekter modeller som antar uppgifterna kommer från normala populationer, som skiljer sig endast i sina medel; b) slumpmässiga effekter modeller som antar data beskriver en hierarki av olika populationer vars skillnader begränsas av hierarkin; och, c) modeller Mixed-effekt som är situationer där fasta och slumpmässiga effekter är närvarande.



Sammanfattning:

1.

T-test används vid fastställandet om två medelvärden eller medel är samma eller olika. ANOVA är att föredra om man jämför tre eller flera medelvärden eller medel.

2.