Factoriële designs - factoriële ANOVA
44 belangrijke vragen over Factoriële designs - factoriële ANOVA
Iedere statistische toets heeft een eigen effectgrootte. Grofweg zijn er voor het bepalen van een effectgrootte twee benaderingen. Welke?
- De sterkte van een effect uitgedrukt in een proportieverklaarde variantie, analoog aan een gekwadrateerde correlatiecoëfficiënt bij regressieanalyse; R2, partieel ètakwadraat (ɳ2) en omegakwadraat (ω2).
- Een gestandaardiseerde mate waarin gemiddelden van elkaar verschillen; de belangrijkste varianten zijn Cohen's d en Cohen's f.
Wat is de F-waarde feitelijk?
Wat is de waarde van een F-statistiek?
F = Model mean of squares (MSm) : Model Residual mean of squares (MSr).
- Hogere cijfers + sneller leren
- Niets twee keer studeren
- 100% zeker alles onthouden
Hoe verhoudt de power voor de F-toets zich tot de power voor de t-toets?
- De aantallen voor de power zijn gelijk. Dat er dezelfde getallen uitkomen is logisch: een variantieanalyse met twee groepen is hetzelfde als een onafhankelijke t-toets. De p-waarden van die twee toetsen zullen wel altijd precies hetzelfde zijn, tenminste, als de t-toets wordt gebruikt die gelijke varianties aanneemt. Variantieanalyse heeft die aanname immers ook
Wat is de total sum of squares?
Wat zeggen de b-waarden bij een F-test?
Klopt de stelling dat de F-waarde stijgt als de 0-hypothese niet waar is en dus verworpen kan worden?
- Ja, dit klopt. De verklaarbare variantie (= MS verklaard) is groter dan MS onverklaard.
- F < 1: niet significant, MSR > MSM - er is meer onsystematische variantie dan systematische.
- De R sq is dan significant en daarmee ook het regressiemodel.
De F-toets geeft niet specifiek aan welke groep van elkaar verschillen. Het geeft aan dat de groep van elkaar verschillen. Je zou de elke groep met elkaar kunnen vergelijken, maar dan neemt de Type 1 fout toe, omdat je steeds dezelfde test doet.
Als een single test de F-toets controleert de Type I fout.
Wat is de model sum of squares?
SSm = N x (gem groep - alg gem) in het kwadraat. Deze uitkomsten worden opgeteld.
Wat is de residual sum of squares?
SSr = variatie groep x vrijheidsgraden (n - 1) enz. Deze uitkomsten worden opgeteld.
12.2.1 Wat zegt de F-statistic?
- de F is klein als bijv de groepsgemiddelden zo goed als gelijk zijn.
- de F is groot als de gemiddelden erg van elkaar verschillen.
Als de groepsgemiddelden gelijk zijn dan is het verschil 0.
12.2.2 Wat is Total sum of Squares/ SST?
Om de totale hoeveelheid variatie te vinden in onze data, berekenen we het verschil tussen elke datapunt en de grand mean. Deze verschillen gaan we kwadrateren en dan optellen. Dat is SST.
Wat wordt verstaan onder homogeniteit? Hoe kan dit worden getoetst?
Het toetsen van homogeniteit kan door middel van Levene's test. Bij een significante uitkomst (P = <0.05) is de homogeniteit geschonden en moet er worden aangepast (Brown-Forsythe F en Welch's F).
12.2.3 Wat is the model of sum of squares/ SSM?
Oftewel: totale hoeveelheid variatie die verklaard kan worden uit het model en dus GEEN toeval is.
Het gaat over tussengroepenvariatie -> Nederlandse vertaling.
Wanneer wordt een gepland contract of een post-hoc test gebruikt?
12.2.3 En hoe bereken je de SSM? Zie ook aantekeningen
- het gemiddelde van elke groep - grand mean.
- deze uitkomst te kwadrateren.
- de kwadranten x het aantal deelnemers per groep.
- de uitkomsten van de getallen weer optellen.
dfm is bij 3 groepen (3-1) = 2 en omdat df gaat over het aantal groepen wordt het met k -1 aangeduid.
Welke 3 vuistregels zijn van belang bij het uitwerken van contrasten?
2. Een contrast vergelijkt slechts 2 brokken variatie.
3. Een gekozen groep kan niet in een ander contrast terugkomen.
Wat zijn situaties die ANOVA niet robuust maken? (3) En wanneer is deze wel robuust?
12.2.4 Wat betekent de residual sum of squares SSR? = binnengroepsvariantie?
Het zijn bijv meetfouten, individuele verschillen.
Wat zijn oplossingen voor het feit dat ANOVA niet robuust is? (3)
12.2.4 Hoe bereken je SSR?
dfR = dfT - dfM oftewel N - k --> totale groepsgrootte - het aantal groepen.
Wat is het stappenplan voor het opstellen van contrasten? (7)
2) Vooraf specifieke hypothesen? Planned contrasts
3) Elk contrast vergelijkt twee stukjes variantie
4) 1e contrast: experimentele-controle groepen
5) Volgende: opdelen van groepen die >1 stukjes bevatten
6) Herhalen voorgaande stap tot iedere groep op zichzelf staat
7) Het aantal contrasten moet 1 minder dan het aantal groepen zijn
En na de SST, SSM en SSR bereken je de MS: waarom doen we dit en hoe?
MSM is SSM delen door dfM
MSR is SSR delen door dfR
MSM staat voor de gemiddelde hoeveelheid variatie die door het model wordt verklaard.
Wat zijn de regels voor het toeschrijven van gewichten aan contrasten?
2) Positieve gewichten worden met negatieve vergeleken
3) Contrasten moeten opgeteld 0 zijn (dan is er sprake van 2 unieke stukken variatie)
4) Een waarde van 0 toekennen als groep niet in het contrast zit
5) Het gewicht van een stuk variatie moet gelijk zijn aan het aantal groepen waarmee het vergeleken wordt
12.2.6
Als de F is berekent , dan kun je zien of deze significant is. Vervolgens kan het verstandig zijn om naar de kritieke waarde (alpha) te kijken in de F-verdeling (blz 1001 en 1003). Waarom?
Als de F dan groter is dan de kritieke waarde < .01 (en in de rekensom blz 534 is dit zo), dan kun je zeggen dat de F significant is bij kritieke waarde < .05
Wat zijn orthogonale contrasten?
Paragrafen 12.2.2 t/m 12.2.6 laten zich globaal samenvatten als: (zie blz 16 getypte samenvatting)
Wat zijn de verschillende contrasten in SPSS? (7)
2) Deviation (last): effect iedere groep met het experimentele effect (behalve de laatste)
3) Simple (first): Iedere categorie wordt vergeleken met de eerste categorie
4) Simple (last): Iedere categorie wordt vergeleken met de laatste categorie
5) Repeated: Iedere categorie (behalve de eerste) wordt vergeleken met de voorgaande categorie
6) Helmert: Iedere categorie (behalve laatste) wordt vergeleken met gemiddeld effect volgende categorieën
7) Difference: Iedere categorie (behalve eerste) wordt vergeleken met gemiddeld effect volgende categorieën
12.3.1
Wat te doen als homogeniteit van variantie in het gedrang komt door ongelijke groepsgroottes --> je hebt dan schending van de aanname van homogeniteit (en dat schaadt je onderzoek, want het is naast de normaalverdeling een belangrijk aanname)
- Dan doe je de F corrigeren door Brown-Forsythe F en de Welch's F.
Zo corrigeer je de mate van heterogeniteit. In het onderzoek gebruik je dan ook de gecorrigeerde F.
12.3.2
Onder welke omstandigheden is ANOVA robuust?
Normaalverdeling is met name belangrijk voor de significantie en het maken van betrouwbaarheidsintervallen.
Wilcox zegt dat de F robuust is als de groepsverdelingen gelijk zijn, bijvoorbeeld dat de scheefheid van alle groepen gelijk zijn.
In de praktijk is dit eigenlijk NIET het geval.
12.3.2
Geen normaal verdeling of homoscedastiteit heeft invloed op F , zelfs als de groepsgrootte gelijk is?
12.4
Als we verschillende groepen hebben en we willen deze vergelijken, dan is het handig om te dummycoderen.
Wat zijn de nadelen van dummycoderen?
- Je maakt niet alle vergelijkingen die je zou willen maken (bijv. 2 groepen en controlegroep en je zet de beide groepen af tegen de controle groep).
Wat zijn de stappen bij het bekijken van de data? (3)
2) Between-subjects: gehele experimentele effect (combined - groepsgemiddelden)
3) Within-subjects: onsystematische variatie (individuele verschillen). SS_R en MS_R.
12.4
Welke oplossingen zijn er voor de nadelen van dummycoderen?
De contrasten moeten onafhankelijk van elkaar zijn.
- worden gebruikt om specifieke hypothesen te testen en hoe je design wordt, dan moet je theoretisch onderbouwen.
- en moet duidelijk zijn voordat je de data verzameld.
- post-hoc tests = elk groepsgemiddelde met elkaar vergelijken en een meer strikte acceptatie criterium gebruiken om de foutfrequentie op .05 te houden.
- met name gebruikt als er niet een specifieke hypothese getoetst wordt.
Wat zijn de stappen voor het analyseren van contrasten? (4)
2) Value of contrast: som van groepsgemiddelden vermenigvuldigd met de gewichten
3) t-statistic: contrastwaarde gedeeld door standaarfout
4) Significantie waarden
Wat is een verklaring voor het verschil in uitkomst tussen posthoc-testen en geplande contrasten?
Posthoc: meerdere experimentele groepen met de controle groep
Hierbij is sprake van opportunisme. Bij posthoc komen er dan ook vaak grotere verschillen en dus grotere significantie uit
Waarom is het zo belangrijk dat de gewichten van een contrast de uitkomst 0 hebben?
Je kunt dan de t-test weer gebruiken.
Eigenlijk is de 6de regel bij het toewijzen van gewicht dat je de gewichten in de groep vermenigvuldigt en deze optelt, ook 0 moet zijn. (zie blz 543).
Wat zijn onafhankelijke of orthogonale contrasts?
Wat is het Familywise-foutenpercentage (error-rate)
12.5
Wat betekent post-hoc procedures (a-posteriori)?
Ze zijn vaak gebaseerd op een familywise foutenpercentage ; de waarschijnlijkheid van ten minste één Type I-fout in een set (familie) vergelijkingen.
Voor elke test wordt de alpha gecorrigeerd, zodat het algemeen Type I fout percentage op 0.05 blijft.
Vertel wat over de verschillende post-hoc testen.
- Least-significant difference (LSD): houdt de type I fout niet onder controle.
- Studentized Newman-Keuls (SNK): gebrek aan de familywise-foutenpercentage.
- Bonferroni's en Tukey's test: controle op type I fout, maar gebrek aan statistische power (= conservatief)
--> Tukey heeft meer power dan Dunn en Scheffé.
- REGWQ: power is goed en controle op Type I fout is ook goed. Je kunt deze alleen maar gebruiken als de groepsgrootte van de verschillende groepen even groot zijn.
12.6.1
Wanneer gebruik je one-way (independent) ANOVA?
Het is een lineair model.
12.7.3
Waarom kan de output voor post-hoc test verschillen met de output van de planned contrast?
In de post-hoc tests wordt 1 experimentele groep vergeleken met de controlegroep en wordt er getest of het verschil tussen de gemiddelden van deze 2 groepen significant is.
Het is dus belangrijk om na te denken over wat onze geplande contrasten nu eigenlijk toetsen.
Waarom berekenen we omegakwadraat? Wat een effect size is van de algehele ANOVA en alleen maar een algemene hypothese toetst.
- r is een effect size gericht op jouw steekproef, omegakwadraat is het schatten van de effect size van de populatie.
- Het is een effectgrootte maat die het verband aangeeft tussen een categorische variabele (meestal met 3 of meer) en een intervalvariabele.
- Hij wordt berekend als de Variantieanalyse wordt uitgevoerd. Deze berekenen we omdat deze uitkomst meer precies aangeeft wat het effect in de populatie is. De meting is preciezer dan r.
Als je niet de algemene hypothese met ANOVA wilt toetsen, maar juist de hypothese die te maken hebben 1 groep vs 1 andere groep (planned contrast) --> waarmee moet je deze planned contrast meten?
De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:
- Een unieke studie- en oefentool
- Nooit meer iets twee keer studeren
- Haal de cijfers waar je op hoopt
- 100% zeker alles onthouden