Factoriële designs - factoriële ANOVA

44 belangrijke vragen over Factoriële designs - factoriële ANOVA


Iedere statistische toets heeft een eigen effectgrootte. Grofweg zijn er voor het bepalen van een effectgrootte twee benaderingen. Welke?



  • De sterkte van een effect uitgedrukt in een proportieverklaarde variantie, analoog aan een gekwadrateerde correlatiecoëfficiënt bij regressieanalyse; R2, partieel ètakwadraat (ɳ2) en omegakwadraat (ω2).
  • Een gestandaardiseerde mate waarin gemiddelden van elkaar verschillen; de belangrijkste varianten zijn Cohen's d en Cohen's f.
In de praktijk betekent dit dat bij een t-toets een Cohen’s d een geschikte maat is.

Wat is de F-waarde feitelijk?

De F-waarde is een verhoudingsmaat tussen de variantie tussen groepen en de variantie binnen groepen.

Wat is de waarde van een F-statistiek?

F is de meting van de omvang van de variatie verklaard door het model ten opzichte van de variatie van onsystematische factoren. Wanneer deze waarde minder dan 1 is, (MSr is groter dan MSm) dan is de niet-systematische variabele groter dan de systematische en is er dus geen effect. Dit zegt niets over de individuele groepen, maar door de enkele test blijft de kans op een type 1 fout beperkt.

F = Model mean of squares (MSm) : Model Residual mean of squares (MSr).
  • Hogere cijfers + sneller leren
  • Niets twee keer studeren
  • 100% zeker alles onthouden
Ontdek Study Smart


Hoe verhoudt de power voor de F-toets zich tot de power voor de t-toets?

  • De aantallen voor de power zijn gelijk. Dat er dezelfde getallen uitkomen is logisch: een variantieanalyse met twee groepen is hetzelfde als een onafhankelijke t-toets. De p-waarden van die twee toetsen zullen wel altijd precies hetzelfde zijn, tenminste, als de t-toets wordt gebruikt die gelijke varianties aanneemt. Variantieanalyse heeft die aanname immers ook

Wat is de total sum of squares?

Met de total sum of squares (SSt) wordt bedoelt de totale omvang van de variatie in een dataset. Dit wordt berekend door het verschil te berekenen tussen elke datapunt en het algehele gemiddelde (grant mean). Deze verschillende worden gekwadrateerd en opgeteld.

Wat zeggen de b-waarden bij een F-test?

Deze komen overeen met die van de formules behorende bij de F-test. Als de nulhypothese waar is en er is geen verschil tussen de groepen, dan zijn de b-waarden gelijk aan 0.

Klopt de stelling dat de F-waarde stijgt als de 0-hypothese niet waar is en dus verworpen kan worden?

  • Ja, dit klopt. De verklaarbare variantie (= MS verklaard) is groter dan MS onverklaard.
  • F < 1: niet significant, MSR > MSM - er is meer onsystematische variantie dan systematische.
  • De R sq is dan significant en daarmee ook het regressiemodel.

De F-toets geeft niet specifiek aan welke groep van elkaar verschillen. Het geeft aan dat de groep van elkaar verschillen. Je zou de elke groep met elkaar kunnen vergelijken, maar dan neemt de Type 1 fout toe, omdat je steeds dezelfde test doet.

Als een single test de F-toets controleert de Type I fout.

Wat is de model sum of squares?

De model sum of squares (SSm) geeft aan hoeveel van de totale variatie verklaard kan worden als gevolg van verschillende scores in verschillende testcondities.

SSm = N x (gem groep - alg gem) in het kwadraat. Deze uitkomsten worden opgeteld.

Wat is de residual sum of squares?

De residual sum of squeres (SSr) is de variatie die niet kan worden verklaard door het model, maar is veroorzaakt door oorzaken buiten onze meting zoals meetfout en individuele aspecten.

SSr = variatie groep x vrijheidsgraden (n - 1) enz. Deze uitkomsten worden opgeteld.

12.2.1 Wat zegt de F-statistic?

- de F is de ratio (de verhouding) tussen hoe goed en hoe slecht het model is; verklaarde en onverklaarde variatie.
- de F is klein als bijv de groepsgemiddelden zo goed als gelijk zijn.
- de F is groot als de gemiddelden erg van elkaar verschillen.

Als de groepsgemiddelden gelijk zijn dan is het verschil 0.

12.2.2 Wat is Total sum of Squares/ SST?

Het vertelt hoeveel variatie er is in de afhankelijke variabele.

Om de totale hoeveelheid variatie te vinden in onze data, berekenen we het verschil tussen elke datapunt en de grand mean. Deze verschillen gaan we kwadrateren en dan optellen. Dat is SST.

Wat wordt verstaan onder homogeniteit? Hoe kan dit worden getoetst?

Homogeniteit is de aanname dat varianties in groepen gelijk zijn.

Het toetsen van homogeniteit kan door middel van Levene's test. Bij een significante uitkomst (P = <0.05) is de homogeniteit geschonden en moet er worden aangepast (Brown-Forsythe F en Welch's F).

12.2.3 Wat is the model of sum of squares/ SSM?

Dat is de hoeveelheid van de totale variatie die verklaard kan worden door dat de verschillende scores van entiteiten komen in verschillende experimentele condities.
Oftewel: totale hoeveelheid variatie die verklaard kan worden uit het model en dus GEEN toeval is. 

Het gaat over tussengroepenvariatie -> Nederlandse vertaling.

Wanneer wordt een gepland contract of een post-hoc test gebruikt?

Een gepland contrast wordt gebruikt bij het toetsen van specifieke hypothesen, terwijl post-hoc wordt gebruikt als er geen hypothesen zijn.

12.2.3 En hoe bereken je de SSM? Zie ook aantekeningen

  • het gemiddelde van elke groep  -  grand mean.
  • deze uitkomst te kwadrateren.
  • de kwadranten  x  het aantal deelnemers per groep.
  • de uitkomsten van de getallen weer optellen.


dfm is bij 3 groepen (3-1) = 2 en omdat df gaat over het aantal groepen wordt het met k -1 aangeduid.

Welke 3 vuistregels zijn van belang bij het uitwerken van contrasten?

1. Een controlegroep vergelijken met een andere groep.
2. Een contrast vergelijkt slechts 2 brokken variatie.
3. Een gekozen groep kan niet in een ander contrast terugkomen.

Wat zijn situaties die ANOVA niet robuust maken? (3) En wanneer is deze wel robuust?

Verschillen in scheefheid, niet-normale verdeling en heteroscedasticiteit. Wel gelijk wanneer er gelijke groepsverdelingen zijn, maar dit is vrijwel nooit het geval

12.2.4 Wat betekent de residual sum  of squares SSR? = binnengroepsvariantie?

Dit is de hoeveelheid variatie dat niet verklaard kan worden door het model.
Het zijn bijv meetfouten, individuele verschillen.

Wat zijn oplossingen voor het feit dat ANOVA niet robuust is? (3)

Welch's F gebruiken, bootstrapping, gebruik van robuuste test (kan ook altijd: Kruskal-Wallis)

12.2.4 Hoe bereken je SSR?

Door: SST - SSM, maar dit geeft maar een beperkt overzicht van wat de SSR betekent en als je de SSM fout hebt berekend of de SST of beide, dan is de uitkomst van SSR ook fout.

dfR =  dfT - dfM  oftewel N - k --> totale groepsgrootte - het aantal groepen.

Wat is het stappenplan voor het opstellen van contrasten? (7)

1) F significant voor gehele model? Afwijkende groep vaststellen
2) Vooraf specifieke hypothesen? Planned contrasts
3) Elk contrast vergelijkt twee stukjes variantie
4) 1e contrast: experimentele-controle groepen
5) Volgende: opdelen van groepen die >1 stukjes bevatten
6) Herhalen voorgaande stap tot iedere groep op zichzelf staat
7) Het aantal contrasten moet 1 minder dan het aantal groepen zijn

En na de SST, SSM en SSR bereken je de MS: waarom doen we dit en hoe?

We doen dit om de bias te elimineren, omdat de SS afhankelijk is van het aantal scores.
MSM is SSM delen door dfM
MSR is SSR delen door dfR

MSM staat voor de gemiddelde hoeveelheid variatie die door het model wordt verklaard.

Wat zijn de regels voor het toeschrijven van gewichten aan contrasten?

1) Logische contrasten: 2 stukken vergelijken
2) Positieve gewichten worden met negatieve vergeleken
3) Contrasten moeten opgeteld 0 zijn (dan is er sprake van 2 unieke stukken variatie)
4) Een waarde van 0 toekennen als groep niet in het contrast zit
5) Het gewicht van een stuk variatie moet gelijk zijn aan het aantal groepen waarmee het vergeleken wordt

12.2.6
Als de F is berekent , dan kun je zien of deze significant is. Vervolgens kan het verstandig zijn om naar de kritieke waarde (alpha) te kijken in de F-verdeling (blz 1001 en 1003). Waarom?

Zo kun je zien of de F die je hebt berekent ook daadwerkelijk stand houdt en significant is. Je kunt ook kijken of de F stand houdt als p-waarde < .01, naast dat je kijkt naar de meest gebruikelijke alpha < .05.

Als de F dan groter is dan de kritieke waarde < .01 (en in de rekensom blz 534 is dit zo), dan kun je zeggen dat de F significant is bij kritieke waarde < .05

Wat zijn orthogonale contrasten?

Hierbij zijn de t-statistieken van de b-waarden onafhankelijk en zijn de p-waarden ongecorreleerd

Paragrafen 12.2.2 t/m 12.2.6 laten zich globaal samenvatten als: (zie blz 16 getypte samenvatting)

Oké

Wat zijn de verschillende contrasten in SPSS? (7)

1) Deviation (first): effect iedere groep met het experimentele effect (behalve de eerste)
2) Deviation (last): effect iedere groep met het experimentele effect (behalve de laatste)
3) Simple (first): Iedere categorie wordt vergeleken met de eerste categorie
4) Simple (last): Iedere categorie wordt vergeleken met de laatste categorie
5) Repeated: Iedere categorie (behalve de eerste) wordt vergeleken met de voorgaande categorie
6) Helmert: Iedere categorie (behalve laatste) wordt vergeleken met gemiddeld effect volgende categorieën
7) Difference: Iedere categorie (behalve eerste) wordt vergeleken met gemiddeld effect volgende categorieën

12.3.1
Wat te doen als homogeniteit van variantie in het gedrang komt door ongelijke groepsgroottes  --> je hebt dan schending van de aanname van homogeniteit (en dat schaadt je onderzoek, want het is naast de normaalverdeling een belangrijk aanname)

- Je test de aanname door de leven's test: de p-waarde moet in dit geval > .05 om de homogeniteit te bevestigen. Als het kleiner is dan < .05 dan is de conclusie dat de varianties significant verschillen en dan moeten we bijstellen.

- Dan doe je de F corrigeren door Brown-Forsythe F  en de Welch's F.
Zo corrigeer je de mate van heterogeniteit. In het onderzoek gebruik je dan ook de gecorrigeerde F.

12.3.2
Onder welke omstandigheden is ANOVA robuust?

Robuust wil zeggen dat het niet uitmaakt of we ons niet aan de aannames houden, de F blijft wel accuraat. Het zijn antieke gedachtes die gaan over onderzoek wat ouder is dan 35 jaar. Toen dacht men dat als de groepsgrootte gelijk zijn de F-toets wel de aanname van normaalverdeling en de homogeniteit geschonden kon worden.
Normaalverdeling is met name belangrijk voor de significantie en het maken van betrouwbaarheidsintervallen.

Wilcox zegt dat de F robuust is als de groepsverdelingen gelijk zijn, bijvoorbeeld dat de scheefheid van alle groepen gelijk zijn.
In de praktijk is dit eigenlijk NIET het geval.

12.3.2
Geen normaal verdeling of homoscedastiteit heeft invloed op F , zelfs als de groepsgrootte gelijk is?

Ja!

12.4
Als we verschillende groepen hebben en we willen deze vergelijken, dan is het handig om te dummycoderen.
Wat zijn de nadelen van dummycoderen?

- We moeten uiteindelijk 2 of meer t-tests doen en daarmee verhogen we de type I fout.
- Je maakt niet alle vergelijkingen die je zou willen maken (bijv. 2 groepen en controlegroep en je zet de beide groepen af tegen de controle groep).

Wat zijn de stappen bij het bekijken van de data? (3)

1) Checken op variatie: weinig/geen -> geen Levene's
2) Between-subjects: gehele experimentele effect (combined - groepsgemiddelden)
3) Within-subjects: onsystematische variatie (individuele verschillen). SS_R en MS_R.

12.4
Welke oplossingen zijn er voor de nadelen van dummycoderen?

- contrastcodering = een manier om 'gewicht' aan groepen toe te wijzen in dummy variabelen om geplande contrasten (= planned contrast = planned comparisons) uit te voeren.
De contrasten moeten onafhankelijk van elkaar zijn.
  • worden gebruikt om specifieke hypothesen te testen en hoe je design wordt, dan moet je theoretisch onderbouwen.
  • en moet duidelijk zijn voordat je de data verzameld.

- post-hoc tests =  elk groepsgemiddelde met elkaar vergelijken en een meer strikte acceptatie criterium gebruiken om de foutfrequentie op .05 te houden.
  • met name gebruikt als er niet een specifieke hypothese getoetst wordt.

Wat zijn de stappen voor het analyseren van contrasten? (4)

1) Kijken naar 'equal variances not assumed'
2) Value of contrast: som van groepsgemiddelden vermenigvuldigd met de gewichten
3) t-statistic: contrastwaarde gedeeld door standaarfout
4) Significantie waarden

Wat is een verklaring voor het verschil in uitkomst tussen posthoc-testen en geplande contrasten?

Geplande contrasten: een experimente groep met de controle groep
Posthoc: meerdere experimentele groepen met de controle groep
Hierbij is sprake van opportunisme. Bij posthoc komen er dan ook vaak grotere verschillen en dus grotere significantie uit

Waarom is het zo belangrijk dat de gewichten van een contrast de uitkomst 0 hebben?

Omdat je dan weet dat je met 2 uniek 'brokken' te maken hebt en ze dus onafhankelijk van elkaar zijn.
Je kunt dan de t-test weer gebruiken. 

Eigenlijk is de 6de regel bij het toewijzen van gewicht dat je de gewichten in de groep vermenigvuldigt en deze optelt, ook 0 moet zijn.   (zie blz 543).

Wat zijn onafhankelijke of orthogonale contrasts?

Als je de 5 (en eigenlijk 6) regels volgt.

Wat is het Familywise-foutenpercentage (error-rate)

Het foutenpercentage per gezin (FWE of FWER) is de kans dat er in een reeks hypothesetests ten minste één valse conclusie wordt getrokken . Met andere woorden, het is de kans om ten minste één Type I-fout te maken . De term 'gezinsgewijs' foutenpercentage komt van een reeks tests , wat de technische definitie is voor een reeks tests op gegevens.

12.5
Wat betekent post-hoc procedures (a-posteriori)?

Post-hoc (Latijn, wat 'hierna' betekent) betekent het analyseren van de resultaten van uw experimentele gegevens. Je doet ze als je geen specifieke hypothese hebt.
Ze zijn vaak gebaseerd op een familywise foutenpercentage ; de waarschijnlijkheid van ten minste één Type I-fout in een set (familie) vergelijkingen.

Voor elke test wordt de alpha gecorrigeerd, zodat het algemeen Type I fout percentage op 0.05 blijft.

Vertel wat over de verschillende post-hoc testen.

  • Least-significant difference (LSD): houdt de type I fout niet onder controle.
  • Studentized Newman-Keuls (SNK): gebrek aan de familywise-foutenpercentage.
  • Bonferroni's en Tukey's test: controle op type I fout, maar gebrek aan statistische power (= conservatief)
--> verschil: Bonferroni heeft meer power als het aantal vergelijkingen klein is. Tukey heeft meer power als er veel getallen van gemiddelden worden vergeleken.
--> Tukey heeft meer power dan Dunn en Scheffé.
  • REGWQ: power is goed en controle op Type I fout is ook goed. Je kunt deze alleen maar gebruiken als de groepsgrootte van de verschillende groepen even groot zijn. 

12.6.1
Wanneer gebruik je one-way (independent) ANOVA?

Voor situaties waarin je een voorspelling doet over de  uitkomst van verschillende groepsgemiddelden.
Het is een lineair model.

12.7.3
Waarom kan de output voor post-hoc test verschillen met de output van de planned contrast?

Dat heeft te maken met dat bij contrast 1 het gemiddelde van 2 experimentele groepen vergeleken wordt met de controlegroep. En dan werd er gekeken naar of het verschil tussen deze waarden significant is.
In de post-hoc tests wordt 1 experimentele groep vergeleken met de controlegroep en wordt er getest of het verschil tussen de gemiddelden van deze 2 groepen significant is. 

Het is dus belangrijk om na te denken over wat onze geplande contrasten nu eigenlijk toetsen.

Waarom berekenen we omegakwadraat? Wat een effect size is van de algehele ANOVA en alleen maar een algemene hypothese toetst.

  • r is een effect size gericht op jouw steekproef, omegakwadraat is het schatten van de effect size van de populatie.
  • Het is een effectgrootte maat die het verband aangeeft tussen een categorische variabele (meestal met 3 of meer) en een intervalvariabele.
  • Hij wordt berekend als de Variantieanalyse wordt uitgevoerd. Deze berekenen we omdat deze uitkomst meer precies aangeeft wat het effect in de populatie is. De meting is preciezer dan r.

Als je niet de algemene hypothese met ANOVA wilt toetsen, maar juist de hypothese die te maken hebben 1 groep vs 1 andere groep (planned contrast) --> waarmee moet je deze planned contrast meten?

Met de t-statistic.

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo