Factoriele ANOVA

12 belangrijke vragen over Factoriele ANOVA

Bij een fANOVA test je voor homogeniteit. Dit betekent dat de variantie van alle groepen gelijk is. Als die niet significant is is dat goed. Bij het schenden van homogeniteit heb je heteroscacedascititeit. Wat betekent het als je een onderschatting of overschatting doet?

-  Bij het onderschatten denk je dat je meer precisie hebt dan je eigenlijk hebt. Je hebt dan meer risico op een type 1 fout.
-  Bij het overschatten is het echter te groot in vergelijking met de echte waarde, wat meer kans betekent op een type 2 fout.
--> Heteroscacedasticiteit vergroot dus de kans op type 1 of type 2 fout!

Wat kan je doen als de assumptie van homogeniteit geschonden is en je hebt dus heteroscedasticiteit? Noem drie punten

Hoe ga je daar mee om?
-  Als je een grote sample hebt is heteroscacedasticiteit niet echt een probleem.
- Bij kleine datasets moet je de data transformeren om te zorgen dat de varianties gelijk worden.
- Je kan het ook negeren en gewoon doorgaan met de analyse.

Bij een fANOVA heb je meer factoren in je model dan bij een one-way ANOVA, dus dit betekent dat je ook meerdere hypothesen hebt die je wil testen. Dit heeft gevolgen. Wat is een belangrijk gevolg? En hoe kan je hier rekening mee houden (x4).

Meerdere hypothesen = verhoogde error inflatie.
- Controleren van type-1 fout. Je kan dit corrigeren door middel van een bonferroni
- Omnibus F-test doen: dan
ga je allemaal losse eenweg-ANOVA’s doen van alle factoren die in je factoriele ANOVA zitten. Zodat je dan maar één hypothese test per keer.
- Priori de hypothesen al opstellen en die te gaan testen (contrast of regressie)
- Controleren voor false discovery rate
  • Hogere cijfers + sneller leren
  • Niets twee keer studeren
  • 100% zeker alles onthouden
Ontdek Study Smart

Wat zijn drie andere kenmerken van een fANOVA?

- Bij een factoriele ANOVA kijk je naar meerdere variabelen EN dus ook naar het interactie-effect tussen beide factoren. De interactie heeft een eigen F-test.
- Iedere hypothese wordt getoetst met een F-distributie, maar dit is wel een andere formule. Elke factor/variabele heeft een eigen F-test, en dus ook het interactie-effect.
- Je hebt ook allemaal eigen vrijheidsgraden, gebaseerd op het aantal levens die we kunnen observeren binnen iedere factor.

Wat is de link tussen een ANOVA en een OLS-regressie? Noem twee punten

1. Regressie: Bij regressie willen we ook de Sum of Squares (de variatie die kan worden verklaard door de x) in de uitkomst uitleggen, die heet dan de Regressie Sum of Squares.
- De Error Sum of Squares is de variantie die niet kan worden verklaard door x.

2. ANOVA: Bij ANOVA hebben we de Between Sum of Squares (de variantie in de uitkomst die het model kan verklaren).
- De Within Sum of Squares is de variantie die het model niet kan verklaren.

Bij een fANOVA heb je ook een interactie-effect. Wat houdt dit in? Noem twee punten

- Betekent dat de twee factoren interacteren mogelijk met elkaar. Er zijn dan geen parallelle lijnen.
-  De uitkomst wordt dan beïnvloed door de combinatie van die twee factoren.

Bij de assumptie van de fANOVA heb je alle zelfde assumpties als bij een ANOVA, maar dan met de assumptie voor orthogonaliteit erbij. Wat bekijken we om de assumptie van orthonaliteit van factor A en B te checken? Wat houdt de assumptie in als het NIET geschonden is en wat betekent het? Licht toe aan de hand van twee punten

Orthogonaliteit niet geschonden: Als er orthogonaliteit is, overlappen factor A en B elkaar niet in hun verklaarde variantie met betrekking tot de
afhankelijke variabele Y. Dit is een aanname van de F-ANOVA. We kunnen dit illustreren in Venn-diagrammen. Dit is het geval wanneer de cellen gelijk zijn (hetzelfde aantal deelnemers in elke groep) of ongelijk maar toch in evenwicht (niet hetzelfde aantal deelnemers in alle groepen, maar minstens hetzelfde voor één factor, bijvoorbeeld op geslacht).

Bij de assumptie van de fANOVA heb je alle zelfde assumpties als bij een ANOVA, maar dan met de assumptie voor orthogonaliteit erbij. Wat betekent het als de assumptie WEL geschonden is (wat je niet wilt!!!!)? Licht tevens kenmerk toe

Assumptie van orthogonaliteit wel geschonden = twee factoren zijn dan met elkaar gecorreleerd. Dit komt vaak als we ongelijke en ongebalanceerde cellen hebben. Hierdoor heb je overlap in de Venn diagram.

Als de assumptie van orthogonaliteit wordt geschonden, dan kan je twee dingen doen: type 3 stimultane methode en type 1 stapsgewijze methode. SPSS heeft een standaard voor het gebruik van het type III. Als je ervoor kiest om een ​​type I te doen, dan moet je verdedigen waarom je ervoor kiest om een ​​bepaalde factor voorop te stellen. Wat is het effect van type 3 versus type 1 op de sums of squares in SPSS output? Licht toe aan de hand van twee punten


Effect van type 3 versus type 1 op de sums of squares in SPSS output:

- Zoals je kan zien in de foto, is de som van de factoren, de interactie & error in de type III tabel niet gelijk aan
de gecorrigeerde kwadratentotalen. De overlap wordt namelijk niet toegeschreven.
- In de type I tabellen zie je wel dat de som klopt. Je ziet ook dat de kwadratensom voor A en
B verandert op basis van welke u als eerste plaatst. Ten slotte zou je kunnen opmerken dat de som van de kwadraten van de interactie en error nooit verandert.

Als we het hebben over partiele effectmaten in de fANOVA. De effectgrootte van een factor wordt berekend met het Eta-kwadraat voor alleen die factor. Hoe wordt het berekend en wat houdt het eigenlijk in?

- Partiele effectgrootte: De partiële effectgrootte is de verhouding van verklaarde variantie geassocieerd met een effect (bijvoorbeeld factor A) tot het effect + de bijbehorende foutvariantie. Het is dus foutenpercentage dat een factor (A, B of A*B) verwijdert door deze factor in het model op te nemen nadat de verklaarde variantie van de andere factoren al is toegewezen.

- Berekend: Dit wordt berekend door
de kwadratensommen van factor A en deze delen door de kwadratentotalen. (Dit laat dus zien hoeveel variantiefactor A verklaart in relatie tot de totale variantie). Zie foto voor formuleblad

Welk gemiddelde wil je kiezen: ongewogen of gewogen? Er is geen uniform antwoord, maar Warner suggereert twee dingen. Licht toe.

- Gebruik een gewogen gemiddelde wanneer het verschil in aantallen het gevolg is van een verstorend effect tussen factoren.
- Gebruik ongewogen middelen wanneer het verschil in aantallen aan toeval kan worden toegeschreven.

Bij fANOVA heb je gebalanceerde en ongebalanceerde designs. Wat is het verschil?

Gebalanceerde versus ongebalanceerde ontwerpen
- Gebalanceerd: gelijke groepsgroottes (dus gelijke deelnemers n in elke groep op de onafhankelijke factor(en)) 
- Ongebalanceerd: ongelijke groepsgroottes

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo