Multiple regressie-analyse
12 belangrijke vragen over Multiple regressie-analyse
Hoe kan een multiple regressie analyse gestandaardiseerd worden?
Waarom is multicollineariteit onwenselijk?
- het model wordt complexer zonder dat er winst is
- het levert interpretatieproblemen op.
Wat gebruikt men om weer te geven hoe goed een mulptile-regressie analyse is?
- Hogere cijfers + sneller leren
- Niets twee keer studeren
- 100% zeker alles onthouden
Hoe hoog moet de R2 zijn?
Waarom is de adjusted R2 een penalty maat?
Welke voordelen heeft een multiple regressie-analyse ten opzichte van meerdere bivariate analyses?
- de voorspelling van de afhankelijke variabelen worden geoptimaliseerd. de X-en zorgen ervoor dat we de Y zo goed mogelijk kunnen benaderen.
- je laat de x-en een wedstrijdje doen. Iedere variabele draagt bij aan de voorspelling. De belangrijkste voorspellers zullen de grootste Beta, het grootste regressiegewicht, krijgen.
Bij de keuze van predictoren spelen twee overwegingen een rol
- inhoudelijk: een predictor moet een bijdrage leveren aan de theorievorming.
- statistisch: deze benadering heeft kans op kanskapitalisme dus moet er een grote steekproef getrokken worden. minimaal 10 respondenten op 1 variabel.
Welke assumpties zijn er voor multiple-regressieanalyse?
- X en Y op interval niveau
- X en Y hebben een lineair verband
- X = fixed, Y = random
- er worden drie eisen aan de voorspelfouten gesteld:
- onderling onafhankelijk
- normaal verdeeld
- homoscedastisch.
Om te testen welke variabelen bijdragen zijn er 4 verschillende methoden om dit te controleren:
- enter: alle variabelen worden ongeacht mate van bijdragen toegevoegd.
andere optie is om SPSS te laten zoeken naar de variabelen die de beste voorspelling opleveren en het zuinigste model zoeken:
- backwards: begint met alle variabelen en zal ze verwijderen als ze niet significant bijdragen
- forwards: procedure zal een voor een de bijdragende variabele toevoegen.
- stepwise: combinatie van backwards en forwards waarbij de toegevoegde/verwijderde variabelen later toch nog toegevoegd of verwijderd kunnen worden.
Welke SPSS middelen kunnen er gebruikt worden om de assumpties van multiple regressieanalyses te controleren?
- histogram van de errortermen: normaal verdeeld of niet
- plot van de errortermen: homoscedastisch?
- durbin-watson: afhankelijkheid in de residuen. als de waarde boven de 2 uitkomt: dan geen afhankelijkheid.
Waarom wordt er aangeraden om de oorspronkelijke variabel te centreren voor de berekening van een interactie-effect?
- wanneer de variabelen in hun oorspronkelijke vorm gelaten worden dan ontstaat er multi-collineairiteit tussen de oorspronkelijke variabelen en de interactie-variabelen
- in het geval dat ze niet worden gecentreerd dan geeft het regressiegewicht van de ene variabele, als de andere variabele gelijk is aan 0.
Hoe kan je multicollineariteit voorkomen?
- door voor iedere voorspeller de tolerantie uit te rekenen.
- door voor iedere variabel de correlatiematrix uit te draaien om te bezien of er geen variabelen met sterke onderlingen correlatie zijn.
- om vanuit de performance van het model te redeneren bij de keuze van de predictoren.
De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:
- Een unieke studie- en oefentool
- Nooit meer iets twee keer studeren
- Haal de cijfers waar je op hoopt
- 100% zeker alles onthouden