Reliability of raters (interbeoordelaarsbetrouwbaarheid)
4 belangrijke vragen over Reliability of raters (interbeoordelaarsbetrouwbaarheid)
4 methoden van interbeoordelaarsbetrouwbaarheid: Kendall Coefficient of Concordance (Kendall's W); Cohen's Kappa; r(wg); intraclass correlation > Waar hangt de keuze voor de methode vanaf (2)?
- Aantal beoordelaars
- Meetniveau van de beoordelingen
Wanneer gebruik je Kendall's coefficient of concordance (W) / wat houdt het in? & Wat is de vuistregel over hoe hoog dit moet zijn?
Meten:
- H0: W = 0
- Ha: W > 0
- Vuistregel: tussen .7 en .9 is goed.
Wanneer gebruik je Cohen's Kappa coefficient / wat houdt het in? & Wat is de vuistregel over hoe hoog dit moet zijn?
Meten:
- H0: kappa = 0
- Ha: kappa > 0
- Vuistregel: tussen .4 en .75 is redelijk goed & > .75 is sterke overeenstemming.
- Hogere cijfers + sneller leren
- Niets twee keer studeren
- 100% zeker alles onthouden
Wanneer gebruik je r(wg) / wat houdt het in? & Leg de volgende formule uit:
r(wg) = (s(e)^2 - s(x)^2) / s(e)^2
& Wat is de vuistregel over hoe hoog dit moet zijn?
r(wg) = (s(e)^2 - s(x)^2) / s(e)^2
- s(x)^2 = de variantie van de cijfers
- s(e)^2 = de theoretische variantie als de overeenstemming tussen de beoordelaars nul is (dus als iedereen iets anders kiest). Deze hangt af van de onder en bovengrens (dus 1 en 10 uit het voorbeeld).
Vuistregel: > .7 is wenselijk. Tussen .8 en .85 is redelijk.
De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:
- Een unieke studie- en oefentool
- Nooit meer iets twee keer studeren
- Haal de cijfers waar je op hoopt
- 100% zeker alles onthouden