Reliability Theory - Kappa, gewogen kappa (categorische data)
7 belangrijke vragen over Reliability Theory - Kappa, gewogen kappa (categorische data)
Wat is het woord voor betrouwbaarheid wanneer men spreekt van overeenstemming bij categorische variabelen?
Hoe berekent men de Kappa?
Observed overeenstemming optellen/totaal aantal observaties = geobserveerde overeenstemming
Wat is de definitie van de kappa/hoe leg je de kappa uit?
Geobserveerde overeenstemming is bijv. 66%, kappa is 49% dus 17% is overeenstemming boven toevalsovereenstemming.
- Hogere cijfers + sneller leren
- Niets twee keer studeren
- 100% zeker alles onthouden
Wat is de gewogen kappa?
Ook kappa, maar dan voor ordinale data: als je er 1 klasse naast zit is dat minder erg dan wanneer je er twee klassen naast zit.
Dit noemen we scaled disagreement "toekennen van gewichten voor mate van discordantie (aandeel van fc).
Meestal worden gekwadrateerde gewichten gebruikt.
(R1-R2)^2
Hoe maakt men een berekening van een gewogen kappa (Kw)
Je neemt alle cellen mee en je weegt alle cellen (gewicht van discordantie => hoe hoger discordantie, hoe hoger het gewicht).
Dan de geobserveerde overeenstemming/kan overeenstemming.
Hoe interpreteer je de Kappa/gewogen kappa?
0 = only chance agreement
<0.2 = poor
Wat is het verschil tussen ICC en gewogen kappa?
De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:
- Een unieke studie- en oefentool
- Nooit meer iets twee keer studeren
- Haal de cijfers waar je op hoopt
- 100% zeker alles onthouden