La fiabilité inter-évaluateurs consiste en des mesures statistiques permettant d’évaluer le degré d’accord entre deux ou plusieurs évaluateurs (c.-à-d., “juges”, “observateurs”). D’autres synonymes sont : accord inter-évaluateurs, accord inter-observateurs ou conformité inter-évaluateurs.
Dans ce cours, vous apprendrez les bases et comment calculer les différentes mesures statistiques pour analyser la fiabilité inter-évaluateurs. Il s’agit notamment:
- Kappa de Cohen : Il peut être utilisé pour deux variables nominales ou deux variables ordinales. Il tient compte des accords stricts entre les observateurs. Il est le plus approprié pour deux variables nominales.
- Kappa pondéré : Il ne doit être pris en compte que pour deux variables ordinales. Il permet un accord partiel.
- Kappa de Light, qui est la moyenne des Kappa de Cohen si on utilise plus de deux variables catégorielles.
- Kappa de Fleiss : pour deux ou plusieurs variables catégorielles (nominales ou ordinales)
- Coefficient de corrélation intraclasse (ICC) pour les données continues ou ordinales
Vous apprendrez également à visualiser la concordance entre les évaluateurs. Le cours présente les principes de base de ces tâches et fournit des exemples de R.
Related Book
Inter-Rater Reliability Essentials: Practical Guide in RVersion: English
No Comments