sklearn.metrics
.cohen_kappa_score¶
- sklearn.metrics.cohen_kappa_score()¶
Kappa de Cohen: estadística que mide el acuerdo entre anotadores.
Esta función calcula el Kappa de Cohen [1], una puntuación que expresa el nivel de acuerdo entre dos anotadores en un problema de clasificación. Se define como
\[\kappa = (p_o - p_e) / (1 - p_e)\]donde \(p_o\) es la probabilidad empírica de concordancia en la etiqueta asignada a cualquier muestra (el ratio de acuerdo observado), y \(p_e\) es la concordancia esperado cuanda ambos anotadores asignan etiquetas al azar. \(p_e\) se estima usando un prior empírico por anotador sobre las etiquetas [2].
Más información en el Manual de usuario.
- Parámetros
- y1arreglo de forma (n_samples,)
Etiquetas asignadas por el primer anotador.
- y2arreglo de forma (n_samples,)
Etiquetas asignadas por el segundo anotador. La estadística kappa es simétrica, así que intercambiar
y1
yy2
no cambia el valor.- labelsarray-like de forma (n_classes,), default=None
Lista de etiquetas para indexar la matriz. Esto puede utilizarse para seleccionar un subconjunto de etiquetas. Si es
None
, todas las etiquetas que aparecen al menos una vez eny1
oy2
son usadas.- weights{“linear”, “quadratic”}, default=None
Tipo de ponderado para calcular el puntaje. None significa sin ponderado; «linear» significa ponderado lineal; «quadratic» significa ponderado cuadrático.
- sample_weightarray-like de forma (n_samples,), default=None
Ponderados de muestras.
- Devuelve
- kappaflotante
La estadística kappa, que es un número entre -1 y 1. El valor máximo significa concordancia total; cero o menor significa acuerdo por azar.
Referencias