sklearn.metrics
.label_ranking_average_precision_score¶
- sklearn.metrics.label_ranking_average_precision_score()¶
Calcula la precisión media basada en la clasificación.
La precisión media de la clasificación de Etiquetas (label ranking average precision, LRAP) es la media, sobre cada etiqueta real asignada a cada muestra, de la proporción de etiquetas verdaderas frente a las totales con menor puntuación.
Esta métrica se utiliza en el problema de clasificación multietiqueta, donde el objetivo es dar una mejor clasificación a las etiquetas asociadas a cada muestra.
La puntuación obtenida es siempre estrictamente mayor que 0 y el mejor valor es 1.
Leer más en el Manual de Usuario.
- Parámetros
- y_true{ndarray, sparse matrix} de forma (n_samples, n_labels)
Etiquetas binarias verdaderas en formato de indicador binario.
- y_scorendarray de forma (n_samples, n_labels)
Las puntuaciones objetivo, pueden ser estimaciones de probabilidad de la clase positiva, valores de confianza, o una medida sin umbral de las decisiones (como la devuelta por «decision_function» en algunos clasificadores).
- sample_weightarray-like de forma (n_samples,), default=None
Ponderaciones de muestras.
Nuevo en la versión 0.20.
- Devuelve
- scorefloat
Ejemplos
>>> import numpy as np >>> from sklearn.metrics import label_ranking_average_precision_score >>> y_true = np.array([[1, 0, 0], [0, 0, 1]]) >>> y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]]) >>> label_ranking_average_precision_score(y_true, y_score) 0.416...