sklearn.metrics.label_ranking_average_precision_score

sklearn.metrics.label_ranking_average_precision_score()

Calcula la precisión media basada en la clasificación.

La precisión media de la clasificación de Etiquetas (label ranking average precision, LRAP) es la media, sobre cada etiqueta real asignada a cada muestra, de la proporción de etiquetas verdaderas frente a las totales con menor puntuación.

Esta métrica se utiliza en el problema de clasificación multietiqueta, donde el objetivo es dar una mejor clasificación a las etiquetas asociadas a cada muestra.

La puntuación obtenida es siempre estrictamente mayor que 0 y el mejor valor es 1.

Leer más en el Manual de Usuario.

Parámetros
y_true{ndarray, sparse matrix} de forma (n_samples, n_labels)

Etiquetas binarias verdaderas en formato de indicador binario.

y_scorendarray de forma (n_samples, n_labels)

Las puntuaciones objetivo, pueden ser estimaciones de probabilidad de la clase positiva, valores de confianza, o una medida sin umbral de las decisiones (como la devuelta por «decision_function» en algunos clasificadores).

sample_weightarray-like de forma (n_samples,), default=None

Ponderaciones de muestras.

Nuevo en la versión 0.20.

Devuelve
scorefloat

Ejemplos

>>> import numpy as np
>>> from sklearn.metrics import label_ranking_average_precision_score
>>> y_true = np.array([[1, 0, 0], [0, 0, 1]])
>>> y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]])
>>> label_ranking_average_precision_score(y_true, y_score)
0.416...