sklearn.metrics.zero_one_loss

sklearn.metrics.zero_one_loss()

Pérdida de clasificación cero-uno.

Si normalize es True, devuelve la fracción de clasificaciones incorrectas (float), sino devuelve el número de clasificaciones incorrectas (int). El mejor rendimiento es 0.

Lee más en el Manual de Usuario.

Parámetros
y_true1d array-like, o arreglo indicador de etiqueta / matriz dispersa

Etiquetas de verdad fundamental (correctas).

y_pred1d array-like, o arreglo indicador de etiqueta / matriz dispersa

Etiquetas predichas, devueltas por un clasificador.

normalizebool, default=True

Si es False, devuelve el número de clasificaciones incorrectas. De lo contrario, devuelve la fracción de clasificaciones incorrectas.

sample_weightarray-like de forma (n_samples,), default=None

Ponderaciones de la muestra.

Devuelve
lossfloat o int,

Si normalize == True, devuelve la fracción de clasificaciones incorrectas (float), de lo contrario devuelve el número de clasificaciones incorrectas (int).

Notas

En la clasificación multietiqueta, la función zero_one_loss corresponde al subconjunto pérdida de cero a uno: para cada muestra, todo el conjunto de etiquetas debe predecirse correctamente, de lo contrario la pérdida para esa muestra es igual a uno.

Ejemplos

>>> from sklearn.metrics import zero_one_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> zero_one_loss(y_true, y_pred)
0.25
>>> zero_one_loss(y_true, y_pred, normalize=False)
1

En el caso multietiqueta con indicadores de etiqueta binaria:

>>> import numpy as np
>>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5