sklearn.metrics
.zero_one_loss¶
- sklearn.metrics.zero_one_loss()¶
Pérdida de clasificación cero-uno.
Si normalize es
True
, devuelve la fracción de clasificaciones incorrectas (float), sino devuelve el número de clasificaciones incorrectas (int). El mejor rendimiento es 0.Lee más en el Manual de Usuario.
- Parámetros
- y_true1d array-like, o arreglo indicador de etiqueta / matriz dispersa
Etiquetas de verdad fundamental (correctas).
- y_pred1d array-like, o arreglo indicador de etiqueta / matriz dispersa
Etiquetas predichas, devueltas por un clasificador.
- normalizebool, default=True
Si es
False
, devuelve el número de clasificaciones incorrectas. De lo contrario, devuelve la fracción de clasificaciones incorrectas.- sample_weightarray-like de forma (n_samples,), default=None
Ponderaciones de la muestra.
- Devuelve
- lossfloat o int,
Si
normalize == True
, devuelve la fracción de clasificaciones incorrectas (float), de lo contrario devuelve el número de clasificaciones incorrectas (int).
Ver también
Notas
En la clasificación multietiqueta, la función zero_one_loss corresponde al subconjunto pérdida de cero a uno: para cada muestra, todo el conjunto de etiquetas debe predecirse correctamente, de lo contrario la pérdida para esa muestra es igual a uno.
Ejemplos
>>> from sklearn.metrics import zero_one_loss >>> y_pred = [1, 2, 3, 4] >>> y_true = [2, 2, 3, 4] >>> zero_one_loss(y_true, y_pred) 0.25 >>> zero_one_loss(y_true, y_pred, normalize=False) 1
En el caso multietiqueta con indicadores de etiqueta binaria:
>>> import numpy as np >>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2))) 0.5