sklearn.linear_model.RidgeClassifier

class sklearn.linear_model.RidgeClassifier

Clasificador mediante regresión Ridge.

Este clasificador convierte primero los valores objetivo en {-1, 1} y luego trata el problema como una tarea de regresión (regresión de salida múltiple en el caso de las clases múltiples).

Más información en el Manual de usuario.

Parámetros
alphafloat, default=1.0

Fuerza de regularización; debe ser un flotante (float) positivo. La regularización mejora el condicionamiento del problema y reduce la varianza de las estimaciones. Los valores más grandes especifican una regularización más fuerte. Alpha corresponde a 1 / (2C) en otros modelos lineales como LogisticRegression o LinearSVC.

fit_interceptbool, default=True

Si se calcula el intercepto para este modelo. Si se establece en False, no se utilizará ningún intercepto en los cálculos (por ejemplo, se espera que los datos ya estén centrados).

normalizebool, default=False

Este parámetro es ignorado cuando fit_intercept se establece como False. Si True, los regresores X serán normalizados antes de la regresión restando la media y dividiendo por la norma l2. Si tu deseas estandarizar, por favor utiliza StandardScaler antes de llamar fit en un estimador con normalize=False.

copy_Xbool, default=True

Si es True, X se copiará; si no, puede ser sobrescrito.

max_iterint, default=None

Número máximo de iteraciones para el solucionador de gradiente conjugado (conjugate gradient solver). El valor predeterminado está determinado por scipy.sparse.linalg.

tolfloat, default=1e-3

Precisión de la solución.

class_weightdict or “balanced”, default=None

Ponderaciones (weights) asociadas a las clases de la forma {class_label: weight}. Si no se da, se supone que todas las clases tienen ponderación uno.

El modo «balanced» utiliza los valores de y para ajustar automáticamente las ponderaciones inversamente proporcionales a las frecuencias de clase en los datos de entrada como n_samples / (n_classes * np.bincount(y)).

solver{“auto”, “svd”, “cholesky”, “lsqr”, “sparse_cg”, “sag”, “saga”}, default=”auto”

Solucionador a utilizar en las rutinas computacionales:

  • “auto” elige el solucionador automáticamente en función del tipo de datos.

  • “svd” utiliza una descomposición de valor singular de X para calcular los coeficientes de Ridge. Es más estable para matrices singulares que “cholesky”.

  • “cholesky” utiliza la función estándar scipy.linalg.solve para obtener una solución de forma cerrada (closed-form solution).

  • “sparse_cg” utiliza el solucionador de gradiente conjugado que se encuentra en scipy.sparse.linalg.cg. Como algoritmo iterativo, este solucionador es más apropiado que “cholesky” para datos a gran escala (posibilidad de establecer tol y max_iter).

  • “lsqr” utiliza la rutina dedicada de mínimos cuadrados regularizados scipy.sparse.linalg.lsqr. Es la más rápida y utiliza un procedimiento iterativo.

  • “sag” utiliza un descenso de gradiente medio estocástico, y “saga” utiliza su versión insesgada y más flexible llamada SAGA. Ambos métodos utilizan un procedimiento iterativo, y suelen ser más rápidos que otros solucionadores cuando tanto n_samples como n_features son grandes. Ten en cuenta que la convergencia rápida de “sag” y “saga” sólo está garantizada en características con aproximadamente la misma escala. Puedes preprocesar los datos con un escalador de sklearn.preprocessing.

    Nuevo en la versión 0.17: Solucionador de descenso de gradiente medio estocástico (Stochastic Average Gradient descent solver).

    Nuevo en la versión 0.19: Solucionador SAGA.

random_stateentero, instancia de RandomState, default=None

Se utiliza cuando solver == “sag” o “saga” para barajar los datos. Consulta Glosario para más detalles.

Atributos
coef_ndarray de forma (1, n_features,) o (n_classes, n_features)

Coeficiente de las características en la función de decisión.

coef_ es de forma (1, n_características) cuando el problema dado es binario.

intercept_float o ndarray de forma (n_targets,)

Término independiente en la función de decisión. Establecido como 0.0 si fit_intercept = False.

n_iter_None o ndarray de forma (n_targets,)

Número real de iteraciones para cada objetivo. Disponible sólo para los solucionadores sag y lsqr. Otros solucionadores devolverán None.

classes_ndarray de forma (n_classes,)

Las etiquetas de las clases.

Ver también

Ridge

Regresión Ridge.

RidgeClassifierCV

Clasificador de cresta con validación cruzada incorporada.

Notas

Para la clasificación multiclase, los clasificadores n_class se entrenan con un enfoque de uno contra todos (one-versus-all). Concretamente, esto se implementa aprovechando el soporte de respuesta multivariable en Ridge.

Ejemplos

>>> from sklearn.datasets import load_breast_cancer
>>> from sklearn.linear_model import RidgeClassifier
>>> X, y = load_breast_cancer(return_X_y=True)
>>> clf = RidgeClassifier().fit(X, y)
>>> clf.score(X, y)
0.9595...

Métodos

decision_function

Predecir las puntuaciones de confianza (confidence scores) de las muestras.

fit

Ajustar el modelo de clasificación Ridge.

get_params

Obtener los parámetros de este estimador.

predict

Predice las etiquetas de clase para las muestras en X.

score

Devuelve la precisión media en los datos de prueba y las etiquetas dados.

set_params

Establece los parámetros de este estimador.

decision_function()

Predecir las puntuaciones de confianza (confidence scores) de las muestras.

La puntuación de confianza de una muestra es proporcional a la distancia con signo de esa muestra al hiperplano.

Parámetros
Xarray-like o matriz dispersa, de forma (n_samples, n_features)

Muestras.

Devuelve
arreglo, forma=(n_samples,) si n_classes == 2 de lo contrario (n_samples, n_classes)

Puntuaciones de confianza por combinación (sample, class). En el caso binario, la puntuación de confianza para self.classes_[1] donde >0 significa que esta clase sería predicha.

fit()

Ajustar el modelo de clasificación Ridge.

Parámetros
X{ndarray, sparse matrix} de forma (n_samples, n_features)

Datos de entrenamiento.

yndarray de forma (n_samples,)

Valores objetivo.

sample_weightfloat o ndarray de forma (n_samples,), default=None

Ponderación individual para cada muestra. Si se le da un flotante (float), cada muestra tendrá el mismo peso.

Nuevo en la versión 0.17: sample_weight de apoyo a Classifier.

Devuelve
selfobject

Instancia del estimador.

get_params()

Obtener los parámetros de este estimador.

Parámetros
deepbool, default=True

Si es True, devolverá los parámetros para este estimador y los subobjetos contenidos que son estimadores.

Devuelve
paramsdict

Nombres de parámetros mapeados a sus valores.

predict()

Predice las etiquetas de clase para las muestras en X.

Parámetros
Xarray-like o matriz dispersa, de forma (n_samples, n_features)

Muestras.

Devuelve
Carreglo, forma [n_samples]

Etiqueta de clase predicha por muestra.

score()

Devuelve la precisión media en los datos de prueba y las etiquetas dados.

En la clasificación multietiqueta, se trata de la precisión del subconjunto, que es una métrica rigurosa, ya que se requiere para cada muestra que cada conjunto de etiquetas sea predicho correctamente.

Parámetros
Xarray-like de forma (n_samples, n_features)

Muestras de prueba.

yarray-like de forma (n_samples,) o (n_samples, n_outputs)

Etiquetas True para X.

sample_weightarray-like de forma (n_samples,), default=None

Ponderaciones de la muestra.

Devuelve
scorefloat

Precisión media de self.predict(X) con respecto a y.

set_params()

Establece los parámetros de este estimador.

El método funciona tanto con estimadores simples como en objetos anidados (como Pipeline). Estos últimos tienen parámetros de la forma <component>__<parameter> para que sea posible actualizar cada componente de un objeto anidado.

Parámetros
**paramsdict

Parámetros del estimador.

Devuelve
selfinstancia del estimador

Instancia de estimador.

Ejemplos usando sklearn.linear_model.RidgeClassifier