sklearn.linear_model
.RidgeClassifier¶
- class sklearn.linear_model.RidgeClassifier¶
Clasificador mediante regresión Ridge.
Este clasificador convierte primero los valores objetivo en
{-1, 1}
y luego trata el problema como una tarea de regresión (regresión de salida múltiple en el caso de las clases múltiples).Más información en el Manual de usuario.
- Parámetros
- alphafloat, default=1.0
Fuerza de regularización; debe ser un flotante (float) positivo. La regularización mejora el condicionamiento del problema y reduce la varianza de las estimaciones. Los valores más grandes especifican una regularización más fuerte. Alpha corresponde a
1 / (2C)
en otros modelos lineales comoLogisticRegression
oLinearSVC
.- fit_interceptbool, default=True
Si se calcula el intercepto para este modelo. Si se establece en False, no se utilizará ningún intercepto en los cálculos (por ejemplo, se espera que los datos ya estén centrados).
- normalizebool, default=False
Este parámetro es ignorado cuando
fit_intercept
se establece como False. Si True, los regresores X serán normalizados antes de la regresión restando la media y dividiendo por la norma l2. Si tu deseas estandarizar, por favor utilizaStandardScaler
antes de llamarfit
en un estimador connormalize=False
.- copy_Xbool, default=True
Si es True, X se copiará; si no, puede ser sobrescrito.
- max_iterint, default=None
Número máximo de iteraciones para el solucionador de gradiente conjugado (conjugate gradient solver). El valor predeterminado está determinado por scipy.sparse.linalg.
- tolfloat, default=1e-3
Precisión de la solución.
- class_weightdict or “balanced”, default=None
Ponderaciones (weights) asociadas a las clases de la forma
{class_label: weight}
. Si no se da, se supone que todas las clases tienen ponderación uno.El modo «balanced» utiliza los valores de y para ajustar automáticamente las ponderaciones inversamente proporcionales a las frecuencias de clase en los datos de entrada como
n_samples / (n_classes * np.bincount(y))
.- solver{“auto”, “svd”, “cholesky”, “lsqr”, “sparse_cg”, “sag”, “saga”}, default=”auto”
Solucionador a utilizar en las rutinas computacionales:
“auto” elige el solucionador automáticamente en función del tipo de datos.
“svd” utiliza una descomposición de valor singular de X para calcular los coeficientes de Ridge. Es más estable para matrices singulares que “cholesky”.
“cholesky” utiliza la función estándar scipy.linalg.solve para obtener una solución de forma cerrada (closed-form solution).
“sparse_cg” utiliza el solucionador de gradiente conjugado que se encuentra en scipy.sparse.linalg.cg. Como algoritmo iterativo, este solucionador es más apropiado que “cholesky” para datos a gran escala (posibilidad de establecer
tol
ymax_iter
).“lsqr” utiliza la rutina dedicada de mínimos cuadrados regularizados scipy.sparse.linalg.lsqr. Es la más rápida y utiliza un procedimiento iterativo.
“sag” utiliza un descenso de gradiente medio estocástico, y “saga” utiliza su versión insesgada y más flexible llamada SAGA. Ambos métodos utilizan un procedimiento iterativo, y suelen ser más rápidos que otros solucionadores cuando tanto n_samples como n_features son grandes. Ten en cuenta que la convergencia rápida de “sag” y “saga” sólo está garantizada en características con aproximadamente la misma escala. Puedes preprocesar los datos con un escalador de sklearn.preprocessing.
Nuevo en la versión 0.17: Solucionador de descenso de gradiente medio estocástico (Stochastic Average Gradient descent solver).
Nuevo en la versión 0.19: Solucionador SAGA.
- random_stateentero, instancia de RandomState, default=None
Se utiliza cuando
solver
== “sag” o “saga” para barajar los datos. Consulta Glosario para más detalles.
- Atributos
- coef_ndarray de forma (1, n_features,) o (n_classes, n_features)
Coeficiente de las características en la función de decisión.
coef_
es de forma (1, n_características) cuando el problema dado es binario.- intercept_float o ndarray de forma (n_targets,)
Término independiente en la función de decisión. Establecido como 0.0 si
fit_intercept = False
.- n_iter_None o ndarray de forma (n_targets,)
Número real de iteraciones para cada objetivo. Disponible sólo para los solucionadores sag y lsqr. Otros solucionadores devolverán None.
- classes_ndarray de forma (n_classes,)
Las etiquetas de las clases.
Ver también
Ridge
Regresión Ridge.
RidgeClassifierCV
Clasificador de cresta con validación cruzada incorporada.
Notas
Para la clasificación multiclase, los clasificadores n_class se entrenan con un enfoque de uno contra todos (one-versus-all). Concretamente, esto se implementa aprovechando el soporte de respuesta multivariable en Ridge.
Ejemplos
>>> from sklearn.datasets import load_breast_cancer >>> from sklearn.linear_model import RidgeClassifier >>> X, y = load_breast_cancer(return_X_y=True) >>> clf = RidgeClassifier().fit(X, y) >>> clf.score(X, y) 0.9595...
Métodos
Predecir las puntuaciones de confianza (confidence scores) de las muestras.
Ajustar el modelo de clasificación Ridge.
Obtener los parámetros de este estimador.
Predice las etiquetas de clase para las muestras en X.
Devuelve la precisión media en los datos de prueba y las etiquetas dados.
Establece los parámetros de este estimador.
- decision_function()¶
Predecir las puntuaciones de confianza (confidence scores) de las muestras.
La puntuación de confianza de una muestra es proporcional a la distancia con signo de esa muestra al hiperplano.
- Parámetros
- Xarray-like o matriz dispersa, de forma (n_samples, n_features)
Muestras.
- Devuelve
- arreglo, forma=(n_samples,) si n_classes == 2 de lo contrario (n_samples, n_classes)
Puntuaciones de confianza por combinación (sample, class). En el caso binario, la puntuación de confianza para self.classes_[1] donde >0 significa que esta clase sería predicha.
- fit()¶
Ajustar el modelo de clasificación Ridge.
- Parámetros
- X{ndarray, sparse matrix} de forma (n_samples, n_features)
Datos de entrenamiento.
- yndarray de forma (n_samples,)
Valores objetivo.
- sample_weightfloat o ndarray de forma (n_samples,), default=None
Ponderación individual para cada muestra. Si se le da un flotante (float), cada muestra tendrá el mismo peso.
Nuevo en la versión 0.17: sample_weight de apoyo a Classifier.
- Devuelve
- selfobject
Instancia del estimador.
- get_params()¶
Obtener los parámetros de este estimador.
- Parámetros
- deepbool, default=True
Si es True, devolverá los parámetros para este estimador y los subobjetos contenidos que son estimadores.
- Devuelve
- paramsdict
Nombres de parámetros mapeados a sus valores.
- predict()¶
Predice las etiquetas de clase para las muestras en X.
- Parámetros
- Xarray-like o matriz dispersa, de forma (n_samples, n_features)
Muestras.
- Devuelve
- Carreglo, forma [n_samples]
Etiqueta de clase predicha por muestra.
- score()¶
Devuelve la precisión media en los datos de prueba y las etiquetas dados.
En la clasificación multietiqueta, se trata de la precisión del subconjunto, que es una métrica rigurosa, ya que se requiere para cada muestra que cada conjunto de etiquetas sea predicho correctamente.
- Parámetros
- Xarray-like de forma (n_samples, n_features)
Muestras de prueba.
- yarray-like de forma (n_samples,) o (n_samples, n_outputs)
Etiquetas True para
X
.- sample_weightarray-like de forma (n_samples,), default=None
Ponderaciones de la muestra.
- Devuelve
- scorefloat
Precisión media de
self.predict(X)
con respecto ay
.
- set_params()¶
Establece los parámetros de este estimador.
El método funciona tanto con estimadores simples como en objetos anidados (como
Pipeline
). Estos últimos tienen parámetros de la forma<component>__<parameter>
para que sea posible actualizar cada componente de un objeto anidado.- Parámetros
- **paramsdict
Parámetros del estimador.
- Devuelve
- selfinstancia del estimador
Instancia de estimador.