sklearn.linear_model.MultiTaskLasso

class sklearn.linear_model.MultiTaskLasso

Modelo Lasso multitarea entrenado con la norma mixta L1/L2 como regularizador.

El objetivo de optimización para Lasso es:

(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21

Donde:

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

es decir, la suma de la norma de cada fila.

Más información en el Manual de usuario.

Parámetros
alphaflotante, default=1.0

Constante que multiplica el término L1/L2. Por defecto es 1.0.

fit_interceptbooleano, default=True

Si se calcula el intercepto para este modelo. Si se establece en false, no se utilizará ningún intercepto en los cálculos (es decir, se espera que los datos estén centrados).

normalizebooleano, default=False

Este parámetro es ignorado cuando fit_intercept se establece como False. Si es True, los regresores X serán normalizados antes de la regresión restando la media y dividiendo por la norma l2. Si tu deseas estandarizar, por favor utiliza StandardScaler antes de llamar fit en un estimador con normalize=False.

copy_Xbooleano, default=True

Si es True, X se copiará; si no, puede ser sobrescrito.

max_iterentero, default=1000

Número máximo de iteraciones.

tolflotante, default=1e-4

La tolerancia para la optimización: si las actualizaciones son menores que tol, el código de optimización comprueba la brecha dual para la optimalidad y continúa hasta que es menor que tol.

warm_startbooleano, default=False

Cuando se establece a True, reutiliza la solución de la llamada anterior para ajustar como inicialización, de lo contrario, solamente borrará la solución anterior. Ver el Glosario.

random_stateint, instancia RandomState, default=None

La semilla del generador de números pseudo aleatorio que selecciona una característica aleatoria a actualizar. Usada cuando selection ==”random”. Pasa un int para una salida reproducible a través de multiples llamadas de función. Ver Glosario.

selection{“cyclic”, “random”}, default=”cyclic”

Si se establece a “random”, un coeficiente aleatorio es actualizado en cada iteración en lugar de hacer un bucle sobre características secuencialmente por defecto. Esto (establecer a “random”) a menudo lleva a convergencia significativamente más rápida especialmente cuando tol es mayor que 1e-4

Atributos
coef_ndarray de forma (n_tasks, n_features)

El parámetro vector (W en la fórmula de la función de costo). Ten en cuenta que coef_ almacena la transposición de W, W.T.

intercept_ndarray de forma (n_tasks,)

Término independiente en la función de decisión.

n_iter_entero

Número de iteraciones ejecutadas por el solucionador de descenso de coordenadas para alcanzar la tolerancia especificada.

dual_gap_ndarray de forma (n_alphas,)

Los huecos duales al final de la optimización para cada alfa.

eps_float

La tolerancia escalada por la varianza del objetivo y.

sparse_coef_matriz dispersa de forma (n_features,) o (n_tasks, n_features)

Representación dispersa del coef_ ajustado.

Ver también

MultiTaskLasso

Lasso L1/L2 multitarea con validación cruzada incorporada.

Lasso
MultiTaskElasticNet

Notas

El algoritmo utilizado para encajar el modelo es el descenso de coordenadas.

Para evitar la duplicación innecesaria de la memoria, los argumentos X y y del método de ajuste deben pasarse directamente como arreglos numpy de Fortran-contiguo.

Ejemplos

>>> from sklearn import linear_model
>>> clf = linear_model.MultiTaskLasso(alpha=0.1)
>>> clf.fit([[0, 1], [1, 2], [2, 4]], [[0, 0], [1, 1], [2, 3]])
MultiTaskLasso(alpha=0.1)
>>> print(clf.coef_)
[[0.         0.60809415]
[0.         0.94592424]]
>>> print(clf.intercept_)
[-0.41888636 -0.87382323]

Métodos

fit

Ajustar modelo MultiTaskElasticNet con descenso de coordenadas

get_params

Obtiene los parámetros para este estimador.

path

Calcula la ruta de red elástica con el descenso de coordenadas.

predict

Predice utilizando el modelo lineal.

score

Devuelve el coeficiente de determinación \(R^2\) de la predicción.

set_params

Establece los parámetros de este estimador.

fit()

Ajustar modelo MultiTaskElasticNet con descenso de coordenadas

Parámetros
Xndarray de forma (n_samples, n_features)

Datos.

yndarray de forma (n_samples, n_tasks)

Objetivo. Se convertirá al dtype de X si es necesario.

Notas

El descenso de coordenada es un algoritmo que considera una columna de los datos a la vez, por lo que automáticamente convertirá la entrada X a un arreglo numpy de Fortran-contiguo si es necesario.

Para evitar la reasignación de memoria se aconseja asignar los datos iniciales en la memoria directamente usando ese formato.

get_params()

Obtiene los parámetros para este estimador.

Parámetros
deepbooleano, default=True

Si es True, devolverá los parámetros para este estimador y los subobjetos contenidos que son estimadores.

Devuelve
paramsdict

Nombres de parámetros mapeados a sus valores.

static path()

Calcula la ruta de red elástica con el descenso de coordenadas.

La función de optimización de la red elástica varía para las mono y multisalidas.

Para las tareas mono-salida es:

1 / (2 * n_samples) * ||y - Xw||^2_2
+ alpha * l1_ratio * ||w||_1
+ 0.5 * alpha * (1 - l1_ratio) * ||w||^2_2

Para tareas multi-salidas es:

(1 / (2 * n_samples)) * ||Y - XW||^Fro_2
+ alpha * l1_ratio * ||W||_21
+ 0.5 * alpha * (1 - l1_ratio) * ||W||_Fro^2

Donde:

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

es decir, la suma de la norma de cada fila.

Más información en el Manual de usuario.

Parámetros
X{array-like, sparse matrix} de forma (n_samples, n_features)

Datos de entrenamiento. Pase directamente como datos Fortran-contiguos para evitar la duplicación innecesaria de memoria. Si y es mono-salida entonces X puede ser disperso.

y{array-like, sparse matrix} de forma (n_samples,), o (n_samples, n_outputs)

Valores objetivo.

l1_ratioflotante, default=0.5

Número entre 0 y 1 pasado a la red elástica (escalado entre penalizaciones l1 y l2). l1_ratio=1 corresponde al Lasso.

epsflotante, default=1e-3

Longitud de la ruta. eps=1e-3 significa que alpha_min / alpha_max = 1e-3.

n_alphasentero, default=100

Número de alfas a lo largo de la ruta de regularización.

alphasndarray, default=None

Lista de alfas donde calcular los modelos. Si es None los alfas se establecen automáticamente.

precompute“auto”, booleano o array-like de forma (n_features, n_features), default=”auto”

Si usar una matriz precalculada Gram para acelerar los cálculos. Si se establece como 'auto', nosotros decidimos. La matriz de Gram puede también ser pasada como un argumento.

Xyarray-like de forma (n_features,) o (n_features, n_outputs), default=None

Xy = np.dot(X.T, y) que puede ser precalculado. Es útil sólo cuando la matriz Gram está precalculada.

copy_Xbooleano, default=True

Si es True, X se copiará; si no, puede ser sobrescrito.

coef_initndarray de forma (n_features, ), default=None

Los valores iniciales de los coeficientes.

verbosebooleano o entero, default=False

Cantidad de verbosidad.

return_n_iterbooleano, default=False

Si se devuelve o no el número de iteraciones.

positivebooleano, default=False

Si se establece como True, obliga a los coeficientes a ser positivos. (Sólo se permite cuando y.ndim ==1).

check_inputbooleano, default=True

Si se establece en False, se omiten las comprobaciones de validación de la entrada (incluyendo la matriz Gram cuando se proporciona). Se asume que son manejadas por el llamador.

**paramskwargs

Argumentos de palabra clave pasados al solucionador de descenso de coordenadas.

Devuelve
alphasndarray de forma (n_alphas,)

Los alfas a lo largo del camino donde se calculan los modelos.

coefsndarray de forma (n_features, n_alphas) o (n_outputs, n_features, n_alphas)

Coeficientes a lo largo del camino.

dual_gapsndarray de forma (n_alphas,)

Los huecos duales al final de la optimización para cada alfa.

n_iterslista de enteros

El número de iteraciones tomadas por el optimizador de descenso de coordenadas para alcanzar la tolerancia especificada para cada alfa. (Es devuelto cuando return_n_iter está establecido a True).

Notas

Para un ejemplo, ver examples/linear_model/plot_lasso_coordinate_descent_path.py.

predict()

Predice utilizando el modelo lineal.

Parámetros
Xarray-like o matriz dispersa, forma (n_samples, n_features)

Muestras.

Devuelve
Carreglo, forma (n_samples,)

Devuelve los valores predichos.

score()

Devuelve el coeficiente de determinación \(R^2\) de la predicción.

El coeficiente \(R^2\) se define como \((1 - \frac{u}{v})\), donde \(u\) es la suma residual de cuadrados ((y_true - y_pred) ** 2).sum() y \(v\) es la suma total de cuadrados ((y_true - y_true.mean()) ** 2).sum(). El mejor valor posible es 1.0 y puede ser negativo (porque el modelo puede ser arbitrariamente peor). Un modelo constante que siempre predice el valor esperado de y, sin tener en cuenta las características de entrada, obtendría un valor \(R^2\) de 0,0.

Parámetros
Xarray-like de forma (n_samples, n_features)

Muestras de prueba. Para algunos estimadores puede ser una matriz de núcleo precalculada o una lista de objetos genéricos con forma (n_samples, n_samples_fitted), donde n_samples_fitted es el número de muestras utilizadas en el ajuste para el estimador.

yarray-like de forma (n_samples,) o (n_samples, n_outputs)

Valores verdaderos para X.

sample_weightarray-like de forma (n_samples,), default=None

Ponderaciones de muestra.

Devuelve
scorefloat

\(R^2\) de self.predict(X) con respecto a y.

Notas

El valor \(R^2\) utilizado al llamar a score en un regresor utiliza multioutput='uniform_average' desde la versión 0.23 para mantener la coherencia con el valor predeterminado de r2_score`. Esto influye en el método score de todos los regresores de salida múltiple (excepto para MultiOutputRegressor).

set_params()

Establece los parámetros de este estimador.

El método funciona en estimadores simples como en objetos anidados (como Pipeline). Estos últimos tienen parámetros de la forma <component>__<parameter> para que sea posible actualizar cada componente de un objeto anidado.

Parámetros
**paramsdict

Parámetros del estimador.

Devuelve
selfinstancia del estimador

Instancia del estimador.

property sparse_coef_

Representación dispersa del coef_ ajustado.

Ejemplos usando sklearn.linear_model.MultiTaskLasso