Referencia de la API¶
Esta es la referencia de clase y función de scikit-learn. Por favor, consulta el manual completo del usuario para obtener más detalles, ya que las especificaciones originales de clase y función pueden no ser suficientes para dar directrices completas sobre sus usos. Para referencias sobre conceptos repetidos a través del API, ver Glosario de Términos Comunes y Elementos de la API.
sklearn.base
: Clases base y funciones de utilidad¶
Clases base para todos los estimadores.
Clases base¶
Clase base para todos los estimadores en scikit-learn. |
|
Clase mixin para todos los estimadores bicluster en scikit-learn. |
|
Clase mixin para todos los clasificadores en scikit-learn. |
|
Clase mixin para todos los estimadores de conglomerados en scikit-learn. |
|
Clase mixin para todos los estimadores de densidad en scikit-learn. |
|
Clase mixin para todos los estimadores de regresión en scikit-learn. |
|
Clase mixin para todos los transformadores en scikit-learn. |
|
Transformador mixin que realiza la selección de características dada una máscara de soporte |
Funciones¶
Construye un nuevo estimador sin ajustar con los mismos parámetros. |
|
Devuelve True si el estimador dado es (probablemente) un clasificador. |
|
Devuelve True si el estimador dado es (probablemente) un regresor. |
|
Gestor de contexto para la configuración global de scikit-learn |
|
Recupera los valores actuales de configuración establecidos por |
|
Establecer la configuración global de scikit-learn |
|
Imprimir información útil de depuración» |
sklearn.calibration
: Probability Calibration¶
Calibración de probabilidades predichas.
Manual de usuario: Consulte la sección Calibración de probabilidad para más detalles.
Calibración de la probabilidad con regresión isotónica o regresión logística. |
Calcula las probabilidades verdaderas y predichas para una curva de calibración. |
sklearn.cluster
: Análisis de Conglomerados¶
El módulo sklearn.cluster
reúne algoritmos populares de análisis de conglomerados no supervisados.
Manual de usuario: Vea las secciones Análisis de conglomerados (Agrupamiento) y Biclustering para más detalles.
Clases¶
Realiza la agrupación de datos por propagación de la afinidad. |
|
Análisis de Conglomerados Aglomerativo |
|
Implementa el algoritmo de agrupación de Birch. |
|
Realiza el agrupamiento DBSCAN a partir de un arreglo vectorial o una matriz de distancia. |
|
Aglomeración por características. |
|
Agrupamiento por K-Medias. |
|
Agrupamiento por K-Medias en mini lotes. |
|
Agrupamiento por media desplazada usando un kernel plano. |
|
Estimar la estructura de agrupamiento de un arreglo vectorial. |
|
Aplicar la agrupación a una proyección del Laplaciano normalizado. |
|
Biclustering espectral (Kluger, 2003). |
|
Algoritmo de Co-Clustering espectral (Dhillon, 2001). |
Funciones¶
Realiza la agrupación de datos por propagación de la afinidad. |
|
Realiza la extracción de DBSCAN para un épsilon arbitrario. |
|
Extraer automáticamente los conglomerados según el método Xi-steep. |
|
Calcula el grafo de accesibilidad de OPTICS. |
|
Realiza el agrupamiento DBSCAN a partir de un arreglo vectorial o una matriz de distancia. |
|
Estimar el ancho de banda a utilizar con el algoritmo de media-desplazada. |
|
Algoritmo de agrupamiento K-medias. |
|
Inicializa n_clusters semillas de acuerdo a k-medias++ |
|
Realiza un agrupamiento de datos por media desplazada usando un kernel plano. |
|
Aplicar la agrupación a una proyección del Laplaciano normalizado. |
|
Agrupamiento de Ward basado en una matriz de características. |
sklearn.compose
: Estimadores compuestos¶
Metaestimadores para construir modelos compuestos con transformadores
Además de su contenido actual, este módulo albergará eventualmente versiones renovadas de Pipeline y FeatureUnion.
Manual de usuario: Consulte la sección Pipelines y estimadores compuestos para más detalles.
Aplica transformadores a las columnas de un array o un DataFrame de pandas. |
|
Metaestimador para la regresión de un objetivo transformado. |
Construye un ColumnTransformer a partir de los transformadores dados. |
|
Crea un invocable para seleccionar columnas que se usarán con |
sklearn.covariance
: Estimadores de Covarianza¶
El módulo sklearn.covariance
incluye métodos y algoritmos para la estimación robusta de la covarianza de características dado un conjunto de puntos. También se estima la matriz de precisión definida como la inversa de la covarianza. La estimación de la covarianza está estrechamente relacionada con la teoría de los Modelos Gaussianos de Grafos.
Manual de usuario: Consulte la sección Estimación de covarianza para más detalles.
Estimador de covarianza de máxima verosimilitud |
|
Un objeto para detectar valores atípicos en un conjunto de datos con distribución Gaussiana. |
|
Estimación dispersa de la covarianza inversa con un estimador de penalidad l1. |
|
Covarianza inversa dispersa con elección de validación cruzada de la penalidad l1. |
|
Estimador Ledoit-Wolf |
|
Determinante de Covarianza Mínima (DCM): estimador robusto de la covarianza. |
|
Estimador de Reducción por Aproximación de Oráculo |
|
Estimador de covarianza con reducción |
Calcula el estimador de covarianza de Máxima Verosimilitud |
|
estimador de covarianza l1-penalizado |
|
Estima la matriz de covarianza reducida Ledoit-Wolf. |
|
Estima la covarianza con el algoritmo de Reducción por Aproximación de Oráculo. |
|
Calcula una matriz de covarianza reducida sobre la diagonal |
sklearn.cross_decomposition
: Cross decomposition¶
Manual de usuario: Consulte la sección Descomposición cruzada para más detalles.
Análisis de Correlación Canónica, también conocido como PLS «Modo B». |
|
Transformador y regresor de Mínimos Cuadrados Parciales. |
|
Regresión MCP |
|
DVS de Mínimos Cuadrados Parciales. |
sklearn.datasets
: Conjuntos de datos¶
El módulo sklearn.datasets
incluye utilidades para cargar conjuntos de datos, incluyendo métodos para cargar y obtener conjuntos de datos de referencia populares. También incluye algunos generadores de datos artificiales.
Manual de usuario: Consulte la sección Herramientas de carga de conjuntos de datos para más detalles.
Cargadores¶
Eliminar todo el contenido del caché de la carpeta del usuario. |
|
Volcar el conjunto de datos en el formato de archivos svmlight / libsvm. |
|
Carga los nombres de archivo y datos del conjunto de datos 20 newsgroups (clasificación). |
|
Cargar y vectorizar el conjunto de datos 20 newsgroups (clasificación). |
|
Cargar el conjunto de datos California housing (regresión). |
|
Cargar el conjunto de datos covertype (clasificación). |
|
Cargar el conjunto de datos kddcup99 (clasificación). |
|
Cargar el conjunto de datos de parejas Labeled Faces in the Wild (LFW) (clasificación). |
|
Cargue el conjunto de datos de personas Labeled Faces in the Wild (LFW) (clasificación). |
|
Cargar el conjunto de datos de caras Olivetti de AT&T (clasificación). |
|
Recuperar un conjunto de datos de openml por el nombre o el id del conjunto de datos. |
|
Cargue el conjunto de datos multietiqueta RCV1 (clasificación). |
|
Cargador para el conjunto de datos de distribución de especies de Phillips et. |
|
Devuelve la ruta de la carpeta de datos de scikit-learn. |
|
Cargar y devolver el conjunto de datos del precio de la vivienda en boston (regresión). |
|
Cargar y devolver el conjunto de datos sobre el cáncer de mama en wisconsin (clasificación). |
|
Carga y devolver el conjunto de datos diabetes (regresión). |
|
Cargar y devolver el conjunto de datos digits (regresión). |
|
Cargar archivos de texto con categorías como nombres de subcarpetas. |
|
Cargar y devolver el conjunto de datos de iris (clasificación). |
|
Carga y devuelve el conjunto de datos linnerud de ejercicio físico. |
|
Carga un arreglo numpy de una imagen de muestra |
|
Cargar imágenes de muestra para la manipulación de imágenes. |
|
Cargar conjuntos de datos en el formato svmlight / libsvm en la matriz dispersa CSR |
|
Cargar un conjunto de datos a partir de varios archivos en formato SVMlight |
|
Cargar y devolver el conjunto de datos wine (clasificación). |
Generador de muestras¶
Generar un arreglo con estructura diagonal de bloque constante para biclustering. |
|
Generar manchas o regiones gaussianas isotrópicas para agrupamiento. |
|
Generar un array con estructura de tablero de bloques para biclustering. |
|
Hacer un círculo grande que contenga un círculo más pequeño en 2d. |
|
Generar un problema aleatorio de clasificación de n-clases. |
|
Generar el problema de regresión «Friedman #1». |
|
Generar el problema de regresión «Friedman #2». |
|
Generar el problema de regresión «Friedman #3». |
|
Generar una gaussiana isotrópica y etiquetar las muestras por cuantiles. |
|
Genera datos para la clasificación binaria utilizada en Hastie et al. 2009, Ejemplo 10.2. |
|
Generar una matriz de rango mayoritariamente bajo con valores singulares en forma de campana. |
|
Crea dos medios círculos superpuestos. |
|
Generar un problema de clasificación aleatoria multietiqueta. |
|
Generar un problema aleatorio de regresión. |
|
Generar un conjunto de datos de curvas S. |
|
Genera una señal como una combinación dispersa de elementos de diccionario. |
|
Genera una matriz dispersa simétrica definida positiva. |
|
Generar un problema aleatorio de regresión con un diseño disperso no correlacionado. |
|
Genera una matriz aleatoria simétrica y positiva definida. |
|
Genera un conjunto de datos swiss roll. |
sklearn.descomposición
: Descomposición matricial¶
El módulo sklearn.decomposition
incluye algoritmos de descomposición matricial, incluyendo entre otros PCA, NMF o ICA. La mayoría de los algoritmos de este módulo pueden considerarse técnicas de reducción de la dimensionalidad.
Manual de usuario: Consulte la sección Descomposición de señales en componentes (problemas de factorización de matrices) para más detalles.
Aprendizaje de diccionario |
|
Análisis Factorial (AF). |
|
FastICA: un algoritmo rápido para el Análisis de Componentes Independientes. |
|
Análisis de componentes principales incremental (IPCA). |
|
Análisis de componentes principales basado en Kernel (KPCA). |
|
Asignación de Dirichlet latente con el algoritmo variacional de Bayes en línea |
|
Aprendizaje de diccionario por mini lotes |
|
Análisis de Componentes Principales disperso por mini lotes |
|
Factorización matricial no-negativa (NMF o NNMF). |
|
Análisis de componentes principales (PCA). |
|
Análisis de componentes principales disperso (SparsePCA). |
|
Codificación dispersa |
|
Reducción de dimensionalidad usando una SVD truncado (también conocido como LSA). |
Resuelve un problema de factorización de una matriz de aprendizaje de diccionarios. |
|
Resuelve un problema de factorización en línea de una matriz de aprendizaje de diccionarios. |
|
Realiza un Análisis Rápido de Componentes Independientes. |
|
Realiza la Factorización de una Matriz no-Negativa (NMF). |
|
Codificación dispersa |
sklearn.discriminant_analysis
: Análisis Discriminante¶
Análisis Discriminante Lineal y Análisis Discriminante Cuadrático
Manual de usuario: Consulte la sección Análisis Discriminante Lineal y Cuadrático para más detalles.
Análisis Discriminante Lineal |
|
Análisis Discriminante Cuadrático |
sklearn.dummy
: Estimadores ficticios¶
Manual de usuario: Consulte la sección Métricas y puntuación: cuantificar la calidad de las predicciones para más detalles.
DummyClassifier es un clasificador que hace predicciones usando reglas simples. |
|
DummyRegressor es un regresor que hace predicciones utilizando reglas simples. |
sklearn.ensemble
: Métodos Ensemble¶
El módulo sklearn.ensemble
incluye métodos basados en combinaciones de métodos para la clasificación, regresión y detección de anomalías.
Manual de usuario: Consulte la sección Métodos combinados para más detalles.
Un clasificador AdaBoost. |
|
Un regresor de AdaBoost. |
|
Un clasificador Bagging (Agregación bootstrap). |
|
Un regresor Bagging. |
|
Un clasificador extra-árboles. |
|
Un regresor extra-árbol. |
|
Potenciación de gradiente para clasificación. |
|
Potenciación de Gradiente para regresión. |
|
Algoritmo de Aislamiento de Bosques. |
|
Un clasificador de bosque aleatorio. |
|
Un regresor de bosque aleatorio. |
|
Una combinación de árboles totalmente aleatorios. |
|
Pila de estimadores con un clasificador final. |
|
Pila de estimadores con un regresor final. |
|
Clasificador de regla mayoritaria/voto suave para estimadores no ajustados. |
|
Regresor de predicción de voto para estimadores no ajustados. |
|
Árbol de Regresión de Potenciación de Gradiente basado en histograma. |
|
Árbol de Clasificación de Potenciación de Gradiente basado en histograma. |
sklearn.exceptions
: Excepciones y advertencias¶
El módulo sklearn.exceptions
incluye todas las advertencias y clases de error personalizadas utilizadas en scikit-learn.
Advertencia personalizada para capturar problemas de convergencia |
|
Advertencia utilizada para notificar conversiones implícitas de datos que ocurren en el código. |
|
Advertencia personalizada para notificar posibles problemas con la dimensionalidad de los datos. |
|
Advertencia utilizada para notificar al usuario de un cálculo ineficiente. |
|
Clase de advertencia usada si hay un error mientras se ajusta el estimador. |
|
Clase de excepción que se eleva si se utiliza el estimador antes del ajuste. |
|
Advertencia usada cuando la métrica no es válida |
sklearn.experimental
: Experimental¶
El módulo sklearn.experimental
proporciona módulos que se pueden importar para permitir el uso de características o estimadores experimentales.
Las funciones y los estimadores experimentales no están sujetos a los ciclos de obsolescencia. Utilízalos bajo tu propia responsabilidad!
Activa los estimadores de boosting de gradiente basados en histogramas. |
|
Activa IterativeImputer |
|
Activa los estimadores de búsqueda sucesiva por mitades |
sklearn.feature_extraction
: Extracción de Características¶
El módulo sklearn.feature_extraction
se ocupa de la extracción de características de datos crudos. Actualmente incluye métodos para extraer características de texto e imágenes.
Manual de usuario: Consulte la sección Extracción de características para más detalles.
Transforma listas de mapeos de valores y características a vectores. |
|
Implementa el hashing de características, también conocido como el truco del hashing. |
Desde imágenes¶
El submódulo sklearn.feature_extraction.image
reúne utilidades para extraer características de las imágenes.
Convierte una imagen 2D en una colección de fragmentos |
|
Grafo de las conexiones de píxel a píxel |
|
Grafo de las conexiones de gradiente de píxel a píxel |
|
Reconstruye la imagen a partir de todos sus fragmentos. |
|
Extrae fragmentos de una colección de imágenes |
Desde texto¶
El submódulo sklearn.feature_extraction.text
reúne utilidades para construir vectores de características de los documentos de texto.
Convertir una colección de documentos de texto en una matriz de conteo de tokens |
|
Convertir una colección de documentos de texto en una matriz de ocurrencias de tokens |
|
Transforma una matriz de conteo a una representación de tf o tf-idf normalizada |
|
Convierte una colección de documentos crudos en una matriz de características TF-IDF. |
sklearn.feature_selection
: Extracción de Características¶
El módulo sklearn.feature_selection
implementa algoritmos de selección de características. Actualmente incluye métodos de selección de filtros univariantes y el algoritmo recursivo de eliminación de características.
Manual de usuario: Consulte la sección Selección de características para más detalles.
Selector de características univariante con estrategia configurable. |
|
Selecciona características de acuerdo a un percentil de las puntuaciones más altas. |
|
Selecciona características de acuerdo a las k puntuaciones más altas. |
|
Filtro: Seleccione los pvalores por debajo de alfa basados en una prueba FPR. |
|
Filtro: Selecciona los p-valores para una tasa estimada de falsos descubrimientos |
|
Metatransformador para seleccionar características basadas en pesos de importancia. |
|
Filtro: Seleccione los p-valores correspondientes a la tasa de error por familia |
|
Transformador que realiza la selección secuencial de características. |
|
Ordenación de características con eliminación recursiva de características. |
|
Ordenación de características con eliminación recursiva de características y selección con validación cruzada del mejor número de características. |
|
Selector de características que elimina todas las características de baja varianza. |
Calcule las estadísticas de chi-cuadrado entre cada clase y característica no negativa. |
|
Calcula el valor-F de ANOVA para la muestra proporcionada. |
|
Pruebas de regresión lineal univariante. |
|
Estimar la información mutua para una variable objetivo discreta. |
|
Estimar la información mutua para una variable objetivo continua. |
sklearn.gaussian_process
: Procesos Gaussianos¶
El módulo sklearn.gaussian_process
implementa la regresión y la clasificación basadas en procesos gaussianos.
Manual de usuario: Consulte la sección Procesos Gaussianos para más detalles.
Clasificación de procesos gaussianos (Gaussian process classification, GPC) basada en la aproximación de Laplace. |
|
Regresión de procesos gaussianos (Gaussian process regression, GPR). |
Núcleos:
Núcleo (kernel) que se compone de un conjunto de otros núcleos. |
|
Núcleo constante. |
|
Núcleo de producto punto. |
|
Núcleo Exp-Seno-Cuadrático (también conocido como núcleo periódico). |
|
Calcula un kernel de exponenciación combinando un kernel base y un parámetro escalar \(p\). |
|
La especificación de un hiperparámetro del kernel en forma de una namedtuple. |
|
Clase base para todos los kernels. |
|
Kernel Matérn. |
|
Envoltorio para los kernels en sklearn.metrics.pairwise. |
|
Calcula el kernel |
|
Kernel de la función base Radial (también conocido como kernel cuadrado-exponencial). |
|
Kernel Cuadrático Racional. |
|
Calcula el kernel |
|
Kernel blanco. |
sklearn.impute
: Imputar¶
Transformadores para la imputación de valores faltantes
Manual de usuario: Consulte la sección Imputación de valores faltantes para más detalles.
Transformador de imputación para completar valores faltantes. |
|
Imputador multivariante que estima cada característica a partir de todas las restantes. |
|
Indicadores binarios para valores faltantes. |
|
Imputación para completar los valores faltantes mediante vecinos más cercanos (k-Nearest Neighbors). |
sklearn.inspection
: Inspección¶
El módulo sklearn.inspection
incluye herramientas para la inspección de modelos.
Dependencia parcial de |
|
Importancia de la permutación para la evaluación de la característica [Rd9e56ef97513-BRE]. |
Graficos¶
Gráfico de dependencia parcial (PDP). |
Gráficos de dependencia parcial (DP) y de expectativa condicional individual (ECI). |
sklearn.isotonic
: Regresión isotónica¶
Manual de usuario: Consulte la sección Regresión isotónica para más detalles.
Modelo de regresión isotónica. |
Determina si y está monotónicamente correlacionada con x. |
|
Resuelve el modelo de regresión isotónica. |
sklearn.kernel_aproximation
: Aproximación de Kernel¶
El módulo sklearn.kernel_approximation
implementa varias transformaciones de características de núcleo aproximadas basados en transformadas de Fourier y Bocetos de Conteo.
Manual de usuario: Consulte la sección Aproximación de núcleo para más detalles.
Transformación de características aproximada para el núcleo aditivo chi2. |
|
Aproxima una transformación de núcleo usando un subconjunto de datos de entrenamiento. |
|
Aproximación polinómica de núcleo mediante Boceto Tensorial. |
|
Aproxima la transformación de características de un núcleo RBF (Función de Base Radial) por aproximación de Monte Carlo de su transformada de Fourier. |
|
Aproxima la transformación de características de un núcleo «chi-cuadrado sesgado» por aproximación de Monte Carlo de su transformada de Fourier. |
sklearn.kernel_ridge
: Regresión de Cresta de Núcleo¶
El módulo sklearn.kernel_ridge
implementa una regresión de cresta de núcleo.
Manual de usuario: Consulte la sección Regresión de cresta de núcleo para más detalles.
Regresión de cresta de núcleo. |
sklearn.linear_model
. Modelos Lineales¶
El módulo sklearn.linear_model
implementa una variedad de modelos lineales.
Manual de usuario: Consulte la sección Modelos lineales para más detalles.
Las siguientes subsecciones son sólo orientaciones generales: un mismo estimador puede pertenecer a varias categorías, en función de sus parámetros.
Clasificadores lineales¶
Clasificador de Regresión Logística (conocido como logit, MaxEnt). |
|
Clasificador de Regresión Logística CV (también conocido como logit, MaxEnt). |
|
Clasificador Pasivo Agresivo |
|
Más información en el Manual de Usuario. |
|
Clasificador que usa la Regresión de Cresta. |
|
Clasificador de cresta con validación cruzada incorporada. |
|
Clasificadores lineales (SVM, regresión logística, etc.) con entrenamiento SGD (descenso de gradiente estocástico). |
Regresores lineales clásicos¶
Regresión lineal de mínimos cuadrados ordinarios. |
|
Mínimos cuadrados lineales con regularización l2. |
|
Regresión de cresta con validación cruzada incorporada. |
|
Modelo lineal ajustado por minimización de pérdida empírica regularizada con SGD (descenso de gradiente estocástico) |
Regresores con selección de variables¶
Los siguientes estimadores tienen procedimientos de ajuste de selección de variables incorporados, pero cualquier estimador que utilice una penalización L1 o elastic-net también realiza la selección de variables: normalmente SGDRegressor
o SGDClassifier
con una penalización adecuada.
Regresión lineal con las distribuciones a priori L1 y L2 combinadas como regularizador. |
|
Modelo de Red Elástica con ajuste iterativo a lo largo de una trayectoria de regularización. |
|
Modelo de regresión de mínimo ángulo, también conocido como |
|
Modelo de Regresión de Ángulo Mínimo con validación cruzada. |
|
Modelo lineal entrenado con L1 a priori como regularizador (también conocido como Lasso) |
|
Modelo lineal Lasso con ajuste iterativo a lo largo de una ruta de regularización. |
|
Ajuste de modelo Lasso con Regresión de Ángulo Mínimo, también conocida como Lars. |
|
Validación cruzada Lasso, utilizando el algoritmo LARS. |
|
Ajuste de modelo Lasso con Lars utilizando BIC o AIC para la selección del modelo |
|
Modelo de búsqueda de correspondencia ortogonal (OMP). |
|
Modelo de búsqueda de correspondencia ortogonal (OMP) con validación cruzada. |
Regresores bayesianos¶
Regresión bayesiana ARD. |
|
Regresión bayesiana de cresta. |
Regresores lineales múlti-tarea con selección de variables¶
Estos estimadores ajustan múltiples problemas de regresión (o tareas) de forma conjunta, induciendo coeficientes dispersos. Aunque los coeficientes inferidos pueden diferir entre las tareas, están obligados a coincidir en las características seleccionadas (coeficientes no nulos).
Modelo ElasticNet multitarea entrenado con la norma mixta L1/L2 como regularizador. |
|
ElasticNet multitarea L1/L2 con validación cruzada incorporada. |
|
Modelo Lasso multitarea entrenado con la norma mixta L1/L2 como regularizador. |
|
Modelo Lasso multitarea entrenado con la norma mixta L1/L2 como regularizador. |
Regresores robustos a valores atípicos¶
Cualquier estimador que utiliza la pérdida de Huber también sería robusto a los valores atípicos, por ejemplo, SGDRegressor
con loss='huber'
.
Modelo de regresión lineal que es robusto a valores atípicos. |
|
Algoritmo RANSAC (RANdom Sample Consensus). |
|
Estimador Theil-Sen: modelo de regresión robusto multivariante. |
Modelos lineales generalizados (GLM) para regresión¶
Estos modelos permiten que las variables de respuesta tengan distribuciones de errores distintas de una distribución normal:
Modelo lineal generalizado con una distribución de Poisson. |
|
Modelo lineal generalizado con una distribución de Tweedie. |
|
Modelo lineal generalizado con distribución Gamma. |
Misceláneos¶
Regresor agresivo-pasivo |
|
Calcula la ruta de red elástica con descenso de coordenadas. |
|
Calcula la regresión de ángulo mínimo o la ruta de Lasso mediante el algoritmo LARS [1] |
|
lars_path en el modo de estadísticas suficientes [1] |
|
Calcula la ruta Lasso con descenso de coordenadas |
|
Búsqueda de coincidencias ortogonales (OMP). |
|
Búsqueda de coincidencias ortogonales de Gram (OMP). |
|
Resuelve la ecuación de cresta por el método de las ecuaciones normales. |
sklearn.manifold
: Manifold Learning¶
El módulo sklearn.manifold
implementa técnicas de incrustación de datos.
Manual de usuario: Consulte la sección Aprendizaje múltiple para más detalles.
Incrustación de Isomapas |
|
Incrustación local lineal |
|
Escalamiento multidimensional. |
|
Incrustación espectral para reducción de la dimensionalidad no lineal. |
|
Incrustación de Vecinos Estocástica t-distribuida. |
Realiza un análisis de Incrustación Localmente Lineal en los datos. |
|
Calcula el escalado multidimensional mediante el algoritmo SMACOF. |
|
Proyecta la muestra sobre los primeros autovectores del grafo Laplaciano. |
|
Expresa hasta qué punto se mantiene la estructura local. |
sklearn.metrics
: Métricas¶
Ver la sección Métricas y puntuación: cuantificar la calidad de las predicciones y la sección Métricas por pares, afinidades y núcleos del manual del usuario para más detalles.
El módulo sklearn.metrics
incluye funciones de puntuación, métricas de rendimiento y métricas por pares y cálculos de distancia.
Interfaz de Selección de Modelos¶
Ver la sección El parámetro scoring: definir las reglas de evaluación del modelo del manual del usuario para más detalles.
Determina el puntuador desde las opciones del usuario. |
|
Obtiene un puntuador de una cadena. |
|
Construye un puntuador a partir de una métrica de rendimiento o una función de pérdida. |
Métricas de clasificación¶
Ver la sección Métricas de clasificación del manual del usuario para más detalles.
Puntuación de exactitud de la clasificación. |
|
Calcula el Área Bajo la Curva (AUC) usando la regla trapezoidal. |
|
Calcula la precisión promedio (AP) de las puntuaciones de predicción. |
|
Calcula la exactitud balanceada. |
|
Calcula la puntuación de pérdida de Brier. |
|
Construye un reporte que muestra las principales métricas de clasificación. |
|
Kappa de Cohen: estadístico que mide el acuerdo entre anotadores. |
|
Calcula la matriz de confusión para evaluar la exactitud de una clasificación. |
|
Calcula la Ganancia Acumulada Descontada. |
|
Calcula las tasas de error para diferentes umbrales de probabilidad. |
|
Calcula la puntuación F1, también conocida como puntuación-F balanceada o medida-F. |
|
Calcula la puntuación F-beta. |
|
Calcula la pérdida promedio de Hamming. |
|
Pérdida promedio de bisagra (no regularizada). |
|
Puntuación del coeficiente de similitud de Jaccard. |
|
Pérdida logarítmica, también conocida como pérdida logística o pérdida de entropía cruzada. |
|
Calcula el coeficiente de correlación de Matthews (MCC). |
|
Calcula una matriz de confusión para cada clase o muestra. |
|
Calcula la Ganancia Acumulada Descontada Normalizada. |
|
Calcula los pares de precisión-exhaustividad para diferentes umbrales de probabilidad. |
|
Calcula precisión, exhaustividad, valor-F y el soporte para cada clase. |
|
Calcula la precisión. |
|
Calcula la exhaustividad. |
|
Calcula el Área Bajo la Curva Característica Operativa del Receptor (ROC AUC) a partir de las puntuaciones de predicción. |
|
Calcula la Característica Operativa del Receptor (ROC). |
|
Puntuación de clasificación de exactitud top-k. |
|
Pérdida de clasificación cero-uno. |
Métricas de Regresión¶
Ver la sección Métricas de Regresión del manual del usuario para más detalles.
Función de puntuación de regresión de varianza explicada. |
|
La métrica max_error calcula el máximo error residual. |
|
Pérdida de error de regresión absoluta promedio. |
|
Pérdida promedio de error de regresión cuadrático. |
|
Pérdida promedio de error de regresión logarítmico cuadrático. |
|
Pérdida de regresión por mediana de error absoluto. |
|
Pérdida promedio de error de regresión porcentual. |
|
Función de puntuación de regresión \(R^2\) (coeficiente de determinación). |
|
Pérdida promedio de desviación de regresión Poisson. |
|
Pérdida promedio de variación de regresión Gamma. |
|
Pérdida promedio de desviación de regresión Tweedie. |
Métricas de clasificación multietiqueta¶
Ver la sección Métricas de clasificación multietiqueta del manual del usuario para más detalles.
Medida de error de cobertura. |
|
Calcula la precisión promedio basada en la clasificación. |
|
Calcula la medida de pérdida de la clasificación. |
Métricas de agrupamiento¶
Ver la sección Evaluación del rendimiento del análisis de conglomerados (agrupamiento) del manual del usuario para más detalles.
El submódulo sklearn.metrics.cluster
contiene métricas de evaluación para los resultados de análisis de conglomerados. Hay dos formas de evaluación:
supervisado, que utiliza valores de clase verificados para cada muestra.
sin supervisión, que no utiliza valores de referencia, y mide la «calidad» del propio modelo.
Información Mutua Ajustada (AMI) entre dos conglomerados. |
|
Índice Rand ajustado al azar. |
|
Calcula la puntuación Calinski y Harabasz. |
|
Calcula la puntuación Davies-Bouldin. |
|
Métrica de completitud de un etiquetado de conglomerado de valores verificados dados. |
|
Construye una matriz de contingencia que describe la relación entre las etiquetas. |
|
Matriz de confusión por pares que surge de dos agrupamientos. |
|
Mide la similitud de dos conglomerados de un conjunto de puntos. |
|
Calcula a la vez la homogeneidad, la completitud y la puntuación V-Measure. |
|
Métrica de homogeneidad de un etiquetado de conglomerado de valores verificados dados. |
|
Información mutua entre dos conglomerados. |
|
Información Mutua Normalizada entre dos conglomerados. |
|
Índice Rand. |
|
Calcula el Coeficiente de Silueta promedio de todas las muestras. |
|
Calcula el Coeficiente de Silueta para cada muestra. |
|
Etiquetado de conglomerados con medida V dado un valor verificado. |
Métricas de conglomerados dobles¶
Ver la sección Evaluación de Biclustering del manual del usuario para más detalles.
La similitud de dos conjuntos de conglomerados dobles. |
Métricas por pares¶
Ver la sección Métricas por pares, afinidades y núcleos del manual del usuario para más detalles.
Calcula el núcleo chi-cuadrado aditivo entre las observaciones en X y Y. |
|
Calcula el núcleo exponencial chi-cuadrado X y Y. |
|
Calcula la similitud coseno entre las muestras en X y Y. |
|
Calcula la distancia coseno entre las muestras en X y Y. |
|
Métricas válidas para pairwise_distances. |
|
Considerando las filas de X (y Y=X) como vectores, calcula la matriz de distancia entre cada par de vectores. |
|
Calcula la distancia Haversine entre las muestras en X y Y. |
|
Métricas válidas para pairwise_kernels. |
|
Calcula el núcleo laplaciano entre X y Y. |
|
Calcula el núcleo lineal entre X y Y. |
|
Calcula las distancias L1 entre los vectores en X y Y. |
|
Calcula las distancias euclidianas en presencia de valores faltantes. |
|
Calcula el núcleo entre los arreglos X y el arreglo Y opcional. |
|
Calcula el núcleo polinomial entre X y Y. |
|
Calcula el núcleo rbf (gaussiano) entre X y Y. |
|
Calcula el núcleo sigmoide entre X e Y. |
|
Calcula las distancias euclideanas por pares entre X e Y. |
|
Calcula las distancias L1 entre los vectores en X y Y. |
|
Calcula las distancias de coseno por pares entre X y Y. |
|
Calcula las distancias por pares entre X y Y. |
|
Calcula la matriz de distancia de un arreglo vectorial X y un opcional Y. |
|
Calcula las distancias mínimas entre un punto y un conjunto de puntos. |
|
Calcula las distancias mínimas entre un punto y un conjunto de puntos. |
|
Genera una matriz de distancia trozo a trozo con reducción opcional. |
Graficos¶
Ver la sección Visualizaciones del manual del usuario para más detalles.
Grafica la matriz de confusión. |
|
Grafica la curva de compromiso del error de detección (DET). |
|
Grafica la Curva de Precisión y Exhaustividad para clasificadores binarios. |
|
Grafica la curva Característica Operativa del Receptor (ROC). |
Visualización de la matriz de confusión. |
|
Visualización de curvas DET. |
|
Visualización de Precisión y Exhaustividad. |
|
Visualización de curvas ROC. |
sklearn.mixture
: Modelos de Mezclas Gaussianas¶
El módulo sklearn.mixture
implementa algoritmos de modelado de mezclas.
Manual de usuario: Ver la sección Modelos de mezclas gaussianas para más detalles.
Estimación variacional Bayesiana de una mezcla Gaussiana. |
|
Mezcla Gaussiana. |
sklearn.model_selection
: Selección del Modelo¶
Manual de usuario: Ver las secciones Validación cruzada: evaluación del rendimiento del estimador, Ajustar los hiperparámetros de un estimador y Curva de aprendizaje para más detalles.
Clases de Separadores¶
Variante del iterador K-fold con grupos no superpuestos. |
|
Iterador de validación cruzada Shuffle-Group(s)-Out |
|
Validador cruzado K-Folds |
|
Validador cruzado Leave-One-Group-Out |
|
Validador cruzado Leave-P-Group(s)-Out |
|
Validador cruzado Leave-One-Out |
|
Validador cruzado Leave-P-Out |
|
Validador cruzado de separación predefinido |
|
Validador cruzado K-Fold repetido. |
|
Validador cruzado K-Fold Repetido Estratificado. |
|
Validador cruzado de permutación aleatoria |
|
Validador cruzado K-Folds estratificado. |
|
Validador cruzado ShuffleSplit estratificado |
|
Validador cruzado de series de tiempo |
Funciones de separación¶
Herramienta de comprobador de entrada para construir un validador cruzado |
|
Separar arreglos o matrices en subconjuntos aleatorios de entrenamiento y prueba |
Optimizadores hiper-parámetro¶
Búsqueda exhaustiva sobre los valores de los parámetros especificados para un estimador. |
|
Busca sobre los valores de los parámetros especificados con una reducción sucesiva a la mitad. |
|
Cuadrícula de parámetros con un número discreto de valores para cada uno. |
|
Generador de parámetros muestreados a partir de distribuciones dadas. |
|
Búsqueda aleatoria sobre los hiperparámetros. |
|
Búsqueda aleatoria sobre los hiperparámetros. |
Validación del modelo¶
Evalúa la(s) métrica(s) mediante validación cruzada y registra también los tiempos de ajuste/puntuación. |
|
Genera estimaciones de validación cruzada para cada punto de los datos de entrada |
|
Evalúa una puntuación por validación cruzada |
|
Curva de aprendizaje. |
|
Evalúa la significancia de una puntuación de validación cruzada con permutaciones |
|
Curva de validación. |
sklearn.multiclase
: Clasificación multiclase¶
Estrategias de clasificación multiclase¶
- Este módulo implementa algoritmos de aprendizaje multiclase:
one-vs-the-rest / one-vs-all
one-vs-one
corrección de errores de códigos de salida
Los estimadores proporcionados en este módulo son metaestimadores: requieren que se proporcione un estimador base en su constructor. Por ejemplo, es posible utilizar estos estimadores para convertir un clasificador o regresor binario en un clasificador multiclase. También es posible utilizar estos estimadores con estimadores multiclase con la esperanza de que su exactitud o rendimiento de ejecución mejoren.
Todos los clasificadores en scikit-learn implementan la clasificación multiclase; no necesitas utilizar este módulo a menos que quieras experimentar con estrategias multiclase personalizadas.
El meta-clasificador uno-vs-the-rest también implementa un método predict_proba
, siempre y cuando tal método sea implementado por el clasificador base. Este método devuelve probabilidades de pertenencia a la clase tanto en el caso de una sola etiqueta como en el caso de múltiples etiquetas. Ten en cuenta que en el caso multietiqueta, las probabilidades son la probabilidad marginal de que una muestra determinada caiga en la clase dada. De esta manera, en el caso multietiqueta la suma de estas probabilidades sobre todas las etiquetas posibles para una muestra determinada no sumarán la unidad, como lo hacen en el caso de una sola etiqueta.
Manual de usuario: Ver la sección Clasificación multiclase para más detalles.
Estrategia multiclase «uno contra el resto» (One-vs-the-Rest o OvR). |
|
Estrategia multiclase uno contra uno (one-vs-one) |
|
(Corrección de errores) Estrategia de código de salida multiclase |
sklearn.multioutput
: Regresión y clasificación multisalida¶
Este módulo implementa la regresión y clasificación multisalida.
Los estimadores proporcionados en este módulo son metaestimadores: requieren que se proporcione un estimador base en su constructor. El meta-estimador extiende estimadores de salida única a estimadores multisalida.
Manual del usuario: Ver las secciones Clasificación multietiqueta, Clasificación multiclase y multisalida, y Regresión de salida múltiple para más detalles.
Un modelo multietiqueta que ordena los clasificadores binarios en una cadena. |
|
Regresión multiobjetivo |
|
Clasificación multiobjetivo |
|
Un modelo de multietiqueta que ordena regresiones en una cadena. |
sklearn.naive_bayes
: Bayes Ingenuo¶
El módulo sklearn.naive_bayes
implementa algoritmos de Bayes Ingenuos. Estos son métodos de aprendizaje supervisado basados en la aplicación del teorema de Bayes con supuestos fuertes (ingenuos) de independencia entre características.
Manual de usuario: Ver la sección Bayesiano ingenuo para más detalles.
Clasificador Bayes Ingenuo para modelos Bernoulli multivariantes. |
|
Clasificador Bayesiano Ingenuo para características categóricas |
|
El clasificador Bayes Ingenuo Complementario descrito en Rennie et al. (2003). |
|
Bayes Ingenuo Gaussiano (GaussianNB) |
|
Clasificador Bayesiano Ingenuo para modelos multinomiales |
sklearn.neighbors
: Vecinos más cercanos¶
El módulo sklearn.neighbors
implementa el algoritmo de k-vecinos más cercanos.
Manual de usuario: Ver la sección Vecino más cercano para más detalles.
|
BallTree para problemas rápidos generalizados de N puntos |
Clase DistanceMetric |
|
|
KDTree para problemas rápidos generalizados de N puntos |
Estimación de Densidad de Núcleo. |
|
Clasificador que implementa la votación de k- vecinos más cercanos. |
|
Regresión basada en k-vecinos más cercanos. |
|
Transforma X en un grafo (ponderado) de k vecinos más cercanos |
|
Detección No Supervisada de valores Atípicos mediante el Factor Local de valores Atípicos (LOF) |
|
Clasificador que implementa un voto entre vecinos dentro de un radio determinado |
|
Regresión basada en vecinos dentro de un radio fijo. |
|
Transforma X en un grafo (ponderado) de vecinos más cercanos a un radio |
|
Clasificador de centroide más cercano. |
|
Aprendiz no supervisado para implementar búsquedas de vecinos. |
|
Análisis de Componentes del Vecindario |
Calcula el grafo (ponderado) de k-vecinos para los puntos en X |
|
Calcula el grafo (ponderado) de Vecinos para los puntos en X |
sklearn.neural_network
: Neural network models¶
El módulo sklearn.neural_network
incluye modelos basados en redes neuronales.
Manual del usuario: Ver las secciones Modelos de redes neuronales (supervisadas) y Modelos de red neural (no supervisados) para más detalles.
Máquina de Boltzmann restringida de Bernoulli (RBM). |
|
Clasificador Perceptron multicapa. |
|
Regresor Perceptrón multicapa. |
sklearn.pipeline
: Tubería¶
El módulo sklearn.pipeline
implementa utilidades para construir un estimador compuesto, como una cadena de transformaciones y estimadores.
Manual de usuario: Consulte la sección Pipelines y estimadores compuestos para más detalles.
Concatena los resultados de múltiples objetos transformadores. |
|
Tubería de las transformaciones con un estimador final. |
Construye una tubería de los estimadores dados. |
|
Construye un FeatureUnion de los transformadores dados. |
sklearn.preprocessing
: Preprocessing and Normalization¶
El módulo sklearn.preprocessing
incluye métodos de escalamiento, centrado, normalización, y binarización.
Manual de usuario: Ver la sección Preprocesamiento de los datos para más detalles.
Binariza datos (asigna a las características valores de 0 o 1) de acuerdo a un umbral. |
|
Construye un transformador a partir de un invocable arbitrario. |
|
Agrupa datos continuos en intervalos. |
|
Centra una matriz de núcleo. |
|
Binariza las etiquetas de una forma uno-contra-todos. |
|
Codifica las etiquetas objetivo con un valor entre 0 y n_classes-1. |
|
Transforma entre un iterable de iterables y un formato multietiqueta. |
|
Escala cada característica por su valor absoluto máximo. |
|
Transforma las características escalando cada una de ellas a un rango determinado. |
|
Normaliza las muestras individualmente a la norma unitaria. |
|
Codifica las características categóricas como un arreglo numérico one-hot. |
|
Codifica las características categóricas como un arreglo de enteros. |
|
Genera características polinómicas y de interacción. |
|
Aplica una transformación de potencia por características para que los datos sean más Gaussianos. |
|
Transforma las características utilizando la información de los cuantiles. |
|
Escala las características utilizando estadísticas que son robustas a los valores atípicos. |
|
Estandariza las características eliminando la media y escalando a la varianza unitaria |
Aumenta el conjunto de datos con una característica adicional ficticia. |
|
Soporte booleano de array-like o matriz scipy.sparse. |
|
Binariza las etiquetas de una forma uno-contra-todos. |
|
Escala cada característica al rango [-1, 1] sin romper la dispersión. |
|
Transforma las características escalando cada una de ellas a un rango determinado. |
|
Escala los vectores de entrada individualmente a la norma unitaria (longitud del vector). |
|
Transforma las características utilizando la información de los cuantiles. |
|
Estandariza un conjunto de datos a lo largo de cualquier eje |
|
Estandariza un conjunto de datos a lo largo de cualquier eje. |
|
Las transformaciones de potencia son una familia de transformaciones paramétricas monotónicas que se aplican para hacer los datos más Gaussianos. |
sklearn.random_projection
: Proyección Aleatoria¶
Transformadores de proyección aleatoria.
Las proyecciones aleatorias son una forma simple y computacionalmente eficiente de reducir la dimensionalidad de los datos intercambiando una cantidad controlada de exactitud (como varianza adicional) por tiempos de procesamiento más rápidos y tamaños de modelo más pequeños.
Las dimensiones y distribución de las matrices de proyecciones aleatorias se controlan para preservar las distancias por pares entre dos muestras del conjunto de datos.
El principal resultado teórico detrás de la eficiencia de la proyección aleatoria es el Lema de Johnson-Lindenstrauss (citando a Wikipedia):
En matemáticas, el lema Johnson-Lindenstrauss es un resultado relacionado con las inserciones de baja distorsión de puntos de un espacio de alta dimensión en un espacio euclideano de baja dimensión. El lema afirma que un pequeño conjunto de puntos en un espacio de alta dimensión puede integrarse en un espacio de dimensión mucho más baja de tal manera que las distancias entre los puntos casi se conservan. La transformación utilizada para la inserción es al menos Lipschitz, e incluso puede tomarse como una proyección ortogonal.
Manual de usuario: Ver la sección Proyección aleatoria para más detalles.
Reduce la dimensionalidad mediante la proyección aleatoria gaussiana. |
|
Reduce la dimensionalidad mediante la proyección aleatoria dispersa. |
Encuentra un número “seguro” de componentes para proyectar aleatoriamente. |
sklearn.semi_supervised
: Aprendizaje semi-supervisado¶
El módulo sklearn.semi_supervised
implementa algoritmos de aprendizaje semi-supervisado. Estos algoritmos utilizan pequeñas cantidades de datos etiquetados y grandes cantidades de datos no etiquetados para tareas de clasificación. Este módulo incluye Propagación de Etiquetas.
Manual de usuario: Ver la sección Aprendizaje semi supervisado para más detalles.
Clasificador de propagación de etiquetas |
|
Modelo LabelSpreading para aprendizaje semi-supervisado |
|
Clasificador de autoentrenamiento. |
sklearn.svm
: Máquinas de soporte vectorial¶
El módulo sklearn.svm
incluye algoritmos de máquinas de soporte vectorial.
Manual de usuario: Ver la sección Máquinas de Vectores de Soporte para más detalles.
Estimadores¶
Clasificación Lineal por Vectores de Soporte. |
|
Regresión de Vector de Soporte Lineal. |
|
Clasificación de Vector Nu-Soporte. |
|
Regresión de Vector de Nu-Soporte. |
|
Detección de Valor Atípicos no supervisada. |
|
Clasificación de Vector C-Soporte. |
|
Regresión de Vector de Soporte-Épsilon. |
Devuelve el límite más bajo para C tal que para C en (l1_min_C, infinity) se garantiza que el modelo no esté vacío. |
sklearn.tree
: Árboles de decisión¶
El módulo sklearn.tree
incluye modelos basados en árboles de decisión para clasificación y regresión.
Manual de usuario: Ver la sección Árboles de decisión para más detalles.
Un clasificador de árbol de decisión. |
|
Un regresor de árbol de decisión. |
|
Un clasificador de árboles extremadamente aleatorio. |
|
Un regresor de árbol extremadamente aleatorio. |
Exporta un árbol de decisiones en formato DOT. |
|
Crea un reporte que muestra las reglas de un árbol de decisión. |
Graficos¶
Grafica un árbol de decisión. |
sklearn.utils
: Utilidades¶
El módulo sklearn.utils
incluye varias utilidades.
Guía del desarrollador: Consulte la página Utilidades para Desarrolladores para más detalles.
Encuentra el valor mínimo de un arreglo sobre valores positivos |
|
Convierte un array-like en un arreglo de valores de punto flotante. |
|
Arroja un ValueError si X contiene NaN o infinito. |
|
Objeto contenedor que expone las claves como atributos. |
|
Validación de entrada para estimadores estándar. |
|
Validación de entrada en un arreglo, lista, matriz dispersa o similar. |
|
Valida el tipo y el valor de los parámetros escalares. |
|
Comprueba que todos los arreglos tengan dimensiones iniciales consistentes. |
|
Convierte semillas en una instancia de np.random.RandomState |
|
Estima los pesos de las clases para conjuntos de datos no balanceados. |
|
Estima los pesos muestrales por clase para conjuntos de datos no balanceados. |
|
Decorador para marcar una función o clase como obsoleta. |
|
Comprueba si el estimador cumple las convenciones de scikit-learn. |
|
Decorador específico de pytest para parametrizar las comprobaciones del estimador. |
|
Construye una representación HTML de un estimador. |
|
Producto punto que maneja correctamente el caso de una matriz dispersa. |
|
Calcula una matriz ortonormal cuyo rango se aproxima el rango de A. |
|
Calcula una SVD truncada aleatorizada. |
|
Calcula log(det(A)) para A simétrico. |
|
Calcula la densidad de un vector disperso. |
|
Devuelve un arreglo del valor modal (más común) ponderado en a. |
|
Generador para crear n_packs rebanadas que suben a n. |
|
Devuelve la longitud del camino más corto desde el origen a todos los nodos alcanzables. |
|
Realiza una búsqueda del camino más corto en un grafo positivo dirigido o no dirigido. |
|
Construye arreglos indexables para la validación cruzada. |
|
Crea un decorador para métodos que se delegan a un subestimador |
|
Determina el tipo de datos indicados por el objetivo. |
|
Comprueba si |
|
Extrae un arreglo ordenado de etiquetas únicas. |
|
Calcula el murmurhash3 de 32 bits de la clave en la semilla. |
|
Remuestrea arreglos o matrices dispersas de forma coherente. |
|
Devuelve filas, elementos o columnas de X usando índices. |
|
Devuelve una máscara que es segura para usar en X. |
|
Encuadrado por cada elemento de array-like y matrices dispersas. |
|
Revuelve arreglos o matrices dispersas de forma coherente. |
|
Calcula la media y varianza incremental a lo largo de un eje en una matriz CSR o CSC. |
|
Escalamiento de columnas in place de una matriz CSC/CSR. |
|
Escalamiento de filas in place de una matriz CSR o CSC. |
|
Intercambia dos filas de una matriz CSC/CSR in place. |
|
Intercambia dos columnas de una matriz CSC/CSR in place. |
|
Calcula la media y la varianza a lo largo de un eje en una matriz CSR o CSC. |
|
Escalamiento de columnas in place de una matriz CSR. |
|
Normalización de filas in place utilizando la norma l1 |
|
Normalización de filas in place utilizando la norma l2 |
|
Muestra de enteros sin reemplazo. |
|
Realiza la validación is_fitted para el estimador. |
|
Comprueba que |
|
Verifica que el arreglo es 2D, cuadrado y simétrico. |
|
Columna Ravel o arreglo 1d numpy, de lo contrario genera un error. |
|
Comprueba si el método de ajuste del estimador admite el parámetro dado. |
|
Obtiene una lista de todos los estimadores de sklearn. |
Utilidades de joblib:
Cambia el backend predeterminado utilizado por Parallel dentro de un bloque with. |
|
Registra un nuevo backend Parallel factory. |