Manual de Usuario¶
- 1. Aprendizaje supervisado
- 1.1. Modelos lineales
- 1.1.1. Mínimos Cuadrados Ordinarios
- 1.1.2. Regresión de cresta y clasificación
- 1.1.3. Lasso
- 1.1.4. Lasso multitarea
- 1.1.5. Elastic-Net
- 1.1.6. Elastic-Net multitarea
- 1.1.7. Regresión de ángulo mínimo
- 1.1.8. LARS Lasso
- 1.1.9. Búsqueda de coincidencias ortogonales (OMP)
- 1.1.10. Regresión bayesiana
- 1.1.11. Regresión logística
- 1.1.12. Regresión lineal generalizada
- 1.1.13. Descenso de gradiente estocástico - SGD
- 1.1.14. Perceptrón
- 1.1.15. Algoritmos pasivo-agresivos
- 1.1.16. Regresión robusta: valores atípicos y errores de modelización,
- 1.1.17. Regresión polinómica: ampliación de los modelos lineales con funciones de base
- 1.2. Análisis Discriminante Lineal y Cuadrático
- 1.3. Regresión de cresta de núcleo
- 1.4. Máquinas de Vectores de Soporte
- 1.5. Descenso de Gradiente Estocástico
- 1.6. Vecino más cercano
- 1.6.1. Vecinos más cercanos no supervisados
- 1.6.2. Clasificación de los vecinos más cercanos
- 1.6.3. Regresión de vecinos más cercanos
- 1.6.4. Algoritmos del vecino más cercano
- 1.6.5. Clasificador de centroides más cercano
- 1.6.6. Transformador de vecinos más cercanos
- 1.6.7. Análisis de componentes del vecindario
- 1.7. Procesos Gaussianos
- 1.8. Descomposición cruzada
- 1.9. Bayesiano ingenuo
- 1.10. Árboles de decisión
- 1.11. Métodos combinados
- 1.12. Algoritmos multiclase y multisalida
- 1.13. Selección de características
- 1.13.1. Remover características con varianza baja
- 1.13.2. Selección de características univariantes
- 1.13.3. Eliminación recursiva de características
- 1.13.4. Selección de características mediante SelectFromModel
- 1.13.5. Selección secuencial de características
- 1.13.6. Selección de rasgos como parte de un pipeline
- 1.14. Aprendizaje semi supervisado
- 1.15. Regresión isotónica
- 1.16. Calibración de probabilidad
- 1.17. Modelos de redes neuronales (supervisadas)
- 1.1. Modelos lineales
- 2. Aprendizaje no supervisado
- 2.1. Modelos de mezclas gaussianas
- 2.2. Aprendizaje múltiple
- 2.2.1. Introducción
- 2.2.2. Isomap
- 2.2.3. Embedding localmente lineal
- 2.2.4. Embedding modificado localmente lineal
- 2.2.5. Eigenmapeo Hessiano
- 2.2.6. Embedding Espectral
- 2.2.7. Alineación del Espacio Tangente Local
- 2.2.8. Escalamiento Multidimensional (Multi-dimensional Scaling, MDS)
- 2.2.9. Embedding Estocástico de Vecinos distribuido t (t-distributed Stochastic Neighbor Embedding, t-SNE)
- 2.2.10. Consejos sobre el uso práctico
- 2.3. Análisis de conglomerados (Agrupamiento)
- 2.3.1. Resumen de los métodos de análisis de conglomerados
- 2.3.2. K-medias
- 2.3.3. Propagación de la afinidad
- 2.3.4. Media desplazada
- 2.3.5. Análisis espectral de conglomerados
- 2.3.6. Análisis de conglomerados jerárquicos
- 2.3.7. DBSCAN
- 2.3.8. OPTICS
- 2.3.9. Birch
- 2.3.10. Evaluación del rendimiento del análisis de conglomerados (agrupamiento)
- 2.4. Biclustering
- 2.5. Descomposición de señales en componentes (problemas de factorización de matrices)
- 2.5.1. Análisis de componentes principales (PCA)
- 2.5.2. Descomposición de valor singular truncado y análisis semántico latente
- 2.5.3. Diccionario de aprrendizaje
- 2.5.4. Análisis de factores
- 2.5.5. Análisis de componentes independientes (ICA)
- 2.5.6. Factorización matricial no negativa (NMF o NNMF)
- 2.5.7. Asignación Latente de Dirichlet (LDA)
- 2.6. Estimación de covarianza
- 2.7. Detección de novedades y valores atípicos
- 2.8. Estimación de densidad
- 2.9. Modelos de red neural (no supervisados)
- 3. Selección y evaluación del modelo
- 4. Inspección
- 5. Visualizaciones
- 6. Transformaciones de conjuntos de datos
- 6.1. Pipelines y estimadores compuestos
- 6.2. Extracción de características
- 6.3. Preprocesamiento de los datos
- 6.3.1. Estandarización, o eliminación media y escala de varianza
- 6.3.2. Transformación no lineal
- 6.3.3. Normalización
- 6.3.4. Codificación de características categóricas
- 6.3.5. Discretización
- 6.3.6. Imputación de valores faltantes
- 6.3.7. Generación de características polinomiales
- 6.3.8. Transformadores personalizados
- 6.4. Imputación de valores faltantes
- 6.5. Reducción de dimensionalidad no supervisada
- 6.6. Proyección aleatoria
- 6.7. Aproximación de núcleo
- 6.8. Métricas por pares, afinidades y núcleos
- 6.9. Transformación del objetivo de predicción (
y
)
- 7. Herramientas de carga de conjuntos de datos
- 7.1. Conjuntos de datos de juguetes
- 7.1.1. Conjunto de datos sobre los precios de la vivienda en Boston
- 7.1.2. Conjunto de datos de plantas de lirio
- 7.1.3. Conjunto de datos sobre la diabetes
- 7.1.4. Conjunto de datos de reconocimiento óptico de dígitos manuscritos
- 7.1.5. Conjunto de datos de Linnerrud
- 7.1.6. Conjunto de datos de reconocimiento de vinos
- 7.1.7. Conjunto de datos sobre el cáncer de mama en Wisconsin (diagnóstico)
- 7.2. Conjuntos de datos del mundo real
- 7.2.1. El conjunto de datos de caras Olivetti
- 7.2.2. El conjunto de datos de texto de 20 grupos de noticias
- 7.2.3. El conjunto de datos de reconocimiento facial Labeled Faces in the Wild
- 7.2.4. Tipos de cobertura forestal
- 7.2.5. Conjunto de datos RCV1
- 7.2.6. Conjunto de datos Kddcup 99
- 7.2.7. Conjunto de datos California Housing
- 7.3. Conjuntos de datos generados
- 7.4. Cargando otros conjuntos de datos
- 7.1. Conjuntos de datos de juguetes
- 8. Calculando con scikit-learn
- 9. Persistencia del modelo
- 10. Fallas comunes y prácticas recomendadas