Manual de Usuario¶
- 1. Aprendizaje supervisado
- 1.1. Modelos lineales
- 1.2. Análisis Discriminante Lineal y Cuadrático
- 1.3. Regresión de cresta de núcleo
- 1.4. Máquinas de Vectores de Soporte
- 1.5. Descenso de Gradiente Estocástico
- 1.6. Vecino más cercano
- 1.7. Procesos Gaussianos
- 1.8. Descomposición cruzada
- 1.9. Bayesiano ingenuo
- 1.10. Árboles de decisión
- 1.11. Métodos combinados
- 1.12. Algoritmos multiclase y multisalida
- 1.13. Selección de características
- 1.14. Aprendizaje semi supervisado
- 1.15. Regresión isotónica
- 1.16. Calibración de probabilidad
- 1.17. Modelos de redes neuronales (supervisadas)
- 2. Aprendizaje no supervisado
- 2.1. Modelos de mezclas gaussianas
- 2.2. Aprendizaje múltiple
- 2.3. Análisis de conglomerados (Agrupamiento)
- 2.4. Biclustering
- 2.5. Descomposición de señales en componentes (problemas de factorización de matrices)
- 2.6. Estimación de covarianza
- 2.7. Detección de novedades y valores atípicos
- 2.8. Estimación de densidad
- 2.9. Modelos de red neural (no supervisados)
- 3. Selección y evaluación del modelo
- 4. Inspección
- 5. Visualizaciones
- 6. Transformaciones de conjuntos de datos
- 6.1. Pipelines y estimadores compuestos
- 6.2. Extracción de características
- 6.3. Preprocesamiento de los datos
- 6.4. Imputación de valores faltantes
- 6.5. Reducción de dimensionalidad no supervisada
- 6.6. Proyección aleatoria
- 6.7. Aproximación de núcleo
- 6.8. Métricas por pares, afinidades y núcleos
- 6.9. Transformación del objetivo de predicción (
y
)
- 7. Herramientas de carga de conjuntos de datos
- 8. Calculando con scikit-learn
- 9. Persistencia del modelo
- 10. Fallas comunes y prácticas recomendadas