1. Aprendizaje supervisado¶
- 1.1. Modelos lineales
- 1.1.1. Mínimos Cuadrados Ordinarios
- 1.1.2. Regresión de cresta y clasificación
- 1.1.3. Lasso
- 1.1.4. Lasso multitarea
- 1.1.5. Elastic-Net
- 1.1.6. Elastic-Net multitarea
- 1.1.7. Regresión de ángulo mínimo
- 1.1.8. LARS Lasso
- 1.1.9. Búsqueda de coincidencias ortogonales (OMP)
- 1.1.10. Regresión bayesiana
- 1.1.11. Regresión logística
- 1.1.12. Regresión lineal generalizada
- 1.1.13. Descenso de gradiente estocástico - SGD
- 1.1.14. Perceptrón
- 1.1.15. Algoritmos pasivo-agresivos
- 1.1.16. Regresión robusta: valores atípicos y errores de modelización,
- 1.1.17. Regresión polinómica: ampliación de los modelos lineales con funciones de base
- 1.2. Análisis Discriminante Lineal y Cuadrático
- 1.3. Regresión de cresta de núcleo
- 1.4. Máquinas de Vectores de Soporte
- 1.5. Descenso de Gradiente Estocástico
- 1.6. Vecino más cercano
- 1.6.1. Vecinos más cercanos no supervisados
- 1.6.2. Clasificación de los vecinos más cercanos
- 1.6.3. Regresión de vecinos más cercanos
- 1.6.4. Algoritmos del vecino más cercano
- 1.6.5. Clasificador de centroides más cercano
- 1.6.6. Transformador de vecinos más cercanos
- 1.6.7. Análisis de componentes del vecindario
- 1.7. Procesos Gaussianos
- 1.8. Descomposición cruzada
- 1.9. Bayesiano ingenuo
- 1.10. Árboles de decisión
- 1.11. Métodos combinados
- 1.12. Algoritmos multiclase y multisalida
- 1.13. Selección de características
- 1.13.1. Remover características con varianza baja
- 1.13.2. Selección de características univariantes
- 1.13.3. Eliminación recursiva de características
- 1.13.4. Selección de características mediante SelectFromModel
- 1.13.5. Selección secuencial de características
- 1.13.6. Selección de rasgos como parte de un pipeline
- 1.14. Aprendizaje semi supervisado
- 1.15. Regresión isotónica
- 1.16. Calibración de probabilidad
- 1.17. Modelos de redes neuronales (supervisadas)