Visualización interactiva de tres tipos de regresión: lineal, polinómica y logística
Comparación de 3 métodos para resolver regresión lineal ordinaria (OLS): analítica (ecuación normal), gradiente descendente y scikit-learn. Observa cómo las rectas oscilan con pocos datos y convergen a la misma solución conforme se agregan puntos.
La regresión polinómica no es un modelo nuevo — es regresión lineal en un espacio transformado. La matriz de Vandermonde [1, x, x², x³] transforma el problema a OLS ordinario. Observa cómo el grado 4 oscila con pocos datos (overfitting) pero converge con más puntos.
En regresión logística no predecimos un valor continuo sino una probabilidad via sigmoid. Comparamos gradiente descendente, Newton-Raphson (convergencia cuadrática) y scikit-learn. El dataset es clasificación binaria: vivienda cara (≥ mediana) vs barata (< mediana).
| Característica | Regresión Lineal | Regresión Polinómica | Regresión Logística |
|---|---|---|---|
| Tipo de Problema | Predicción continua | Predicción continua (no lineal) | Clasificación binaria |
| Función de Costo | MSE (suma de cuadrados) | MSE (suma de cuadrados) | Log-loss (cross-entropy) |
| Optimización | Ecuación normal O(n³), GD O(n·iteraciones) | Ecuación normal O(n³), GD O(n·iteraciones) | GD O(n·iteraciones), Newton-Raphson O(n³·iteraciones) |
| R² / Accuracy | 0.47 (débil pero interpretable) | Mejora con grado, pero overfitting | ~80% accuracy |
| Supuestos Clave | Linealidad, errores normales, homocedasticidad | Linealidad (en espacio transformado) | Independencia, relación lineal en log-odds |
| Regularización | Ridge/Lasso para multicolinealidad | Ridge/Lasso para penalizar coeficientes altos | L2 (C=1.0 por defecto en sklearn) |