4.3 Evaluación en Respuesta Continúa

4.3.1 Modelos de Regresión

En los problemas de regresión siempre tenemos una variable numérica dependiente que es la que queremos predecir y el resto son los predictores. Para evaluar los modelos de regresión tenemos varias métricas para evaluar el error cometido en al predicción:

  • RMSE (root mean squared error) o error cuadrado medio: RMSE es la métrica más popular para medir la tasa de error de un modelo de regresión.

\[RMSE = \sqrt {\frac{\sum_{i=1}^{n} (\hat{y}_i - y_i)^2}{n}}\]

donde \(n\) es el número de muestras, \(\hat{y}_i\) el valor predicho de la variable objetivo y \(y_i\) el valor real de la variable objetivo.

  • MAE (mean abosulte error) o error absoluto medio:

\[MAE = \frac{\sum_{i=1}^{n} | \hat{y}_i - y_i |}{n}\]

donde \(n\) es el número de muestras, \(\hat{y}_i\) el valor predicho de la variable objetivo y \(y_i\) el valor real de la variable objetivo.

  • RSE (relative squared error) o error relativo cuadrado:

\[RSE = \sqrt \frac{\sum_{i=1}^{n} (\hat{y}_i - y_i)^2}{\sum_{i=1}^{n} (\bar{y} - y_i)^2}\]

donde \(n\) es el número de muestras, \(\bar{y}\) es la media de la variable objetivo, \(\hat{y}_i\) el valor predicho de la variable objetivo y \(y_i\) el valor real de la variable objetivo.

  • RAE (relative absolute error) o error relativo absoluto:

\[RAE = \frac{\sum_{i=1}^{n} |\hat{y}_i - y_i|}{\sum_{i=1}^{n} |\bar{y} - y_i|}\]

donde \(n\) es el número de muestras, \(\bar{y}\) es la media de la variable objetivo, \(\hat{y}_i\) el valor predicho de la variable objetivo y \(y_i\) el valor real de la variable objetivo.

  • Coeficiente \(R^2\): \(R^2\) resume el poder explicativo del modelo de regresión y se calcula a partir de los términos de las sumas de cuadrados. El coeficiente \(R^2\) toma valores entre \(0\) y \(1\), si \(R^2=1\) la regresión es perfecta.

\[R^2 = \frac {SSR}{SST} = 1 - \frac{SSE}{SST}, \]

donde \[SST = \sum_{i=1}^{n} (y - \bar{y})^2 ,\]

\[SSR = \sum_{i=1}^{n} (\hat{y} - \bar{\hat{y}})^2 ,\]

\[SSE = \sum_{i=1}^{n} (y-\hat{y})^2 .\]

4.3.2 Modelos de Series temporales

Las series temporales son básicamente un problema de regresión. La diferencia es que hay una variable temporal y el objetivo es predecir el futuro dado un histórico. Por lo tanto, las métricas utilizadas son las mismas que las usadas para los problemas de regresión vistas en la sección anterior.

Otras métricas usadas frecuentemente para la evaluación de series temporales son:

MAPE

MAPE viene de Mean Absolute Percentage Error. Los errores porcentuales tienen la ventaja de ser independientes de la escala y, por lo tanto, se utilizan con frecuencia para comparar el rendimiento del pronóstico entre diferentes conjuntos de datos. MAPE es el más usual.

\[MAPE = \frac{1}{n} \sum_{i=1}^{n} \frac{100·|\hat{y_i}-y_i|}{y_i}\]

AIC

AIC viene de Akaike information criterion. Se define como

\[AIC = 2k-2\ln (\hat{L})\]

Dado un conjunto de modelos candidatos para los datos, el modelo preferido es el que tiene el valor mínimo en el AIC. Por lo tanto AIC no sólo recompensa la bondad de ajuste, sino también incluye una penalidad, que es una función creciente del número de parámetros estimados.

BIC

BIC**_ viene de Bayesian Information Criterion)_. Se define como

\[BIC = \ln (n) k - 2 \ln (\hat{L})\]

donde \(\hat{L}\) es máximo de la función de verosimilitud, \(n\) es el número de muestras, \(k\) es el número de parámetros estimados por el modelo.

La fórmula del BIC es similar a la fórmula del AIC, pero con una penalización distinta que varia según el número de muestras de los datos.