4.3 Evaluación en Respuesta Continúa

4.3.1 Modelos de Regresión

En los problemas de regresión siempre tenemos una variable numérica dependiente que es la que queremos predecir y el resto son los predictores. Para evaluar los modelos de regresión tenemos varias métricas para evaluar el error cometido en al predicción:

  • RMSE (root mean squared error) o error cuadrado medio: RMSE es la métrica más popular para medir la tasa de error de un modelo de regresión.

RMSE=ni=1(ˆyiyi)2n

donde n es el número de muestras, ˆyi el valor predicho de la variable objetivo y yi el valor real de la variable objetivo.

  • MAE (mean abosulte error) o error absoluto medio:

MAE=ni=1|ˆyiyi|n

donde n es el número de muestras, ˆyi el valor predicho de la variable objetivo y yi el valor real de la variable objetivo.

  • RSE (relative squared error) o error relativo cuadrado:

RSE=ni=1(ˆyiyi)2ni=1(ˉyyi)2

donde n es el número de muestras, ˉy es la media de la variable objetivo, ˆyi el valor predicho de la variable objetivo y yi el valor real de la variable objetivo.

  • RAE (relative absolute error) o error relativo absoluto:

RAE=ni=1|ˆyiyi|ni=1|ˉyyi|

donde n es el número de muestras, ˉy es la media de la variable objetivo, ˆyi el valor predicho de la variable objetivo y yi el valor real de la variable objetivo.

  • Coeficiente R2: R2 resume el poder explicativo del modelo de regresión y se calcula a partir de los términos de las sumas de cuadrados. El coeficiente R2 toma valores entre 0 y 1, si R2=1 la regresión es perfecta.

R2=SSRSST=1SSESST,

donde SST=ni=1(yˉy)2,

SSR=ni=1(ˆyˉˆy)2,

SSE=ni=1(yˆy)2.

4.3.2 Modelos de Series temporales

Las series temporales son básicamente un problema de regresión. La diferencia es que hay una variable temporal y el objetivo es predecir el futuro dado un histórico. Por lo tanto, las métricas utilizadas son las mismas que las usadas para los problemas de regresión vistas en la sección anterior.

Otras métricas usadas frecuentemente para la evaluación de series temporales son:

MAPE

MAPE viene de Mean Absolute Percentage Error. Los errores porcentuales tienen la ventaja de ser independientes de la escala y, por lo tanto, se utilizan con frecuencia para comparar el rendimiento del pronóstico entre diferentes conjuntos de datos. MAPE es el más usual.

MAPE=1nni=1100·|^yiyi|yi

AIC

AIC viene de Akaike information criterion. Se define como

AIC=2k2ln(ˆL)

Dado un conjunto de modelos candidatos para los datos, el modelo preferido es el que tiene el valor mínimo en el AIC. Por lo tanto AIC no sólo recompensa la bondad de ajuste, sino también incluye una penalidad, que es una función creciente del número de parámetros estimados.

BIC

BIC**_ viene de Bayesian Information Criterion)_. Se define como

BIC=ln(n)k2ln(ˆL)

donde ˆL es máximo de la función de verosimilitud, n es el número de muestras, k es el número de parámetros estimados por el modelo.

La fórmula del BIC es similar a la fórmula del AIC, pero con una penalización distinta que varia según el número de muestras de los datos.