Main Content

Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Evaluar la bondad de ajuste

Cómo evaluar la bondad de ajuste

Después de ajustar datos con uno o más modelos, debería evaluar la bondad de ajuste. El primer paso debería ser un examen visual de la curva ajustada que se muestra en la app Curve Fitting. Además, la toolbox proporciona estos métodos para evaluar la bondad de ajuste en los ajustes paramétricos lineales y no lineales:

Como es habitual en la literatura estadística, el término bondad de ajuste se usa con distintos sentidos: Un "buen ajuste" puede ser un modelo

  • del que razonablemente podrían proceder sus datos, suponiendo un ajuste por mínimos cuadrados

  • en el que los coeficientes modelo pueden estimarse con poca incertidumbre,

  • que explica una gran proporción de la variabilidad de sus datos y que es capaz de predecir nuevas observaciones con gran certeza.

Una aplicación en particular podría dictar incluso otros aspectos de ajuste de modelo importantes para lograr un buen ajuste, como un modelo simple que es fácil de interpretar. Los métodos que aquí se describen pueden resultarle de ayuda para determinar la bondad de ajuste en cualquiera de estos sentidos.

Estos métodos se engloban en dos tipos: gráficos y numéricos. Representar valores residuales y cotas de predicción son métodos gráficos que ayudan a la interpretación visual, mientras que calcular estadísticas de bondad de ajuste y cotas de confianza de coeficientes ofrecen medidas numéricas que ayudan al razonamiento estadístico.

En general, las medidas gráficas son más beneficiosas que las medidas numéricas porque le permiten ver todo el conjunto de datos de una vez, y pueden mostrar fácilmente una amplia gama de relaciones entre el modelo y los datos. Las medidas numéricas se centran de forma más restringida en un aspecto concreto de los datos y suelen intentar comprimir esa información en un único número. En la práctica, según los datos y las necesidades de análisis que tenga, puede que deba utilizar ambos tipos para determinar el mejor ajuste.

Tenga en cuenta que, según estos métodos, es posible que ninguno de los ajustes pueda considerarse apropiado para sus datos. En tal caso, quizás tenga que seleccionar un modelo diferente. También es posible que todas las medidas de bondad de ajuste indiquen que un ajuste concreto es apropiado. Sin embargo, si su objetivo es extraer los coeficientes ajustados que tienen significado físico, pero su modelo no refleja la física de los datos, los coeficientes resultantes serán inútiles. En tal caso, comprender qué representan sus datos y cómo se midieron es tan importante como evaluar la bondad de ajuste.

Estadísticas de bondad de ajuste

Después de utilizar métodos gráficos para evaluar la bondad de ajuste, debería examinar las estadísticas de bondad de ajuste. Curve Fitting Toolbox™ admite las siguientes estadísticas de bondad de ajuste para modelos paramétricos:

  • La suma de cuadrados debidos al error (SSE)

  • R-cuadrado

  • R-cuadrado ajustado

  • Raíz del error cuadrático medio (RMSE)

Para el ajuste actual, estas estadísticas se muestran en el panel Results de la app Curve Fitting. En Table of fits, puede comparar las estadísticas de bondad de ajuste de todos los ajustes de la sesión actual de Curve Fitting.

Para obtener estadísticas de bondad de ajuste desde la línea de comandos, puede:

  • Seleccionar Fit > Save to Workspace, en la app Curve Fitting, para exportar su ajuste y bondad de ajuste al espacio de trabajo.

  • Especificar el argumento de salida gof con la función fit.

Suma de cuadrados debidos al error

Esta estadística mide la desviación total de los valores de respuesta desde el ajuste hasta los valores de respuesta. También se llama suma de cuadrados de los valores residuales y se suele etiquetar como SSE.

SSE=i=1nwi(yiy^i)2

Un valor más cercano a 0 indica que el modelo tiene un componente de error aleatorio menor y que el ajuste será más útil para predecir.

R-cuadrado

Esta estadística mide el éxito del ajuste al explicar la variación de los datos. Dicho de otra manera, R-cuadrado es el cuadrado de la correlación entre los valores de respuesta y los valores de respuesta predichos. También se llama cuadrado de coeficiente de correlación múltiple y coeficiente de determinación múltiple.

R-cuadrado se define como la relación de la suma de cuadrados de la regresión (SSR) y la suma total de cuadrados (SST). SSR se define como

SSR=i=1nwi(y^iy¯)2

SST también se llama la suma de cuadrados sobre la media y se define como

SST=i=1nwi(yiy¯)2

donde SST = SSR + SSE. Dadas estas definiciones, R-cuadrado se expresa como

R-square=SSRSST=1SSESST

R-cuadrado puede asumir cualquier valor entre 0 y 1; un valor más cercano al 1 indica que el modelo explica una mayor proporción de varianza. Por ejemplo, un valor de R-cuadrado de 0,8234 significa que el ajuste explica el 82,34% de la variación total de los datos sobre el promedio.

Si aumenta el número de coeficientes ajustados en su modelo, R-cuadrado aumentará aunque puede que el ajuste no mejore en un sentido práctico. Para evitar esta situación, debería utilizar los grados de libertad de la estadística R-cuadrado ajustado que se describen a continuación.

Tenga en cuenta que puede obtener un R-cuadrado negativo para ecuaciones que no contengan un término constante. Dado que R-cuadrado se define como la proporción de varianza explicada por el ajuste, si el ajuste es peor que simplemente ajustar una línea horizontal, entonces R-cuadrado es negativo. En tal caso, R-cuadrado no se puede interpretar como el cuadrado de una correlación. Dichas situaciones indican que se debería añadir un término constante al modelo.

Grados de libertad de R-cuadrado ajustado

Esta estadística utiliza la estadística de R-cuadrado descrita anteriormente y la ajusta según los grados de libertad residuales. Los grados de libertad residuales se definen como el número de valores de respuesta n menos el número de coeficientes ajustados m estimados a partir de los valores de respuesta.

v = nm

v indica el número de elementos de información independientes implicados en los puntos de datos n que hacen falta para calcular la suma de cuadrados. Tenga en cuenta que si los parámetros están acotados y una o más de las estimaciones están en sus cotas, entonces dichas estimaciones se considerarán fijas. Los grados de libertad aumentan por el número de dichos parámetros.

La estadística de R-cuadrado ajustado suele ser el mejor indicador de la calidad de ajuste cuando se comparan dos modelos que están anidados, es decir, una serie de modelos en los que cada uno de ellos añade coeficientes adicionales al modelo anterior.

adjusted R-square=1SSE(n1)SST(v)

La estadística R-cuadrado ajustado puede asumir cualquier valor inferior o igual a 1 y, cuanto más se acerca el valor a 1, indica un mejor ajuste. Los valores negativos pueden aparecer cuando el modelo contiene términos que no ayudan a predecir la respuesta.

Raíz del error cuadrático medio

Esta estadística también se conoce como error estándar de ajuste y error estándar de la regresión. Es una estimación de la desviación estándar del componente aleatorio de los datos, y se define como

RMSE=s=MSE

donde MSE es el error cuadrado medio o el cuadrado medio residual

MSE=SSEv

Igual que SSE, un valor MSE más cercano a 0 indica un ajuste que es más útil para la predicción.

Consulte también

Temas relacionados