Pruebas de bondad de ajuste
Cualquier software de ajuste de un conjunto de datos a una distribución de probabilidad realiza tests estadísticos que nos informan sobre la bondad de ese ajuste. Se basan en plantear la hipótesis de que los datos observador y los que tendría la distribución de probabilidad son los mismos (hipótesis nula o H0). Existen dos tipos de errores que podemos cometer:
- Error tipo I: Rechazar H0 cuando es realmente cierta. La probabilidad de cometer un error de tipo I se denomina nivel de significación y se denota por α.
- Error tipo II: Aceptar H0 cuando es realmente falsa. La probabilidad de cometer un error de tipo II se denota por β.
Como no es posible reducir α y β al mismo tiempo, normalmente se establece α con antelación, siendo los valores típicos 0,05, 0,01 o 0,001. La definición del nivel de significación permite establecer las denominadas regiones de rechazo (con probabilidad α) y no rechazo (con probabilidad 1 - α) para el test estadístico que se utilice para comprobar la hipótesis nula. Según el valor que tome este estadístico esté dentro de la región de rechazo o de no rechazo se pueden llegar a dos conclusiones:
Valor del estadístico | Conclusión |
Dentro de la región de no rechazo | No existen evidencias suficientes para rechazar H0 con un nivel de significación α, por lo que se considera que el contraste de hipótesis no es estadísticamente significativo. |
Dentro de la región de rechazo | Se asume que los datos no son compatibles con H0 y se rechaza esta hipótesis con un nivel de significación α. Por lo tanto, podemos decir que el contraste de hipótesis es estadísticamente significativo. |
Los dos test de hipótesis más empleados para comprobar la bondad del ajuste son:
Además, podemos usar el p-valor como medida de esta bondad de ajuste.
Obra publicada con Licencia Creative Commons Reconocimiento No comercial Compartir igual 3.0