Por Thomas BourdinActualizado el 30 de agosto de 2022
Tevarak/iStock/GettyImages
La regresión lineal es una piedra angular del análisis estadístico, ya que nos permite estimar la relación entre una variable predictiva x y una variable de respuesta y usando la ecuación y = mx + b . Si bien la línea ajustada a menudo captura la tendencia subyacente, rara vez pasa perfectamente por todos los puntos de datos. Las discrepancias resultantes, llamadas residuales, introducen incertidumbre en nuestras estimaciones de parámetros, especialmente en la pendiente m. . El error estándar de la pendiente cuantifica esta incertidumbre, permitiendo intervalos de confianza y pruebas de hipótesis.
SSR es la suma de las diferencias al cuadrado entre los y observados. valores y los valores predichos por la línea ajustada. Por ejemplo, si los valores observados son 2,7, 5,9 y 9,4 y el modelo predice 3, 6 y 9, los residuos al cuadrado son 0,09, 0,01 y 0,16, respectivamente. Sumarlos produce un SSR de 0,26.
Divida el SSR por los grados de libertad, que es el número de observaciones menos dos (para la pendiente y la intercepción). En el ejemplo, con tres observaciones, el divisor es 1, lo que da una estimación de la varianza de 0,26. Llame a este valor A .
La raíz cuadrada de A (√0,26) es igual a 0,51. Este valor representa la desviación estándar de los residuos y se utilizará en el cálculo final.
x
ESS mide la variabilidad de la variable predictiva alrededor de su media. Para x valores de 1, 2 y 3, la media es 2. Restando la media y elevando al cuadrado cada diferencia se obtienen 1, 0 y 1, que suman 2. Por lo tanto, ESS =2.
La raíz cuadrada de ESS (√2) es 1,41. Denota esto como B .
Divida la raíz cuadrada de la estimación de la varianza (paso 3) por la raíz cuadrada de ESS (paso 5):0,51 ÷ 1,41 =0,36. Este valor (0,36) es el error estándar de la pendiente.
Para conjuntos de datos grandes, automatice el cálculo para evitar errores manuales y ahorrar tiempo.