• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo interpretar la regresión jerárquica

    La regresión jerárquica es un método estadístico para explorar las relaciones y probar hipótesis sobre una variable dependiente y varias variables independientes. La regresión lineal requiere una variable numérica dependiente. Las variables independientes pueden ser numéricas o categóricas. La regresión jerárquica significa que las variables independientes no se ingresan en la regresión simultáneamente, sino en pasos. Por ejemplo, una regresión jerárquica podría examinar las relaciones entre la depresión (medida por alguna escala numérica) y variables que incluyen datos demográficos (como edad, sexo y grupo étnico) en la primera etapa y otras variables (como puntajes en otras pruebas) en una segunda etapa.

    Interprete la primera etapa de la regresión.

    Mire el coeficiente de regresión no estandarizado (que puede llamarse B en su resultado) para cada variable independiente. Para las variables independientes continuas, esto representa el cambio en la variable dependiente para cada cambio de unidad en la variable independiente. En el ejemplo, si la edad tuviera un coeficiente de regresión de 2.1, significaría que el valor predicho de la depresión aumenta en 2.1 unidades por cada año de edad.

    Para las variables categóricas, el resultado debería mostrar un coeficiente de regresión para cada nivel de la variable excepto uno; el que falta se llama nivel de referencia. Cada coeficiente representa la diferencia entre ese nivel y el nivel de referencia en la variable dependiente. En el ejemplo, si el grupo étnico de referencia es "Blanco" y el coeficiente no estandarizado para "Negro" es -1.2, significaría que el valor predicho de depresión para los negros es 1.2 unidades menor que para los blancos.

    Mire los coeficientes estandarizados (que pueden etiquetarse con la letra griega beta). Estos pueden interpretarse de manera similar a los coeficientes no estandarizados, solo que ahora están en términos de unidades de desviación estándar de la variable independiente, en lugar de unidades crudas. Esto puede ayudar a comparar las variables independientes entre sí.

    Mire los niveles de significancia, o valores p, para cada coeficiente (estos pueden etiquetarse como "Pr >" o algo similar). Estos le dicen si la variable asociada es estadísticamente significativa. Esto tiene un significado muy particular que a menudo se tergiversa. Significa que es poco probable que ocurra un coeficiente tan alto o más alto en una muestra de este tamaño si el coeficiente real, en toda la población de la que se extrae, fue 0.

    Mire R cuadrado. Esto muestra qué proporción de la variación en la variable dependiente es contabilizada por el modelo.

    Interprete las etapas posteriores de la regresión, el cambio y el resultado global

    Repita lo anterior para cada uno posterior etapa de la regresión.

    Comparar los coeficientes estandarizados, coeficientes no estandarizados, niveles de significancia y r-squareds en cada etapa de la etapa previa. Estos pueden estar en secciones separadas de la salida, o en columnas separadas de una tabla. Esta comparación le permite saber cómo las variables en la segunda etapa (o posterior) afectan las relaciones en la primera etapa.

    Mire todo el modelo, incluidas todas las etapas. Mire los coeficientes no estandarizados y estandarizados y los niveles de significancia para cada variable y el R cuadrado para todo el modelo.

    Advertencia

    Este es un tema muy complejo.

    © Ciencia https://es.scienceaq.com