Estaba tratando de pensar en la mejor manera de explicar esto y me topé con una página que hace un muy buen trabajo. Prefiero darle a este tipo el crédito por la explicación. En caso de que el enlace no funcione para algunos he incluido algo de información a continuación.

Simplemente: el valor de #R^2# es simplemente el cuadrado del coeficiente de correlación #R#.

El coeficiente de correlación ( #R# ) de un modelo (digamos con variables #x# y #y#) toma valores entre #-1# y #1#. Describe cómo #x# e #y# están correlacionados.

  • Si #x# e #y# están al unísono perfecto, entonces este valor será positivo #1#
  • Si #x# aumenta mientras #y# disminuye de manera exactamente opuesta, entonces este valor será #-1#
  • #0# sería una situación en la que no hay correlación entre #x# e #y#

Sin embargo, este valor de #R# sólo es útil para un modelo lineal simple (sólo una #x# e #y#). Una vez que consideramos más de una variable independiente (ahora tenemos #x_1#, #x_2#, …), es muy difícil entender qué significa el coeficiente de correlación. Seguir la pista de qué variable contribuye a la correlación no está tan claro.

Aquí es donde entra en juego el valor de #R^2#. Es simplemente el cuadrado del coeficiente de correlación. Toma valores entre #0# y #1#, donde los valores cercanos a #1# implican más correlación (ya sea correlación positiva o negativa) y #0# implica que no hay correlación. Otra forma de verlo es como la variación fraccional de la variable dependiente que es el resultado de todas las variables independientes. Si la variable dependiente es altamente dependiente de todas sus variables independientes, el valor será cercano a #1#. Así que #R^2# es mucho más útil, ya que se puede utilizar para describir modelos multivariantes también.

Si desea una discusión sobre algunas de las nociones matemáticas involucradas con la relación de los dos valores, vea esto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.