Ich habe überlegt, wie ich das am besten erklären kann, und bin über eine Seite gestolpert, die das wirklich gut macht. Ich möchte diesem Mann die Anerkennung für die Erklärung geben. Für den Fall, dass der Link für einige nicht funktioniert, habe ich einige Informationen unten eingefügt.
Einfach gesagt: der #R^2#-Wert ist einfach das Quadrat des Korrelationskoeffizienten #R#.
Der Korrelationskoeffizient ( #R# ) eines Modells (sagen wir mit den Variablen #x# und #y#) nimmt Werte zwischen #-1# und #1# an. Er beschreibt, wie #x# und #y# miteinander korreliert sind.
- Wenn #x# und #y# perfekt übereinstimmen, dann ist dieser Wert positiv #1#
- Wenn #x# zunimmt, während #y# in genau umgekehrter Weise abnimmt, dann ist dieser Wert #-1#
- #0# wäre eine Situation, in der es keine Korrelation zwischen #x# und #y# gibt
Dieser #R#-Wert ist jedoch nur für ein einfaches lineares Modell (nur ein #x# und #y#) nützlich. Sobald wir mehr als eine unabhängige Variable betrachten (jetzt haben wir #x_1#, #x_2#, …), ist es sehr schwer zu verstehen, was der Korrelationskoeffizient bedeutet. Es ist nicht so klar, welche Variable was zur Korrelation beiträgt.
Hier kommt der Wert #R^2# ins Spiel. Er ist einfach das Quadrat des Korrelationskoeffizienten. Er nimmt Werte zwischen #0# und #1# an, wobei Werte nahe an #1# eine stärkere Korrelation bedeuten (ob positiv oder negativ korreliert) und #0# keine Korrelation bedeutet. Man kann sie auch als den Anteil der Variation in der abhängigen Variablen betrachten, der sich aus allen unabhängigen Variablen ergibt. Wenn die abhängige Variable in hohem Maße von allen unabhängigen Variablen abhängig ist, liegt der Wert nahe bei #1#. Daher ist #R^2# viel nützlicher, da es auch zur Beschreibung multivariater Modelle verwendet werden kann.
Wenn Sie eine Diskussion über einige der mathematischen Begriffe wünschen, die mit der Beziehung zwischen den beiden Werten verbunden sind, lesen Sie dies.