Jag försökte komma på det bästa sättet att förklara detta och jag snubblade över en sida som gör ett riktigt bra jobb. Jag vill hellre ge den här killen äran för förklaringen. Om länken inte fungerar för vissa har jag lagt in lite information nedan.
Simpelt uttryckt: värdet #R^2# är helt enkelt kvadraten på korrelationskoefficienten #R#.
Korrelationskoefficienten ( #R# ) för en modell (låt oss säga med variablerna #x# och #y#) antar värden mellan #-1# och #1#. Den beskriver hur #x# och #y# är korrelerade.
- Om #x# och #y# är i perfekt samklang blir detta värde positivt #1#
- Om #x# ökar medan #y# minskar på exakt motsatt sätt, så kommer detta värde att vara #-1#
- #0# skulle vara en situation där det inte finns någon korrelation mellan #x# och #y#
Det här #R#-värdet är dock bara användbart för en enkel linjär modell (bara en #x# och #y#). Så snart vi överväger mer än en oberoende variabel (nu har vi #x_1#, #x_2#, …) är det mycket svårt att förstå vad korrelationskoefficienten betyder. Att spåra vilken variabel som bidrar med vad till korrelationen är inte lika tydligt.
Det är här som #R^2#-värdet kommer in i bilden. Det är helt enkelt kvadraten på korrelationskoefficienten. Det antar värden mellan #0# och #1#, där värden nära #1# innebär mer korrelation (oavsett om den är positivt eller negativt korrelerad) och #0# innebär ingen korrelation. Ett annat sätt att se på det är som den bråkdel av variationen i den beroende variabeln som är resultatet av alla de oberoende variablerna. Om den beroende variabeln är starkt beroende av alla dess oberoende variabler kommer värdet att ligga nära #1#. Så #R^2# är mycket mer användbart eftersom det också kan användas för att beskriva multivariata modeller.
Om du vill ha en diskussion om några av de matematiska begrepp som är involverade i att relatera de två värdena, se detta.