Jeg prøvede at tænke på den bedste måde at forklare dette på, og jeg faldt over en side, der gør det rigtig godt. Jeg vil hellere give denne fyr æren for forklaringen. Hvis linket ikke virker for nogle, har jeg inkluderet nogle oplysninger nedenfor.

Simpelt sagt: #R^2#-værdien er simpelthen kvadratet på korrelationskoefficienten #R#.

Korrelationskoefficienten ( #R# ) for en model (lad os sige med variablerne #x# og #y#) tager værdier mellem #-1# og #1#. Den beskriver, hvordan #x# og #y# er korreleret.

  • Hvis #x# og #y# er i perfekt samklang, vil denne værdi være positiv #1#
  • Hvis #x# stiger, mens #y# falder på præcis den modsatte måde, så vil denne værdi være #-1#
  • #0# vil være en situation, hvor der ikke er nogen korrelation mellem #x# og #y#

Denne #R#-værdi er dog kun nyttig for en simpel lineær model (kun en #x# og #y#). Når vi først overvejer mere end én uafhængig variabel (nu har vi #x_1#, #x_2#, …), er det meget svært at forstå, hvad korrelationskoefficienten betyder. Det er ikke så klart at spore, hvilken variabel der bidrager med hvad til korrelationen.

Det er her, at #R^2#-værdien kommer ind i billedet. Den er simpelthen kvadratet på korrelationskoefficienten. Den antager værdier mellem #0# og #1#, hvor værdier tæt på #1# indebærer mere korrelation (uanset om der er positiv eller negativ korrelation), og #0# indebærer ingen korrelation. En anden måde at betragte den på er som den delvise variation i den afhængige variabel, der er resultatet af alle de uafhængige variabler. Hvis den afhængige variabel i høj grad er afhængig af alle de uafhængige variabler, vil værdien ligge tæt på #1#. Så #R^2# er meget mere brugbar, da den også kan bruges til at beskrive multivariate modeller.

Hvis du ønsker en diskussion om nogle af de matematiske begreber, der er involveret i at relatere de to værdier, kan du se dette .

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.