Próbáltam kitalálni, hogyan tudnám ezt a legjobban elmagyarázni, és rábukkantam egy oldalra, ami nagyon szép munkát végez. Inkább ennek a srácnak adnám az elismerést a magyarázatért. Ha valakinek nem működik a link, alább mellékeltem néhány információt.
Egyszerűen fogalmazva: az #R^2# érték egyszerűen az #R# korrelációs együttható négyzete.
A modell korrelációs együtthatója ( #R# ) (mondjuk #x# és #y# változókkal) #-1# és #1# közötti értékeket vesz fel. Azt írja le, hogy #x# és #y# hogyan korrelálnak egymással.
- Ha #x# és #y# tökéletesen egybeesik, akkor ez az érték pozitív lesz #1#
- Ha #x# növekszik, míg #y# pontosan ellentétesen csökken, akkor ez az érték #-1#
- #0# lenne az a helyzet, amikor nincs korreláció #x# és #y# között
Az #R# érték azonban csak egy egyszerű lineáris modell esetén hasznos (csak egy #x# és #y#). Amint egynél több független változót veszünk figyelembe (most már van #x_1#, #x_2#, …), nagyon nehéz megérteni, hogy mit jelent a korrelációs együttható. Annak nyomon követése, hogy melyik változó mivel járul hozzá a korrelációhoz, már nem olyan egyértelmű.
Ez az a pont, ahol az #R^2# érték a képbe kerül. Ez egyszerűen a korrelációs együttható négyzete. A #0# és #1# közötti értékeket vesz fel, ahol az #1#-hez közeli értékek nagyobb korrelációt jelentenek (akár pozitív, akár negatív korrelációról van szó), a #0# pedig azt jelenti, hogy nincs korreláció. Másképpen úgy is elképzelhető, mint a függő változó töredékváltozása, amely az összes független változó eredménye. Ha a függő változó nagymértékben függ az összes független változótól, akkor az érték közel #1# lesz. Így az #R^2# sokkal hasznosabb, mivel többváltozós modellek leírására is használható.
Ha szeretnél néhány matematikai fogalmat megvitatni a két érték összekapcsolásával kapcsolatban, lásd ezt .
.