Yritin miettiä parasta tapaa selittää tämä ja törmäsin sivuun, joka tekee todella hyvää työtä. Antaisin mieluummin tälle kaverille kunnian selityksestä. Siltä varalta, että linkki ei toimi joillakin, olen lisännyt alla olevaa tietoa.
Yksikertaisesti sanottuna: #R^2#-arvo on yksinkertaisesti korrelaatiokertoimen #R# neliö.
Mallin korrelaatiokerroin ( #R# ) (vaikkapa muuttujien #x# ja #y# kanssa) saa arvoja välillä #-1# ja #1#. Se kuvaa, miten #x# ja #y# korreloivat keskenään.
- Jos #x# ja #y# ovat täydellisessä sopusoinnussa, niin tämä arvo on positiivinen #1#
- Jos #x# kasvaa, kun taas #y# pienenee täsmälleen päinvastaisella tavalla, niin tämä arvo on #-1#
- #0# olisi tilanne, jossa #x#:n ja #y#:n välillä ei ole korrelaatiota
Mutta tämä #R#-arvo on hyödyllinen vain yksinkertaiselle lineaariselle mallille (vain #x# ja #y#). Kun otamme huomioon useamman kuin yhden riippumattoman muuttujan (nyt meillä on #x_1#, #x_2#, …), on hyvin vaikea ymmärtää, mitä korrelaatiokerroin tarkoittaa. Sen jäljittäminen, mikä muuttuja vaikuttaa mihinkin korrelaatioon, ei ole niin selkeää.
Tässä kohtaa #R^2#-arvo astuu kuvaan. Se on yksinkertaisesti korrelaatiokertoimen neliö. Se saa arvoja välillä #0# ja #1#, jolloin arvot lähellä #1# merkitsevät suurempaa korrelaatiota (joko positiivista tai negatiivista korrelaatiota) ja #0# ei merkitse korrelaatiota. Toinen tapa ajatella sitä on, että se on riippuvaisen muuttujan osittainen vaihtelu, joka on seurausta kaikista riippumattomista muuttujista. Jos riippuvainen muuttuja on erittäin riippuvainen kaikista riippumattomista muuttujista, arvo on lähellä #1#. Niinpä #R^2# on paljon hyödyllisempi, koska sitä voidaan käyttää kuvaamaan myös monimuuttujamalleja.
Jos haluat keskustelua joistakin matemaattisista käsitteistä, jotka liittyvät näiden kahden arvon liittämiseen toisiinsa, katso tämä .