Am încercat să mă gândesc la cel mai bun mod de a explica acest lucru și am dat peste o pagină care face o treabă foarte bună. Aș prefera să îi acord acestui tip creditul pentru explicație. În cazul în care linkul nu funcționează pentru unii, am inclus câteva informații mai jos.
Simplu spus: valoarea #R^2# este pur și simplu pătratul coeficientului de corelație #R#.
Coreficientul de corelație ( #R# ) al unui model (să zicem cu variabilele #x# și #y#) ia valori între #-1# și #1#. Acesta descrie modul în care #x# și #y# sunt corelate.
- Dacă #x# și #y# sunt la unison perfectă, atunci această valoare va fi pozitivă #1#
- Dacă #x# crește în timp ce #y# scade în mod exact invers, atunci această valoare va fi #-1#
- #0# ar fi o situație în care nu există corelație între #x# și #y#
Cu toate acestea, această valoare #R# este utilă doar pentru un model liniar simplu (doar un #x# și #y#). Odată ce luăm în considerare mai mult de o variabilă independentă (acum avem #x_1#, #x_2#, …), este foarte greu de înțeles ce înseamnă coeficientul de corelație. Urmărirea variabilei care contribuie cu ce la corelație nu este atât de clară.
Aici intră în joc valoarea #R^2#. Este pur și simplu pătratul coeficientului de corelație. Ea ia valori între #0# și #1#, unde valorile apropiate de #1# implică o corelație mai mare (fie că este vorba de o corelație pozitivă sau negativă), iar #0# nu implică nicio corelație. Un alt mod de a ne gândi la el este ca la variația fracționară a variabilei dependente care este rezultatul tuturor variabilelor independente. Dacă variabila dependentă este foarte dependentă de toate variabilele sale independente, valoarea va fi apropiată de #1#. Așadar, #R^2# este mult mai utilă, deoarece poate fi folosită și pentru a descrie modele multivariate.
Dacă doriți o discuție despre unele dintre noțiunile matematice implicate în relaționarea celor două valori, vedeți acest lucru .