Stavo cercando di pensare al modo migliore per spiegare questo e mi sono imbattuto in una pagina che fa davvero un bel lavoro. Preferisco dare a questo ragazzo il merito della spiegazione. Nel caso in cui il link non funzioni per alcuni, ho incluso alcune informazioni qui sotto.
Semplicemente detto: il valore #R^2# è semplicemente il quadrato del coefficiente di correlazione #R#.
Il coefficiente di correlazione ( #R# ) di un modello (diciamo con variabili #x# e #y#) assume valori tra #-1# e #1#. Descrive come #x# e #y# sono correlati.
- Se #x# e #y# sono all’unisono perfetto, allora questo valore sarà positivo #1#
- Se #x# aumenta mentre #y# diminuisce in modo esattamente opposto, allora questo valore sarà #-1#
- #0# sarebbe una situazione in cui non c’è correlazione tra #x# e #y#
Tuttavia, questo valore #R# è utile solo per un modello lineare semplice (solo un #x# e #y#). Una volta che consideriamo più di una variabile indipendente (ora abbiamo #x_1#, #x_2#, …), è molto difficile capire cosa significa il coefficiente di correlazione. Rintracciare quale variabile contribuisce alla correlazione non è così chiaro.
E’ qui che entra in gioco il valore #R^2#. È semplicemente il quadrato del coefficiente di correlazione. Assume valori compresi tra #0# e #1#, dove i valori vicini a #1# implicano una maggiore correlazione (sia positiva che negativa) e #0# implica nessuna correlazione. Un altro modo di pensarlo è come la variazione frazionaria nella variabile dipendente che è il risultato di tutte le variabili indipendenti. Se la variabile dipendente è altamente dipendente da tutte le sue variabili indipendenti, il valore sarà vicino a #1#. Quindi #R^2# è molto più utile in quanto può essere usato per descrivere anche modelli multivariati.
Se vuoi una discussione su alcune delle nozioni matematiche coinvolte nel mettere in relazione i due valori, vedi questo.