J’essayais de penser à la meilleure façon d’expliquer cela et je suis tombé sur une page qui fait un très bon travail. Je préfère donner à ce gars le crédit pour l’explication. Au cas où le lien ne fonctionne pas pour certains, j’ai inclus quelques informations ci-dessous.

Simplifié : la valeur de #R^2# est simplement le carré du coefficient de corrélation #R#.

Le coefficient de corrélation ( #R# ) d’un modèle (disons avec des variables #x# et #y#) prend des valeurs entre #-1# et #1#. Il décrit comment #x# et #y# sont corrélés.

  • Si #x# et #y# sont à l’unisson parfait, alors cette valeur sera positive #1#
  • Si #x# augmente alors que #y# diminue de manière exactement opposée, alors cette valeur sera #-1#
  • #0# serait une situation où il n’y a aucune corrélation entre #x# et #y#

Cependant, cette valeur #R# n’est utile que pour un modèle linéaire simple (juste un #x# et un #y#). Une fois que nous considérons plus d’une variable indépendante (nous avons maintenant #x_1#, #x_2#, …), il est très difficile de comprendre ce que signifie le coefficient de corrélation. Repérer quelle variable contribue à quoi à la corrélation n’est pas si clair.

C’est là que la valeur #R^2# entre en jeu. Il s’agit simplement du carré du coefficient de corrélation. Il prend des valeurs entre #0# et #1#, où les valeurs proches de #1# impliquent plus de corrélation (qu’il s’agisse d’une corrélation positive ou négative) et #0# n’implique aucune corrélation. On peut également considérer qu’il s’agit de la variation fractionnelle de la variable dépendante qui résulte de l’ensemble des variables indépendantes. Si la variable dépendante est fortement dépendante de toutes ses variables indépendantes, la valeur sera proche de #1#. Donc, #R^2# est beaucoup plus utile car il peut être utilisé pour décrire des modèles multivariés aussi.

Si vous souhaitez une discussion sur certaines des notions mathématiques impliquées dans la mise en relation des deux valeurs, voir ce .

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.