Introduction à la régression logistique

Prérequis

Pour tirer pleinement profit ce cet article, il est nécessaire d’avoir quelques notions au sujet des Modèles Linéaires Généralisés (GLM). Si cela n’est pas le cas, je vous recommande la lecture de l’article “Introduction aux GLM” .

Introduction

La régression logistique est une approche statistique qui peut être employée pour évaluer et caractériser les relations entre une variable réponse de type binaire ( par exemple : Vivant / Mort, Malade / Non malade, succés / échec), et une, ou plusieurs, variables explicatives, qui peuvent être de type catégoriel (le sexe par exemple), ou numérique continu (l’âge par exemple).

Tout comme la régression de Poisson, la régression logistique appartient aux modèles linéaires généralisés. Pour rappel, il s’agit de modèles de régression qui sont des extensions du modèle linéaire, et qui reposent sur trois éléments :

  1. un prédicteur linéaire
  2. une fonction de lien
  3. une structure des erreurs

Les aspects théoriques et mathématiques de la régression logistique sont relativement complexes, c’est pourquoi nous ne les aborderons pas ici. Néanmoins, certains éléments caractérisant la régression logistique peuvent être retenus.

Remarque : La régression logistique peut également être utilisée comme un algorithme de classification supervisée, mais nous ne l’aborderons pas ici.

Les principaux éléments de la régression logistique

Modélisation de la probabilité

Dans la régression logistique, ce n’est pas la réponse binaire (malade/pas malade) qui est directement modélisée, mais la probabilité de réalisation d’une des deux modalités (être malade par exemple)

Cette probabilité de réalisation ne peut pas être modélisée par une droite car celle-ci conduirait à des valeurs <0 ou >1. Ce qui est impossible puisqu’une probabilité est forcément bornée par 0 et 1.

Remarque : les données représentées ici sont inspirées de celles disponibles sur cet article.

Cette probabilité, est alors modélisée par une courbe sigmoïde, bornée par 0, et 1 :

Cette courbe sigmoïde est définie par la fonction logistique, d’équation :

\[f(x) = \frac{exp(x)}{1+exp(x)}=p\]

La fonction logistique

Lorsque la fonction logistique est ajustée à des données observées, la forme de la courbe sigmoïde s’adapte à ces données, par l’estimation de paramètres. Dans le cas d’une seule variable explicative (X), l’équation de la courbe logistique est alors :\[P(X) = \frac{exp(\beta_0+\beta_1X)}{1+exp(\beta_0+\beta_1X)}\]Voici 3 exemples de courbes logistiques, obtenues avec des paramètres Beta0 et Beta1 différents :

Dans une situation de variables explicatives multiples l’équation se généralise en :

\[P(X) = \frac{exp(\beta_0+\beta_1X_1+…+\beta_nX_n)}{1+exp(\beta_0+\beta_1X_1+…+\beta_nX_n)}= \frac{exp(\sum\beta X)}{1+exp(\sum\beta_X)}\]

La fonction de lien logit

Le modèle précédent n’est pas linéaire dans l’expression des paramètres beta_X puisque la probabilité de réalisation ne s’exprime pas comme une addition des effets des différentes variables explicatives.

Pour obtenir un tel modèle (linéaire dans ses paramètres), il est nécessaire de passer par une transformation logit :

\[logit(p) = log(\frac{p}{1-p}) = \sum_{j=1}^{n} \beta_j\;X_{ij}\]

Cette transformation logit est la fonction de lien qui permet de mettre en relation la probabilité de réalisation (bornée entre 0 et 1), et la combinaison linéaire de variable explicatives.

La structure d'erreur

Les données de base employées dans une régression logistique dont des données binaires (oui/non). Celles-ci sont distribuées selon une loi binomiale B(1,p). Il en est alors de même pour les erreurs : elles sont distribuées selon une loi binomiale B(1,p).

Les coefficients estimés sont des log odds ratio

Le terme p/(1-p) est un rapport de cote (RC) ou Odds Ratio (OR), en anglais. Ce paramètre permet de mesurer la relation entre la variable explicative (X) et la réponse Y (vivant par exemple).

Les coefficients beta_j issus de la régression logistique sont donc des log odds ratio.

Un odds ou cote est le rapport de deux probabilités complémentaires : la probabilité P de survenue d’un événement (risque), divisé par la probabilité (1-P) que cet événement ne survienne pas (non risque, c’est-à-dire sans l’événement).

Par exemple, si on s’intéresse au risque de récidive d’une pathologie chez les hommes et les femmes, et que le risque de récidive est de 80% chez les hommes et de 40% chez les femmes, alors :

  • la cote de récidives chez les hommes est 0.8/0.2 = 4 (il y a 4 fois plus de récidives que de non récidives chez les hommes)
  • la cote de récidives chez les femmes est 0.4/0.6 = 0.67 (il y a 0.67 fois plus de récidives que de non récidives chez les femmes)
  • l’OR correspond aux rapport de ces deux cotes :

$OR = \frac{\frac{0.8}{0.2}}{\frac{0.4}{0.6}}=6$

Ici l’odds des hommes est 6 fois plus élevé que celui des femmes. On dira, par la suite (voir plus loin) que le risque de récidive est plus important chez les hommes. Pour plus d’information, consultez cet article.

Exemple avec une variable explicative catégorielle

Il s’agit des résultats d’une régression logistique visant à étudier le lien entre la présence d’une maladie cardiaque et le sexe des patients :

 Estimate Std.Errorz valuePr(>|z|)
(Intercept)-1.057790.2321396-4.5566995.2e-06
gendermale1.272200.27116474.6916142.7e-06

Le coefficient (Estimate) de la ligne “gendermale” correspond au log OR. Pour obtenir l’OR, il est donc nécessaire d’employer une transformation
 exponentielle :

OR_gender <- exp(1.27)
OR_gender
## [1] 3.560853 

Exemple avec une variable explicative numérique

Lorsque la variable explicative est de type numérique, le coefficient obtenu est également un log(OR). Sa transformation, par la fonction exponentielle, permettra d’obtenir un OR qui caractérisera la force de la relation entre la probabilité de réalisation et la variable explicative.

Ici, il s’agit des résultat d’une régression logistique visant à étudier le lien entre l’apparition d’une maladie et l’âge des patients :

 Estimate Std.Errorz valuePr(>|z|)
(Intercept)-10.4967833.4901907-3.0075100.002634
age0.1940390.06655382.9155190.003551
OR_age <-exp(0.19)

OR_age
## [1] 1.20925 

Interprétation de l'OR

Règles générales

  • si l’OR est significativement < 1 alors la variable explicative est un facteur  protecteur.
  • si l’OR n’est pas significativement différent de 1, alors il n’y a pas de lien entre la réalisation (par exemple la maladie) et la variable explicative.
  • si l’OR est significativement > 1 alors la variable explicative est un facteur de risque

Lorsque la variable explicative est catégorielle

Dans cette situation, il existe deux cas de figure :

  • la fréquence de la réalisation (maladie, récidive, etc..) est rare (<10%). Dans cette situation, on interprète l’OR comme un risque relatif (RR). Par exemple si on étudie la relation entre la récidive d’une maladie et le sexe (Feminin en référence), et que l’odds ratio = 4 alors on pourra dire,”être un homme multiplie le risque de récidive par 4″. Et on interpretera ensuite la significativité de cet odds ratio avec la p-value correspondante.
  • la fréquence de réalisation n’est pas rare. Dans cette situation l’OR ne peut pas être interprété comme un risque relatif. De ce fait, on n’interpretera pas la quantité de l’OR. On se contentera de dire, si la pvalue du log OR est <0.05, “être un homme est associé à un risque plus élevé de récidive”.

Lorsque la variable explicative est numérique continue

Dans cette situation, on n’interprète pas non plus la valeur de l’OR. Dans l’exemple précédent l’OR relatif à l’âge = 1.23. On ne peut pas dire “une augmentation d’un an d’âge augmente le risque de maladie d’un facteur 1.23”. Dans cette situation on se contente de regarder le signe de l’OR, et s’il est significativement différent de 1 (pvalue du log OR <0.05), on pourra dire “il existe une association significative entre l’âge et le risque de maladie, au risque de 5%, le risque de maladie augmente lorsque l’âge augmente”.

Conclusion

J’espère que cette courte introduction à la régression logistique vous permettra d’en comprendre les principes et les éléments fondamentaux.

Et si vous voulez, allez plus loin, et apprendre comment réaliser une régression logistique sous R, je vous conseille de consulter mon article  La régression logistique par l’exemple.

Si cet article vous a plu, ou vous a été utile, et si vous le souhaitez, vous pouvez soutenir ce blog en faisant un don sur sa page Tipeee 🙏

11 réponses

  1. Merci pour cet article !

    Une petite question : Dans la partie ‘Interprétation de l’OR’, > ‘Lorsque que la variable explicative est catégorielle’ = Est-il possible d’avoir plus de détails et des explications quant à la fréquence de réalisation (rare ou pas rare) ? Pourquoi avons nous le droit d’interpréter dans un cas et pas dans l’autre (convention, règle mathématique, logique ?). Le cutoff de 10% est strict ?

    Merci pour vos réponses et votre travail !

    1. Bonjour,
      D’après ma compréhension, on ne peut pas interpréter l’OR comme un RR car on est plutôt dans une situation d’expérimentation cas-témoins, dans laquelle le nombre de sujets malades est contrôlé, ou choisit . Or les RR sont basés sur un ratio d’incidence, et n’ont de sens que lorsque le nombre de sujets malades n’est pas contrôlé.
      Je pense que lorsque la prévalence de la maladie est inférieure à 10%, les estimations des RR et des OR doivent être relativement similaires et donc que l’estimation du RR par l’OR ne soit pas être trop biaisé.

      Si quelqu’un à une meilleure réponse, n’hésitez pas à laisser un commentaire !

  2. Merci, c’est très instructif.
    Lorsque la variable explicative est catégorisée ( sexe par exemple), on peut dire que la probabilité que la maladie récidive est 4 fois plus grande chez les hommes par rapport aux femmes . Ici la catégorie ^femme^ Est prise comme référence, autrement dit un choix du chercheur.
    Merci et bien à vous.

  3. Du coup ma question étant, comme mesuré l’effect size si on ne peut pas vraiment interpréter les odd ratio? D’autant plus que, de mémoire, les R² ne sont pas toujours considéré comme très pertinent pour ce type de model.

  4. Bonjour,
    Un grand merci pour ces explications très claires !
    J’ai une petite question : dans mon analyse univariée, mon OR est de 1.57 [0.97;2.51]. Lorsque je réalise la régression logistique et que j’ajuste sur d’autres variables il passe à 0.81 [0.45;1.46].
    Bien que ce ne soit pas significatif dans les deux, il est assez rare qu’un OR “change de sens” ce qui change son interprétation et son effet. Y a-t-il une explication à cela ?
    Merci

    1. Bonjour,
      Le changement de direction de l’odds ratio, également appelé inversion de l’effet, peut se produire lorsque des variables de confusion (c’est-à-dire des variables qui sont associées à la fois à l’exposition et au résultat) sont ignorées dans une régression univariée.

      Dans votre cas, la variable explicative ajoutée dans la régression ajustée peut agir comme une variable de confusion. Si cette variable est fortement associée à l’exposition et au résultat, alors elle peut masquer ou biaiser l’effet de l’exposition lorsqu’elle est ignorée dans la régression univariée.

      Supposons que nous étudions l’association entre l’utilisation de contraceptifs oraux (CO) et le risque de cancer du sein chez les femmes, en utilisant les données d’une grande étude cas-témoins.
      Dans un premier temps, nous ajustons un modèle de régression logistique univariée pour évaluer l’association entre l’utilisation de CO et le risque de cancer du sein. Nous obtenons un odds ratio estimé de 1,43, avec un intervalle de confiance à 95% (IC) de 1,29 à 1,59. Ce résultat suggère une association positive entre l’utilisation de CO et le risque de cancer du sein.

      Ensuite, nous ajustons un modèle de régression logistique multivariée, en ajoutant l’âge et l’indice de masse corporelle (IMC) en tant que variables explicatives. L’âge et l’IMC sont des variables de confusion potentielles, car elles sont associées à la fois à l’utilisation de CO et au risque de cancer du sein. Après ajustement pour l’âge et l’IMC, l’odds ratio pour l’utilisation de CO est maintenant de 0,82 (IC à 95%: 0,74 à 0,90).

      Dans cet exemple, l’odds ratio univarié suggère une association positive entre l’utilisation de CO et le risque de cancer du sein. Cependant, l’ajout de l’âge et de l’IMC dans le modèle multivarié révèle que ces variables sont des facteurs de confusion importants, qui masquent l’effet réel de l’utilisation de CO sur le risque de cancer du sein. Après ajustement pour l’âge et l’IMC, l’odds ratio pour l’utilisation de CO est maintenant inférieur à 1, ce qui suggère une association négative ou protectrice.

      J’espère que cela vous aide.
      Bonne continuation.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bonjour !

vous venez souvent ?

Identifiez-vous pour avoir accès à toutes les fontionnalités !

Aide mémoire off'R ;)

Enregistrez vous pour recevoir gratuitement mes fiches “aide mémoire” (ou cheat sheets) qui vous permettront de réaliser facilement les principales analyses biostatistiques avec le logiciel R et pour être informés des mises à jour du site.