Mehdi BAHRI (avec Olivier François) : Modélisation et inférence probabiliste du sur-diagnostic

De Ensiwiki
Aller à : navigation, rechercher

Cette page présente les résultats du sujet "Modélisation et inférence probabiliste du sur-diagnostic". Étudiant : Mehdi BAHRI (2A MMIS 2015)


Cornues.png
Titre du projet Modélisation et inférence probabiliste du sur-diagnostic
Cadre IRL

Labo TIMC-IMAG
Équipe BCM
Encadrants Olivier Francois

Contexte et présentation

Équipe d'accueil

Mon IRL s'est déroulé au laboratoire TIMC-IMAG (Techniques de l'Ingénierie Médicale et de la Complexité - Informatique, Mathématiques et Applications, Grenoble) au sein de l'équipe BCM (Biologie Computationnelle et Mathématique).

Le laboratoire TIMC-IMAG se spécialise dans l'application des techniques informatiques et mathématiques à l'ingénierie médicale. Il rassemble plusieurs équipes, chacune spécialisée dans un domaine particulier. L'équipe BCM s'intéresse au développement et à l'application de modèles mathématiques pour la biologie, la génomique, la génétique des populations etc. De nombreux thèmes de recherche s'articulent autour des statistiques et de l'apprentissage automatique, et c'est ce qui a motivé mon choix d'IRL car je souhaitais associer statistiques et apprentissage automatique à une thématique scientifique d'un autre style. La médecine et la biologie m'intéressent depuis longtemps, je fus donc immédiatement intéressé par ce sujet.

Le problème du sur-diagnostic

En épidémiologie, on considère qu'il y a sur-diagnostic ou sur-traitement lorsqu'un patient reçoit un traitement pour une pathologie pour laquelle il n'aurait pas développé de signes cliniques ou plus généralement qui n'aurait pas dégradé sa qualité de vie ni réduit son espérance de vie. Un des cas les plus emblématiques est celui du cancer chez le sujet âgé; l'activité métabolique réduite fait que la maladie évolue plus lentement que chez un patient plus jeune et peut rester asymptomatique pendant suffisamment longtemps pour que le patient décède d'une autre cause avant que la maladie ne devienne gênante. Le sur-diagnostic est un phénomène global qui n'est pas limité au seul domaine de l'oncologie, on le retrouve notamment en psychiatrie dans le diagnostic de l'hyperactivité.

Le sur-diagnostic présente différents problèmes. D'une part, les effets secondaires des traitements peuvent être plus dangereux ou invasifs que la pathologie qu'ils soignent. Dans le cas des cancers du sein, certaines femmes pourraient choisir de subir une mastectomie; un homme pourrait quant-à-lui se soumettre à une prostatectomie suite à un diagnostic de cancer de la prostate. Ces deux opérations sont lourdes de conséquences tant psychologiques (image du corps, identité sexuelle, mutilation), que physiologiques (risques d'incontinence et d'impuissance dans le cas de la prostatectomie). Il est donc souhaitable de les éviter tant que possible.

Le sur-diagnostic introduit de plus un biais dans les statistiques d'incidence et de survie des pathologies concernées : supposons que sans sur-diagnostic, 30 patients sur 600 survivent à une pathologie donnée. Le taux de survie est alors de 5%. Supposons maintenant que le diagnostic précoce de la pathologie fasse que 1000 patients supplémentaires soient diagnostiqués avec un taux de sur-diagnostic de 30%. Les 300 patients traités à tort auraient survécu sans traitement, mais ils sont tout de même comptés dans la statistique finale de survie qui donne alors un taux de 330/1600 = 20,6% tandis que la statistique d'incidence a elle aussi augmentée. Les travaux de Pohl Heiko et H. Gilbert Welch (2005) étudient le poids du sur-diagnostic dans les statistiques d'incidence de l'adénocarcinome de l’œsophage.

Objectifs

Le but de ce travail de recherche est de proposer un modèle simple permettant d'estimer le risque de sur-diagnostic au sein d'un échantillon de patients à partir d'une matrice de facteurs de risque (antécédents familiaux, habitudes alimentaires, comportements à risque, facteurs génétiques...) en tenant compte du risque individuel de chaque patient, de la proportion supposée de patients sur-diagnostiqués et de la proportion supposée de patients non traités alors qu'ils auraient besoin d'un traitement (que nous appellerons faux-négatifs). Les outils sont ceux de l'apprentissage bayésien et se placent dans la continuité du cours de Modèles Probabilistes pour l'Apprentissage du premier semestre de 2A MMIS. L'objectif a été d'implémenter puis de tester un algorithme de type mixte Monte-Carlo-Markov-Chain (MCMC) et estimation paramétrique, à la manière en quelque sorte de l'algorithme EM, utilisant la régression logistique pour estimer à chaque nouvelle itération le risque individuel de chaque patient.

Description succinte du modèle

Soit un échantillon de N patients testés positifs à une pathologie. Soit (Z_i, Y_i) le couple de variables aléatoires binaires qui représentent respectivement l'état du patient (si sa pathologie va évoluer de sorte qu'il ait besoin du traitement), et s'il est traité ou non. Z_i est une variable latente du modèle, seule Y_i est observée.

Soient X_j = (x_{j,i}) les différents facteurs de risque des N patients, on peut les rassembler dans la matrice X des facteurs de risque où chaque colonne est un facteur.

On distingue deux types d'erreurs de diagnostic : le sur-diagnostic, et les faux-négatifs. On note :

  • \theta^i_1 le risque individuel du patient i, i.e la probabilité qu'il développe les signes cliniques de la maladie
  • \theta_2 le risque de sur-diagnostic dans la population étudiée
  • \theta_3 la probabilité de ne pas traiter un patient qui aurait besoin des soins, les équipes médicales étant conservatrices sur le traitement on la suppose constante égale à 2% .

Dans notre cas, nous étudions un modèle à deux facteurs de risque X_1 et X_2. Deux facteurs latents additionnels viennent donc compléter le modèle : ce sont les paramètres de la régression logistique de \theta_1 selon les deux prédicteurs X_1 et X_2, ou, autrement dit, les poids des deux prédicteurs.

On cherche la loi a posteriori des Z connaissant les Y, cette loi est donnée par la formule de Bayes (en notant de manière simplifiée Z pour Z_i et \theta_1 pour \theta^i_1)

P(Z = 1 | Y = 0)P(Y = 0) = P(Y = 0 | Z = 1)P(Z = 1) = \theta_3\theta_1

P(Z = 0 | Y = 0)P(Y = 0) = P(Y = 0 | Z = 0)P(Z = 0) =(1 - \theta_2)(1 - \theta_1)

P(Z = 1 | Y = 1)P(Y = 1) = P(Y = 1 | Z = 1)P(Z = 1) = \theta_2(1 - \theta_1)

P(Z = 0 | Y = 1)P(Y = 1) = P(Y = 1 | Z = 0)P(Z = 0) = \theta_1(1 - \theta_3)

L'algorithme consiste alors principalement en l'itération suivante :

Simuler les Z_i selon leur loi conditionnelle (donne z_courants)
Régresser les paramètres a_1 et a_2 par régression logistique sur les z_courants
En déduire un nouveau vecteur theta_1
Tirer theta_2 selon une loi beta d'espérance (nombre de sur-traités)/(nombre de traités à raison)

Résultats

L'absence de données réelles et précises concernant le sur-diagnostic nous a conduit à générer artificiellement des données et à étudier la précision de l'algorithme sur les données générées.

Bahrim hth2p.png Cet histogramme représente la distribution des estimations successives de \theta_2 réalisées par notre algorithme pour une valeur réelle de \theta_2 = 10% et \theta_3 = 2%. L'estimation est ici assez précise mais une étude de sensibilité sur \theta_3 nous permet de dire que \theta_3 introduit un biais sur l'estimation. De plus, les estimations successives de \theta_2 ont une variabilité significative avec des valeurs typiques du coefficient de variation empirique (\frac{s_n}{\bar{x}_n}) de l'ordre de 40%.

Nous représentons aussi la distribution de l'estimation de la proportion de patients réellement sur-diagnostiqués. Cette distribution a une forme très proche de celle de \theta_2 ce qui est logique.

Bahrim cpred.png La comparaison des patients identifiés comme sur-traités par l'algorithme et réellement sur-traités montre que dans le cas de cette simulation précise, l'estimation était de bonne qualité avec tout de même un certain nombre de faux-positifs et de faux-négatifs au sur-diagnostic. Bien entendu, ceci ne reflète en rien la robustesse réelle de l'algorithme et il arrive que certaines simulations soient de mauvaise qualité. Ceci met en exergue la nécessité d'exécuter plusieurs simulations sur les données pour obtenir une estimation de meilleure qualité en réduisant l'influence du caractère aléatoire des simulations.

Usages possibles et perspectives de développement

L'outil développé pendant cet IRL n'est pas suffisamment robuste ou réaliste pour une utilisation directe en milieu réel. Cependant, nous montrons qu'il est possible d'obtenir des résultats intéressants avec un modèle simple. l'algorithme fournissant à chaque itération une estimation du risque d'un patient, il est possible comme le montre la figure ci-dessous d'obtenir un graphique donnant, pour chaque patient traité, la proportion de run l'ayant considéré comme ayant besoin du traitement ou non (donc compte tenu de ses facteurs de risque et du risque global de sur-diagnostic et de sous-traitement).

Bahrim sdp.png

On peut donc imaginer que des outils plus perfectionnés puissent être construits selon ces principes et utilisés pour fournir une aide à la décision pour les patients devant choisir de demander ou non un traitement pour une pathologie.

La figure représentant la répartition des patients sur-diagnostiqués en fonctions du premier facteur de risque montre que dans le cas des paramètres donnés pour la simulation ayant généré le graphique, on retrouve du sur-diagnostic à tous les niveaux. Il semblerait donc qu'établir un seuil de décision serait très complexe et dépendrait beaucoup du choix des facteurs de risque à considérer. Ceci pourrait faire l'objet de nouvelles recherches.

Bibliographie

[1] L. Batstra and A. Frances. Holding the line against diagnostic inflation in psychiatry. Psychoterapy and Psychosomatics, 81 :5–10, 2012.

[2] O. Davidoc and M. Zelen. Overdiagnonsis in early detection programs. Biostatistics, 5 :603–613, 2004.

[3] T. Hastie, R. Tibshirani, and J. Friedman. The Elements of Statistical Learning : Data Mining, Inference, and Prediction. Springer, 2 edition, 2009.

[4] P. Heiko and H. G. Welch. The role of overdiagnosis and reclassification in the marked increase of esophageal adenocarcinoma incidence. Journal of the National Cancer Institute, 97(2) :142–146, 2005.

[5] J. Hersch, J. Jansen, A. Barratt, L. Irwig, N. Houssami, K. Howard, H. Dhillon, and K. McCaffery. Women’s views on overdiagnosis in breast cancer screening : A qualitative study. BMJ, 346 :f158, 2013.

[6] D. Puliti, S. Duffy, G. Miccinesi, H. de Konig, E. Lynge, M. Zappa, E. Paci, and the EUROSCREEN Wor- king Group. Overdiagnosis in mammographic screening for breast cancer in europe : a literature review. Journal of Medical Screening, 19 Suppl 1 :42–56, 2012.

[7] J. Siddique, C. M. Crespi, R. D. Gibbons, and B. L. Green. Using latent variable modeling and multiple imputation to calibrate rater bias in diagnosis assessment. Statistics in Medicine, 30 :160–174, 2011.

[8] P. Soler-Michel and C. Lasset. Dépistage du cancer du sein. In H. Mignotte, editor, Maladies du sein, chapter3. Elsevier Masson, 2 edition, 2011.

Documents