Les algorithmes d’aide à la décision médicale et les données en grand nombre : approche pluridisciplinaire

  • Le 06 novembre 2015
    Campus Centre Loire
    MSH Ange-Guépin
    5 allée Jacques Berque - 44000 Nantes
    false false
  • 9h30-17h30
  • Plan d'accès

Cette journée est organisée dans le cadre du Programme DataSanté


Problématique

Actuellement, des tests génétiques sont disponibles pour près de 3000 maladies, et le nombre de tests de diagnostic disponibles augmente de façon exponentielle (McCarthy JJ et al, 2013). Les États-Unis et d’autres pays investissent dans des projets de plusieurs milliards de dollars pour mettre en œuvre des dossiers de santé électroniques efficaces (Ginsburg GS et al, 2011). Ces systèmes permettent de stocker des données complètes et propres à la personne. Cependant, dans une enquête aux États-Unis, les médecins ont rapporté que les dossiers de santé électroniques n’apportent qu’une aide limitée en termes d’indications pour les tests génétiques, d’interprétation des résultats des tests, et d’impact potentiel des résultats sur les patients et leurs familles (Crews KR et al, 2012). Les outils d’aide à la décision intégrant les données du patient reliées aux bases de données en voie de constitution (telles que celle du projet Sim-e-Child) permettront de combler ces lacunes, en fournissant aux cliniciens et aux patients des informations et préférences individualisées, intelligemment filtrées et analysées, grâce à des algorithmes intégrant l’ensemble des données disponibles, biologiques, environnementales, socioéconomiques. L’intégration des données en grand nombre dans des modèles mathématiques a aussi à terme l’ambition de devenir un outil prédictif : à partir de biomarqueurs et/ou d’une empreinte génétique on pourrait faciliter le diagnostic et la prédiction de l’évolution de la maladie.

Ces algorithmes doivent avoir une valeur de la contextualisation et de prédiction pour prédire le devenir du patient et aider à la décision du meilleur traitement (Gourraud PA et al, 2014). Ils sont difficiles à élaborer, car les données sont non seulement massives, mais très hétérogènes et de sources différentes (Green ED et al, 2011). Ils comportent plusieurs aspects complexes, dont la sélection au préalable des informations utiles pour l’analyse, la définition des questions auxquelles les chercheurs souhaitent répondre, la hiérarchisation des informations et la définition de poids respectifs des données environnementales par rapport aux données génétiques et/ou sociologiques, etc.

Des réflexions ont déjà débuté sur la conception de ces algorithmes, notamment dans la modélisation de maladies, mettant en lumière la nécessité d’associer des spécialistes d’horizons différents pour élaborer ces modèles (Tegner JN et al, 2009, Green ED et al, 2011). Des projets européens sont centrés sur la mise à disposition d’outils informatiques de partage et d’analyse de données (projet eTRIKS). Cependant ces réflexions associent essentiellement des spécialistes ayant un background informatique et/ou mathématique (Gomez-Cabrero D et al, 2014).

Questionnements :

Peut-on trouver des méthodes automatiques pour passer d’une modélisation biologique de la maladie à un modèle mathématique/informatique? Quel poids donner aux informations sociologiques, environnementales, économiques, par rapport aux données biologiques ou cliniques dans la modélisation ? Comment développer des algorithmes efficaces de traitement de ces grandes masses de données et de plus en plus associées à des modèles de description de la cellule entière ? Quelle est la place de chaque discipline et à quel moment chaque spécialiste intervient-il ? Quel regard critique porte-t-on sur la valeur prédictive de ces « big data » ? Quelles sont les conséquences éthiques quant aux choix réalisés dans l’élaboration des algorithmes, des modèles et dans l’exploitation des résultats obtenus par ces algorithmes ? Quelles peuvent en être les conséquences juridiques et sociétales, en particulier concernant leurs différents usages ?

 

Programme

  • 9h30 – Introduction
     
  • 9h45 – Thomas Amossé (Centre d’Etudes de l’Emploi (CEE), Paris) : Du recensement aux big data, intention et connaissance statistique
     
  • 10h45 – Maël Lemoine (Université de Tours) : De l’étude pangénomique à l’étude pan-phénomique : Réflexions sur l’émergence de nouvelles pratiques de stratification des maladies
     
  • 12h – Michel Morange (Centre Cavaillès – ENS Paris) : La nature hétérogène des big data
     
  • 14 h – Franck Le Ouay (Honestica) : Les données en santé à la lueur du « big data » dans le ciblage publicitaire : réalités et enjeux
     
  • 15h – Chantal Cases (INED) : Les grandes bases de données médico-administratives, outils d’avenir pour la recherche en sciences sociales et en économie de la santé
     
  • 16h15 – Pierre-Antoine Gourraud (Université de Nantes) : Emergence d’outils de Médecine de Personnalisée: Le (big) data face aux traits complexes : le cas de la Sclérose En Plaques
Mis à jour le 15 octobre 2020.
https://msh-ange-guepin.univ-nantes.fr/manifestations-scientifiques/les-algorithmes-daide-a-la-decision-medicale-et-les-donnees-en-grand-nombre-approche-pluridisciplinaire