Recherche avancée
Toutes les thèses
Thèses de doctorat
Thèses d'exercice (médecine, santé, pharmacie)
Thèses de doctorat > Par auteur en fr
  • Nouveautés
  • Par thématique
  • Par laboratoire
  • Par date
  • Par auteur
Thèses de doctorat -> Auteurs
Auteurs > E > El Azzouzi Mohamed
Niveau supérieur
  • 1 ressource a été trouvée.
  |< << Page précédente 1 Page suivante >> >| documents par page
Tri :   Date Titre Auteur

Réutilisation de données de santé massives sécurisée par IA : désidentification par apprentissage automatique pour des systèmes d'information apprenants fédérés


Analyse et traitement de l'information et des images médicales / 07-05-2025
El Azzouzi Mohamed
Voir le résumé
Voir le résumé
Cette thèse aborde les enjeux et solutions liés à la réutilisation des données de santé, en mettant l'accent sur la protection de la vie privée des patients tout en permettant l'exploitation des données des dossiers médicaux électroniques (DME) pour la recherche clinique et l'amélioration des services de santé. Dans un premier temps, nous explorons le contexte général de la réutilisation des données clinique, en soulignant leur potentiel pour la recherche, tout en identifiant les principaux défis : la protection de la confidentialité, les contraintes réglementaires et les obstacles techniques. Ensuite, nous proposons une approche innovante pour désidentifier automatiquement les DME en français, en conformité avec le RGPD et les directives de la CNIL. En exploitant des techniques avancées d'apprentissage profond et des méthodes de supervision distante, nous avons démontré une solution économiquement viable pour rendre ces données réutilisables en toute sécurité. Les modèles développés, basés sur des représentations linguistiques avancées, montrent des performances prometteuses pour la reconnaissance des entités sensibles dans le texte médical. Dans une autre phase de nos travaux, nous avons étudié l'application de l'apprentissage fédéré (FL) pour l'extraction sécurisée d'informations personnelles à partir des DME. FL permet d’entrainer des modèles collaboratifs entre plusieurs institutions sans centraliser les données sensibles, préservant ainsi la confidentialité des patients. Nos résultats montrent que les modèles fédérés atteignent des performances proches des modèles centralisés tout en maintenant une protection des données. Par exemple, en utilisant le modèle BERT multilingue dans un environnement fédéré simulant 20 hôpitaux, notre modèle fédéré a obtenu un score F1 de 75,7 %, proche des 78,5 % de l'approche centralisée, mettant en évidence le potentiel de FL pour l'analyse de données de santé tout en réduisant les risques liés à la confidentialité. Enfin, nous avons exploré les vulnérabilités de l'apprentissage fédéré, notamment les attaques exploitant les gradients partagés pour extraire des informations sensibles. Nous avons simulé l'attaque "Decepticons", révélant que des données personnelles telles que les identifiants des patients et des observations médicales peuvent être récupérées avec des taux alarmants allant jusqu'à 90 %. En réponse, nous discutons de contre-mesures telles que la confidentialité différentielle et l'agrégation sécurisée, tout en insistant sur la nécessité d'améliorer ces défenses face à des menaces de plus en plus sophistiquées. Ces travaux ouvrent la voie à des avancées futures pour renforcer la sécurité des systèmes d'apprentissage fédéré, en développant des mécanismes adaptatifs et spécifiquement adaptés aux données médicales.

rss |< << Page précédente 1 Page suivante >> >| documents par page
© 2016  |  MENTIONS LEGALES  |  PLUS D'INFORMATION