|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Génétique, génomique, bioinformatique
/ 21-12-2023
Bouguéon Matthieu
Voir le résumé
Voir le résumé
La fibrose hépatique est une réponse de cicatrisation excessive induite par des lésions chroniques. Elle se caractérise par une accumulation de matrice extracellulaire (MEC), principalement constituées de collagène 1 (COL1), qui augmente la rigidité des tissus et entraîne un grave dysfonctionnement du foie. L'activation des cellules étoilées du foie (CEF), induite par le facteur de croissance TGFB1, est le principal processus à l'origine de la fibrose hépatique. Afin d'étudier la dynamique des CEF durant le développement et la réversion de la fibrose, nous avons développé un modèle multi-échelle intégrant les différents états des CEF ainsi que leur production de COL1, sous influence du TGFB1. Ce modèle est implémenté avec le langage Kappa, qui est un langage de réécriture de graphes à sites. En plus d'être le premier modèle multi-échelle de Kappa, ce modèle nous a permis de capturer la plasticité des cellules étoilées durant le développement et la réversion la fibrose. Les prédictions du modèle montrent que l'état d'inactivation des CEF joue un rôle essentiel dans le développement de la fibrose. Le modèle a été validé par de nouvelles expériences chez la souris et les prédictions ont été validées avec des données de RNAseq chez des patients fibrotiques.
|
|
Informatique
/ 20-12-2023
Delaunay Julien
Voir le résumé
Voir le résumé
Cette thèse se concentre sur la génération d'explications locales pour les modèles de machine learning déjà déployés, en recherchant les conditions optimales pour des explications pertinentes, prenant en compte à la fois les données et les besoins de l'utilisateur. L'objectif principal est de développer des méthodes produisant des explications pour n'importe quel modèle de prédiction, tout en veillant à ce que ces explications demeurent à la fois fidèles au modèle sous-jacent et compréhensibles par les utilisateurs qui les reçoivent. La thèse est divisée en deux parties. Dans la première, on améliore une méthode d'explication basée sur des règles. On introduit ensuite une approche pour évaluer l'adéquation des explications linéaires pour approximer un modèle à expliquer. Enfin, cette partie présente une expérimentation comparative entre deux familles de méthodes d'explication contrefactuelles, dans le but d'analyser les avantages de l'une par rapport à l'autre. La deuxième partie se concentre sur des expériences utilisateurs évaluant l'impact de trois méthodes d'explication et de deux représentations différentes. Ces expériences mesurent la perception en termes de compréhension et de confiance des utilisateurs en fonction des explications et de leurs représentations. L'ensemble de ces travaux contribue à une meilleure compréhension de la génération d'explications pour les modèles de machine learning, avec des implications potentielles pour l'amélioration de la transparence, de la confiance et de l'utilisabilité des systèmes d'IA déployés.
|
|
Biologie moléculaire et structurale, biochimie
/ 14-12-2023
Mascary Jean-Baptiste
Voir le résumé
Voir le résumé
L'objectif de la thèse était d'évaluer le potentiel thérapeutique d'un nouveau pseudopeptide antimicrobien, nommé Pep16, à la fois in vitro et in vivo pour le traitement de l'arthrite septique causée par Staphylococcus aureus. Sept isolats cliniques de S. aureus (dont 1 SARM et 5 SASM) ont été étudiés. Les CMI de Pep16 et des comparateurs (vancomycine, teicoplanine, daptomycine et lévofloxacine) ont été déterminées par la méthode de microdilution en bouillon. L'activité intracellulaire de Pep16 et de la lévofloxacine a été évaluée en utilisant deux modèles d'infection, avec des cellules phagocytaires non-professionnelles (ostéoblastes MG-63) ou professionnelles (macrophages THP-1). L'impact de Pep16 sur la dynamique de croissance du biofilm a été évalué. Un modèle murin d'arthrite septique a été utilisé pour évaluer l'efficacité in vivo de Pep16. Une analyse PK préliminaire a été effectuée en mesurant la concentration plasmatique par LC-MS/MS après une seule injection sous-cutanée de Pep16. Les CMI de Pep16 étaient de 8 mg/L pour tous les isolats cliniques de S. Aureus (de 2 à 32 fois supérieures à celles des comparateurs) tandis que les ratios CMB/CMI confirmaient une activité bactéricide. Tant Pep16 que la lévofloxacine (à 2 x CMI) ont réduit de manière significative la charge bactérienne de tous les isolats testés (2 SASM et 2 SARM) à la fois dans les ostéoblastes et les macrophages. Pep16 a réduit de manière significative les charges bactériennes dans les articulations des genoux des souris infectées par SASM. L'analyse PK après une seule administration sous-cutanée de Pep16 (10 mg/kg) a montré une augmentation lente des concentrations plasmatiques jusqu'à 12 heures (Cmax à 5,6 mg/L).
|
|
Télécommunications
/ 14-12-2023
Wu Mengda
Voir le résumé
Voir le résumé
Ce travail concerne l'imagerie tomographique 3-D par Radar à Synthèse d'Ouverture de terrain (GB-SAR) pour la détection in situ des défauts de chaussée.Un GB-SAR bistatique à visée latérale, fonctionnant en mode de propagation vers l'avant (FSC), caractérisé par un rapport Signal sur Bruit (SNR) élevé et une résolution verticale constante, est proposé. Une focalisation tomographique utilisant une ouverture dans la direction verticale est introduite pour résoudre l'ambiguïté et améliorer la résolution en distance au sol. Une configuration SAR bistatique FSC à déplacement horizontal et à décalage constant (COSBis), est proposée afin de réduire la complexité du système à un niveau minimal, en utilisant une seule paire d'antennes Tx et Rx, et qui permet d'obtenir une résolution en distance au sol améliorée par focalisation sur une ouverture angulaire générée par le mouvement horizontal. Les résultats expérimentaux démontrent la capacité du mode proposé à détecter des défauts artificiels et à caractériser des détails fins en utilisant une diversité de polarisation. Des techniques d'analyse spectrale à haute résolution sont appliquées à l'approche COSBis pour affiner le diagnostic routier. Cette configuration innovante de GB-SAR, associée à des techniques d'imagerie à haute résolution, démontre un fort potentiel pour l'inspection et la maintenance des chaussées.
|
|
Informatique
/ 12-12-2023
Amalou Abderaouf Nassim
Voir le résumé
Voir le résumé
L'estimation du temps d'exécution des programmes est une tâche clé mais difficile, rendue encore plus complexe par la croissance de la complexité et l'insuffisance de la documentation des architectures de processeurs modernes. Bien que les méthodes traditionnelles comme les simulateurs précis au cycle soient exactes, elles sont également longues et nécessitent une compréhension approfondie de l'architecture du processeur. Pour aborder ces limitations, une nouvelle approche basée sur les données et utilisant des techniques d'apprentissage automatique a été développée. Cependant, bien que les modèles d'apprentissage automatique existants offrent des estimations rapides, ils sont principalement adaptés à des architectures simples avec des temps d'instruction constants. Ce document vise à développer de nouvelles méthodes d'apprentissage automatique pour des processeurs complexes et non documentés en introduisant la prise en compte du contexte dans les modèles de timing basés sur l'apprentissage automatique. Une approche novatrice traitant les séquences d'instructions comme un langage naturel et emploie des algorithmes d'apprentissage automatique avancés tels que les réseaux Long Short-Term Memory et les Transformers. Ceci permet au modèle de prendre en compte des caractéristiques complexes telles que les effets de cache et de pipeline, améliorant la précision pour les temps d'exécution moyens et pires cas.
|
|
Physique
/ 12-12-2023
Dubroeucq Romain
Voir le résumé
Voir le résumé
Cette thèse s'inscrit dans le contexte des expériences d'astrophysique de laboratoire menées à l'Institut de Physique de Rennes, qui tentent de reproduire les conditions de basses températures (~10-50 K) du milieu interstellaire, afin de réaliser des mesures de cinétique réactionnelle avec des molécules d'intérêt pour l'astrochimie. L'objectif de cette thèse est le développement d'un spectromètre d'absorption infrarouge résolu en temps, pour sonder les écoulements supersoniques uniformes utilisés pour refroidir les molécules en phase gazeuse. Le spectromètre est basé sur un peigne de fréquences optiques, qui présente des dizaines de milliers de modes laser équidistants dans le domaine des fréquences, fournissant une large couverture spectrale, une haute résolution et une haute sensibilité, et permettant ainsi de détecter plusieurs espèces moléculaires simultanément. Pour augmenter encore la sensibilité de détection, le peigne de fréquences est couplé à une cavité optique. La détection à large bande de la lumière laser est réalisée avec un spectromètre à transformée de Fourier, qui peut opérer de manière résolue en temps, et est appliqué à une nouvelle approche de la spectroscopie de temps de déclin de cavité large bande avec un peigne de fréquences. La première démonstration d'un jet supersonique continu sondé par spectroscopie à transformée de Fourier basée sur un peigne de fréquences couplé à une cavité optique est également présentée.
|
|
Informatique
/ 30-11-2023
Mentec François
Voir le résumé
Voir le résumé
Le recrutement a toujours été une tâche cruciale pour la réussite des entreprises, notamment pour les entreprises de services pour lesquelles l’embauche est un élément central de leur modèle commercial. La croissance du marché du travail ainsi que l’augmentation du nombre de compétences spécialisées requises par les entreprises ont motivé l’exploration de techniques pour optimiser et même automatiser certaines parties du processus de recrutement. Les nombreux progrès réalisés dans les domaines de l’intelligence artificielle et du traitement automatique du langage naturel au cours des dernières décennies ont offert la possibilité de traiter efficacement les données utilisées lors du recrutement. Nous examinons l’utilisation d’un système de recommandation d’emploi dans une entreprise de conseil, en mettant l’accent sur l’explication de la recommandation et sa perception par les utilisateurs. Tout d’abord, nous expérimentons avec des recommandations basées sur la connaissance en utilisant l’ontologie européenne des compétences et des professions ESCO qui présente des résultats prometteurs, mais en raison des limites actuelles, nous utilisons finalement un système de recommandation sémantique qui fait désormais partie des processus de l’entreprise et offre la possibilité d’études qualitatives et quantitatives sur l’impact des recommandations et de leurs explications. Nous relions la disponibilité des explications à des gains majeurs d’efficacité pour les recruteurs. L’explication offre également un moyen précieux d’affiner les recommandations grâce à des retours utilisateurs contextuels. Un tel retour d’information est non seulement utile pour générer des recommandations en temps réel, mais aussi pour fournir des données précieuses pour évaluer les modèles et améliorer davantage le système. À l’avenir, nous préconisons que la disponibilité des recommandations devienne la norme pour tous les systèmes de recommandation d’emploi.
|
|
Analyse et traitement de l'information et des images médicales
/ 29-11-2023
Rafi Sonia
Voir le résumé
Voir le résumé
La mise en adéquation des moyens déployés avec le niveau de gravité de chaque patient est un enjeu important pour la pérennisation et l’amélioration du système de santé. L’essor simultané de l’interopérabilité des bases de données permettant la collecte de données normalisées et des statistiques prédictives ouvre de nouvelles perspectives dans ce domaine en laissant supposer qu’il serait possible d’entrainer des modèles prédictifs permettant à la fois d’améliorer le service rendu aux patients en individualisant leur parcours de soin tout en rationalisant l’effort collectif nécessaire à leur prise en charge. Cette thèse avait pour objectif de de prédire la survenue d’évènements critiques chez les patients ayant recours aux urgences en utilisant des modèles basés sur l’apprentissage automatique. Trois articles composent ce travail de recherche. Le premier visait à détecter les arrêts cardiaques préhospitaliers en utilisant les enregistrements vocaux des appels des témoins au SAMU. Dans cette optique, plusieurs modèles ont été développés pour détecter les arrêts cardiaques en se basant sur les caractéristiques acoustiques de la voix de l’appelant. Le deuxième article se concentrait sur l’optimisation du diagnostic de COVID-19 en intégrant les tests diagnostiques de référence de type RT-PCR à d’autres éléments clinico-biologiques. Les modèles d’apprentissage automatique développés permettaient une augmentation des performances diagnostiques en ce contexte de pandémie débutante dans l’hypothèse d’une stratégie « zero-COVID ». Le troisième article avait pour objectif la prédiction de quatre évènements critiques chez les patients hospitalisés après un passage aux urgences : la survenue d’un décès, la nécessité d’ intubation, la réanimation cardiopulmonaire et la décision de réaliser des soins palliatifs. Des modèles de forêt aléatoire y ont été développés en intégrant des données les plus exhaustives possibles afin d’établir un profil détaillé des patients : dates d’amission, temps de passages, antécédents, observations médicales, constantes vitales, examens biologiques et compte rendus d’imagerie. Une excellente performance pour la prédiction des quatre événements d’intérêt à été retrouvée dans cet article. Des limites ont par ailleurs été identifiées, comme la nécessité de valider ces approches dans des contextes cliniques réels et d’explorer davantage leur interprétabilité en pratique quotidienne. Ce travail de recherche apporte une contribution significative pour la prédiction des évènements critiques et permettra le développement d’ applications visant à améliorer le parcours de soin des patients confrontés à une situation clinique susceptible de mettre en jeu leur pronostic vital.
|
|
Signal, image, vision
/ 29-11-2023
Le Bon Brandon
Voir le résumé
Voir le résumé
L'acquisition d'une image est restreinte par les limitations du matériel d'acquisition et est soumise à des perturbations. La reconstruction d'images à partir de mesures dégradées est un problème inverse, souvent mal conditionné et demandant donc la présence d'une connaissance à priori sur les images à reconstruire. Les algorithmes déroulés ont prouvé leur efficacité en matière de résolution de problèmes inverses, mais leur coût en mémoire et en temps de calcul est très élevé. Notre première contribution est une méthode d'entraînement pour les algorithmes déroulés, permettant de considérablement réduire les coûts et les contraintes liées à l'entraînement de ces méthodes. Nous nous intéressons ensuite plus particulièrement aux problèmes inverses liés à l'acquisition et à la reconstruction de champs de lumière. Ceux-ci permettent d'obtenir l'information 3D cruciale pour une variété de tâches en imagerie, qui est perdue lors de l'acquisition d'une image avec une caméra traditionnelle. Un champ de lumière est généralement capturé via des appareils coûteux et non accessibles au grand public. Notre deuxième contribution est une méthode basée sur les algorithmes d'optimisation déroulés, permettant de reconstruire un champ de lumière à partir d'un empilement de mises au point, contenant peu d'images capturées avec une caméra traditionnelle.
|
|
Signal, image, vision
/ 28-11-2023
Charpenay Nicolas
Voir le résumé
Voir le résumé
Cette thèse de doctorat porte sur la théorie de l'information zéro-erreur, notamment sur le codage de source avec information adjacente, le codage de canal et la dualité source-canal. Ces travaux s'articulent autour de trois axes: 1. les problèmes de codage zéro-erreur basés sur la correction, 2. les problèmes de codage zéro-erreur basés sur les graphes de confusion, 3. les problèmes de codage zéro-erreur pour le calcul d'une fonction. Une contribution importante de ce travail concerne le problème de la linéarisation du débit optimal, lorsque l'encodeur traite plusieurs tâches conjointement. Nous démontrons l'équivalence de la linéarisation pour les produits de graphes et pour leurs unions disjointes. Cette observation permet de caractériser les débits optimaux pour une classe de problèmes irrésolus depuis les années 1950. Les contributions de cette thèse ont donné lieu à des publications dans les actes des meilleurs conférences internationales de théorie de l'information et deux articles de revues sont en cours de préparation.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|