|
|<
<< Page précédente
1
2
3
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 04-05-2023
Mourot Lucas
Voir le résumé
Voir le résumé
L'apprentissage profond a révolutionné l'animation de personnages durant la dernière décennie. Des modèles novateurs et sophistiqués ont permis d'obtenir un réalisme sans précédent. Cependant, ces avancées ne permettent pas encore de remplacer les animateurs sur toutes les tâches fastidieuses et peu créatives. L'objectif de cette thèse est de s'attaquer aux obstacles qui les en empêchent. En particulier, nous avons abordé le manque de données de mouvement de qualité et la tendance des réseaux de neurones à introduire des artéfacts lors du traitement de données de mouvement. Nous avons d'abord exploré l'amélioration de séquences de poses humaines 2D estimées à partir de vidéos en utilisant des connaissances a priori apprises par un modèle génératif profond. Ensuite, nous avons abstrait le mouvement de la topologie et de la morphologie dans une représentation profonde, afin de rassembler, de traiter ou de squeletto-morphoser des séquences de mouvement avec des topologies et des morphologies variables. Enfin, nous nous sommes attaqués à la détection des contacts des pieds avec le sol dans le but de nettoyer automatiquement les artéfacts de glissement des pieds.
|
|
Informatique
/ 17-04-2023
Lesoil Luc
Voir le résumé
Voir le résumé
Les systèmes logiciels sont fortement configurables, au sens où les utilisateurs peuvent adapter leur compilation et leur exécution grâce à des configurations. Mais toutes ces configurations ne se valent pas, et certaines d'entre elles seront nettement plus efficaces que d'autres en terme de performance. Pour l'être humain, il est complexe d'appréhender et de comparer les les différentes possibilités de configuration, et donc de choisir laquelle sera adaptée pour atteindre un objectif de performance. De récents travaux de recherche ont montré que l'apprentissage automatique pouvait pallier à ce manque et prédire la valeur des performances d'un système logiciel à partir de ses configurations. Problème. Mais ces techniques n'incluent pas directement l'environnement d'exécution dans les données d'apprentissage, alors que les différents éléments de la pile logicielle (matériel, système d'exploitation, etc.) peuvent interagir avec les différentes options de configuration et modifier les distributions de performance du logiciel. En bref, nos modèles prédictifs de performance sont trop simplistes et ne seront pas utiles ou applicables pour les utilisateurs finaux des logiciels configurables. Contributions. Dans cette thèse, nous proposons d'abord de définir le terme de variabilité profonde pour désigner les interactions existant entre l'environnement et les configurations d'un logiciel, modifiant ses valeurs de performance. Nous démontrons empiriquement l'existence de cette variabilité profonde et apportons quelques solutions pour adresser les problèmes soulevés par la variabilité profonde. Enfin, nous prouvons que les modèles d'apprentissage automatique peuvent être adaptés pour être par conception robustes à la variabilité profonde.
|
|
Chimie moléculaire et macromoléculaire
/ 25-11-2022
Wu Jiajun
Voir le résumé
Voir le résumé
L’objectif de ce travail de thèse a été de développer des réactions de réductions catalytiques telles que les hydrosilylations ou les réactions par transfert plus éco-compatibles, promues par des complexes de fer, un des métaux les plus abondants sur terre. Dans la première partie de ce travail, la préparation d’amines primaires à partir de nitroarènes ou d’amides primaires a été réalisée par hydrosilylation catalysée par un complexe Fe(CO)4(IMes) sous irradiation lumineuse. La synthèse d’amines cycliques a également été effectuée dans des conditions réactionnelles similaires à partir de nitroarènes par réaction avec des céto-acides, impliquant une séquence réactionnelle en cascade. Dans une seconde partie, des complexes de type Knö lker, connus pour leur efficacité dans les réactions d’hydrogénation par transfert et auto-trans- fert, ont été utilisés pour promouvoir la réduction de nitroarènes en présence d’alcools et de K3PO4·H2O pour la synthèse efficace d’imines et de dérivés N- hétérocycliques. La première préparation chimiosélective d’indoles N-alkylés a été également réalisée par catalyse au fer à partir d’indolines via une procédure séquentielle: (i) la N-alkylation à partir d’alcools ou de diols, réaction qui est nettement accélérée dans le TFE, et (ii) l’oxydation des indolines en indoles N- alkylés catalysée par un système original à base de fer et de tempo en présence de TBHP. Nous avons ensuite développé la première réaction catalysée au fer d’α-alkylation d’oxydes de diarylmethylphosphine avec des alcools par une méthodologie type hydrogenation par transfert. Enfin, nous avons initié un projet dédié à la réduction sélective d’amides secondaires en imines dans des conditions d’hydrosilylation catalysée par des complexes de fer et promue par une irradiation UV.
|
|
informatique
/ 16-06-2023
Chambe Mathieu
Voir le résumé
Voir le résumé
Pour traiter la grande quantité de données visuelles disponible, il est important de concevoir des algorithmes qui peuvent trier, améliorer, compresser ou stocker des images et des vidéos. Dans cette thèse, nous proposons deux approches différentes pour améliorer la qualité d'images. Tout d'abord, nous proposons une étude des méthodes d'évaluation automatique de l'esthétique. Ces algorithmes sont basés sur des réseaux de neurones supervisés. Nous avons récolté des images de différents types, puis nous avons utilisé ces images pour tester des modèles. Notre étude montre que les caractéristiques nécessaires pour évaluer précisément les esthétiques de photographies professionnelles ou compétitives sont différentes, mais qu'elles peuvent être apprises par un seul et unique réseau. Enfin, nous proposons de travailler sur les images à grande gamme dynamique (High Dynamic Range, HDR en anglais). Nous présentons ici un nouvel opérateur pour augmenter la gamme dynamique d'images standards, appelé HDR-LFNet. Cet opérateur fusionne la sortie de plusieurs algorithmes pré-existants, ce qui permet d'avoir un réseau plus léger et plus rapide. Nous évaluons les performances de la méthode proposée grâce à des métriques objectives, ainsi qu'une évaluation subjective. Nous prouvons que notre méthode atteint des résultats similaires à l'état de l'art en utilisant moins de ressources.
|
|
Doctorat
/ 13-12-2022
Dattilo Martina
Voir le résumé
Voir le résumé
Cette thèse contribue à la littérature en fournissant un aperçu de la manière dont la qualité du patrimoine culturel peut être évaluée. En effet, nous considérons comme indicateur de qualité le nombre de critères de Valeur Universelle Exceptionnelle (VUE) qu’un site inscrit à la Liste du Patrimoine Mondial (LPM) de l’UNESCO remplit au moment de son inscription à la LPM. Grâce à cet indicateur, nous examinons de manière critique certains points de vue établis dans la littérature concernant la LPM de l’UNESCO. Par exemple, nous montrons que l’augmentation du nombre de sites inscrits sur la LPM réduit la qualité marginale des sites nouvellement inscrits (chapitre 1). En exploitant un ensemble de données original, nous testons la robustesse de cet indicateur et nous montrons qu’il est corrélé avec d’autres mesures possibles de la qualité (chapitre 2). Ainsi, l’indicateur que nous proposons s’avère être proche de la qualité des sites, telle qu’exprimée dans les guides de voyage Baedeker, source faisant autorité au début du XXème siècle. En outre, cette thèse clarifie le rôle des experts dans l’établissement de ces normes et suggère comment ces mesures pourraient être utilisées pour l’évaluation des politiques (chapitre 3). Ainsi, cet indicateur nous permet d’évaluer le rôle des experts de l’UNESCO dans la définition et l’application des critères d’inscription. En contrôlant la qualité de cette manière, on constate que les experts de l’UNESCO sont impartiaux et qu’ils attribuent le même nombre de critères au patrimoine indigène et colonial, ce qui exclut les craintes d’un parti pris culturel pro-européen dans la sélection des sites du patrimoine mondial.
|
|
Informatique
/ 05-05-2023
Kastenbaum Stéphane
Voir le résumé
Voir le résumé
L'augmentation de la complexité et de l'hétérogénéité des systèmes critiques pose un défi dans leur conception et leur assurance de sécurité. Les méthodes formelles sont utilisées pour valider les modèles de système, mais la difficulté réside dans la vérification de la sécurité du système global à partir des spécifications de composants validées. La théorie des contrats résout ce problème en utilisant les contrats d'assomption/garantie comme spécifications de composants. Les contrats sont validés en vérifiant que leurs hypothèses et garanties sur-approximent les pré- et post-conditions résultant des évaluations valides du modèle de composant. Les contrats individuels peuvent être combinés en faisant correspondre les hypothèses et garanties de chaque composant. Le manuscrit définit une formalisation algébrique des contrats d'assomption/garantie implémenté dans le calcul de construction de l'assistant de preuve Coq. Cette formalisation est prouvée pour valider une méta-théorie des contrats de Benveniste et al. pour tous les opérateurs tels que la composition, la conjonction, l'abstraction, le raffinement ainsi que l'introduction et l'élimination de variables. Le cas d'utilisation pratique du modèle de contrat est illustré avec la logique différentielle dynamique et deux instances du modèle de contrats. La théorie est appliquée à une étude de cas pour illustrer sa puissance dans la modélisation de composants pour valider un système cyber-physique.
|
|
Informatique
/ 11-07-2023
Voyez Antonin
Voir le résumé
Voir le résumé
Enedis est le principal gestionnaire de distribution d’électricité en France. Les distributeurs sont légalement obligé de mesurer et de publier la consommation électrique française. Les mesures contiennent de nombreuses informations personnelles et sensibles. De fait, la publication est anonymisée à l’aide d’agrégats par seuils. Ce travail étudie la vulnérabilité liée à la publication des mesures de consommation électrique. Notre première contribution est une étude statistique à grande échelle des mesures d’électricité française. En particulier, nous réalisons une étude d’unicité montrant que les séries non anonymisées sont très facilement identifiables. Notre deuxième contribution est une attaque par inférence d’appartenance qui permet de trouver toutes les séries formant un agrégat. Cette attaque est basée sur une variante du problème de la somme des sous-ensembles. Notre troisième contribution est une attaque par inférence d’appartenance modélisée comme un problème de classification de séries temporelles. Cette attaque nécessite peu de connaissances préalables et permet de trouver une cible spécifique dans un agrégat. Nous réalisons des expériences approfondies sur les attaques. Les résultats permettent de mieux choisir le seuil de publication. Enfin, nous proposons une méthode pour estimer la vulnérabilité des séries.
|
|
Signal, image, vision
/ 16-06-2023
De Turenne Aurélien
Voir le résumé
Voir le résumé
Les thérapeutiques endovasculaires ont connu un essor très important ces dernières années. Le préalable à tout acte interventionnel est de pouvoir accéder à la zone cible rapidement et efficacement. Cependant la navigation endovasculaire réalisée lors du cathétérisme est un geste technique qui s’avère difficile dans nombre de cas pathologiques, voire parfois impossible. C'est le cas de la thrombectomie mécanique pour le traitement endovasculaire de l'AVC ischémique. Afin de surmonter ces difficultés, nous apportons dans cette thèse plusieurs contributions dans le contexte de l'aide à la navigation endovasculaire : (i) une méthode deep-learning de segmentation automatique des structures vasculaires 3D d'intérêt à partir de l'angio-IRM pré-opératoire, (ii) une nouvelle méthode de recalage 3D/2D par recherche exhaustive multi-résolution permettant d'augmenter l'imagerie per-opératoire sans produit de contraste avec les données de l'imagerie préopératoire, et (iii) une nouvelle mesure de similarité entre patients exprimée en terme de navigabilité endovasculaire afin d'aider au choix de matériels dans un contexte de raisonnement à partir de cas.
|
|
Automatique, productique et robotique
/ 27-04-2023
Brault Pascal
Voir le résumé
Voir le résumé
L'un des défis majeurs des systèmes automatisés réside dans la nécessité de fonctionner dans des conditions réelles, donc incertaines. L'incertitude paramétrique est un problème courant, et se présente lors de l'exécution de tâches robotiques diverses. Dans cette thèse, nous explorons les possibilités apportées par la planification de trajectoires, dont le suivi est intrinsèquement robuste aux incertitudes. Dans la première contribution, nous étendons les algorithmes de planification de trajectoires à sensibilité minimale en introduisant la sensibilité de l'entrée, qui, une fois réduite, conduit à une prédiction accrue de l'entrée du système. Ce problème, bien que traité pour de la robotique aérienne, est généralisé pour tout système. Le problème de sensibilité reposant sur l'hypothèse de connaissance parfaite de l'état, dans la seconde contribution nous combinons les algorithmes 'control-aware' et 'observability-aware' grâce à la méthode de Chebyshev, afin de générer des trajectoires robustes aux incertitudes, et assurant une meilleure estimation des variables/paramètres du système. Enfin, dans la dernière contribution, nous développons une théorie qui exploite les données d'incertitude paramétrique, afin de construire les 'tubes de déviations du pire cas' autour des variables nominales du système. Cette nouvelle expression du problème permet d'augmenter la fiabilité des systèmes, car nous assurons la faisabilité, même pour les plus fortes déviations paramétriques.
|
|
Signal, image, vision
/ 12-06-2023
Duport Orlane
Voir le résumé
Voir le résumé
Les mécanismes physiologiques à l’origine des épisodes d’apnée chez le nouveau-né, ne sont pas encore entièrement élucidés. Cette thèse vise à utiliser des modèles computationnels pour améliorer notre compréhension de la réponse cardio-respiratoire aux événements d'apnée chez les nouveau-nés prématurés. Pour cela, un modèle des interactions cardio-respiratoires a été amélioré et adapté à la physiologie des nouveau-nés et des prématurés. Des analyses de sensibilité ont été réalisées pour étudier l'adaptation cardio-respiratoire due à la présence ou à la fermeture d'un canal artériel persistant, une malformation cardiaque courante chez les prématurés. Sur le même principe, des analyses ont souligné l'importance de certaines grandeurs physiologiques sur la réponse à l'apnée-bradycardie, telles que la fraction d'oxygène inspiré, les taux métaboliques et le volume pulmonaire. À partir de ces résultats, un sous-ensemble de paramètres a été identifié pour étudier la dynamique de la fréquence cardiaque pendant une apnée-bradycardie mixte à partir d'une base de données clinique de 37 apnées-bradycardies détectées sur 18 patients. Les résultats obtenus apportent de nouvelles connaissances sur les interactions cardio-respiratoires et sur les mécanismes sous-jacents de l’apnée de la prématurité. Ils permettent notamment de mettre en avant que la présence du canal artériel ne semble pas avoir d'impact sur la réaction cardio-respiratoire à l'apnée et sur la régulation après celle-ci. Ces résultats ouvrent de nouvelles perspectives pour la prise en charge et l'optimisation des thérapies en unités de soins intensifs néonatals.
|
|
|<
<< Page précédente
1
2
3
Page suivante >>
>|
|
documents par page
|