Tri :
Date
Titre
Auteur
|
|
Informatique
/ 28-06-2023
Corbillé Simon
Voir le résumé
Voir le résumé
Notre objectif est de concevoir un système de reconnaissance et de segmentation d'écriture manuscrite d'enfants dans le but d'analyser précisément l'écriture afin de faire des retours orthographiques immédiats à l'enfant. Les contributions de cette thèse reposent sur l'hybridation de modèles d'apprentissage profond avec des modèles utilisant des connaissances expertes explicites. La première contribution consiste à intégrer la dynamique de l'écriture contenue dans le signal en ligne dans un réseau de neurones convolutifs pour faire de la reconnaissance de caractères. La seconde contribution porte sur l'amélioration d'un système existant d'analyse de mots. Ce système utilise un mécanisme de guidage par la consigne ainsi que les mots phonétiquement proches de la consigne pour aiguiller son analyse. Le principe est d'intégrer la prédiction d'un modèle de reconnaissance Seq2Seq dans le système de guidage. L'objectif est de palier les manques du mécanisme de guidage quand les mots d'entrée contiennent des erreurs non-phonétiques. La troisième contribution propose un nouveau système de reconnaissance et de segmentation. Il repose sur la combinaison d'un modèle dédié à la reconnaissance et d'un modèle dédié à la segmentation. Le système intègre également les connaissances contenues dans le signal en ligne afin d'améliorer la précision de la segmentation. Enfin, nous avons développé un mécanisme de rejet dans le but d'améliorer la qualité du retour effectué à l'enfant. Les résultats des expérimentations démontrent l'intérêt et l'efficacité de ces contributions.
|
|
Automatique, productique et robotique
/ 23-06-2023
Kuang Lisheng
Voir le résumé
Voir le résumé
Les systèmes haptiques sans sol jouent un rôle clé dans l'interaction homme-robot-environnement, les défis résident dans le développement de ces dispositifs, y compris la conception mécatronique, les algorithmes de rendu haptique, et la compréhension de la perception haptique. Dans cette thèse, nous présentons la conception de plusieurs dispositifs haptiques non ancrés dans le sol (portables et de poche) capables de générer diverses sensations tactiles pour l'homme en vue de l'application de la navigation et du rendu de l'environnement. Dans la première contribution, nous explorons le développement d'un dispositif cutané à porter sur plusieurs positions du corps pour appliquer un retour d'information sur la position et l'emplacement dans des scénarios de navigation. Dans la deuxième contribution, nous présentons la conception d'un mécanisme parallèle contraint pour le rendu haptique kinesthésique pour le guidage des mouvements de la main et le rendu tactile de type rencontre. Dans la troisième contribution, nous présentons un ensemble de dispositifs palmaires montés sur la main avec des effecteurs terminaux interchangeables, qui inspirent également l'exploration de matériaux souples et déformables pour le rendu des sensations tactiles. Enfin, dans la dernière contribution, nous étudions l'efficacité du retour haptique (kinesthésique, vibrotactile) pour l'entraînement des capacités motrices en réalité virtuelle.
|
|
informatique
/ 16-06-2023
Chambe Mathieu
Voir le résumé
Voir le résumé
Pour traiter la grande quantité de données visuelles disponible, il est important de concevoir des algorithmes qui peuvent trier, améliorer, compresser ou stocker des images et des vidéos. Dans cette thèse, nous proposons deux approches différentes pour améliorer la qualité d'images. Tout d'abord, nous proposons une étude des méthodes d'évaluation automatique de l'esthétique. Ces algorithmes sont basés sur des réseaux de neurones supervisés. Nous avons récolté des images de différents types, puis nous avons utilisé ces images pour tester des modèles. Notre étude montre que les caractéristiques nécessaires pour évaluer précisément les esthétiques de photographies professionnelles ou compétitives sont différentes, mais qu'elles peuvent être apprises par un seul et unique réseau. Enfin, nous proposons de travailler sur les images à grande gamme dynamique (High Dynamic Range, HDR en anglais). Nous présentons ici un nouvel opérateur pour augmenter la gamme dynamique d'images standards, appelé HDR-LFNet. Cet opérateur fusionne la sortie de plusieurs algorithmes pré-existants, ce qui permet d'avoir un réseau plus léger et plus rapide. Nous évaluons les performances de la méthode proposée grâce à des métriques objectives, ainsi qu'une évaluation subjective. Nous prouvons que notre méthode atteint des résultats similaires à l'état de l'art en utilisant moins de ressources.
|
|
Informatique
/ 23-05-2023
Bellec Nicolas
Voir le résumé
Voir le résumé
Les systèmes temps-réels embarquent de plus en plus de moyen pour communiquer sans fils avec des utilisateurs extérieurs. Ces mêmes moyens peuvent être détournés pour attaquer ces systèmes, brisant les garanties de ces derniers et pouvant engendrer des accidents. Pour protéger les systèmes temps-réels contre ces nouvelles attaques, il est nécessaire de développer de nouvelles protections prenant en compte les spécificités de ces systèmes. Dans cette thèse, nous cherchons à améliorer la sécurité des systèmes temps-réels contre des attaques dites par corruption de mémoire. Ces attaques utilisent une mauvaise gestion de la mémoire dans un programme pour modifier son comportement. Nous nous intéressons en particulier à une défense appelée Intégrité du flux de donnée, qui peut protéger contre une vaste classe d'attaque par corruption de mémoire. Nous adaptons cette protection au contexte des systèmes temps-réels en optimisant le temps d'exécution dans le pire cas, une métrique fondamentale pour garantir la bonne exécution de ces systèmes.
|
|
Informatique
/ 05-05-2023
Kastenbaum Stéphane
Voir le résumé
Voir le résumé
L'augmentation de la complexité et de l'hétérogénéité des systèmes critiques pose un défi dans leur conception et leur assurance de sécurité. Les méthodes formelles sont utilisées pour valider les modèles de système, mais la difficulté réside dans la vérification de la sécurité du système global à partir des spécifications de composants validées. La théorie des contrats résout ce problème en utilisant les contrats d'assomption/garantie comme spécifications de composants. Les contrats sont validés en vérifiant que leurs hypothèses et garanties sur-approximent les pré- et post-conditions résultant des évaluations valides du modèle de composant. Les contrats individuels peuvent être combinés en faisant correspondre les hypothèses et garanties de chaque composant. Le manuscrit définit une formalisation algébrique des contrats d'assomption/garantie implémenté dans le calcul de construction de l'assistant de preuve Coq. Cette formalisation est prouvée pour valider une méta-théorie des contrats de Benveniste et al. pour tous les opérateurs tels que la composition, la conjonction, l'abstraction, le raffinement ainsi que l'introduction et l'élimination de variables. Le cas d'utilisation pratique du modèle de contrat est illustré avec la logique différentielle dynamique et deux instances du modèle de contrats. La théorie est appliquée à une étude de cas pour illustrer sa puissance dans la modélisation de composants pour valider un système cyber-physique.
|
|
Informatique
/ 04-05-2023
Mourot Lucas
Voir le résumé
Voir le résumé
L'apprentissage profond a révolutionné l'animation de personnages durant la dernière décennie. Des modèles novateurs et sophistiqués ont permis d'obtenir un réalisme sans précédent. Cependant, ces avancées ne permettent pas encore de remplacer les animateurs sur toutes les tâches fastidieuses et peu créatives. L'objectif de cette thèse est de s'attaquer aux obstacles qui les en empêchent. En particulier, nous avons abordé le manque de données de mouvement de qualité et la tendance des réseaux de neurones à introduire des artéfacts lors du traitement de données de mouvement. Nous avons d'abord exploré l'amélioration de séquences de poses humaines 2D estimées à partir de vidéos en utilisant des connaissances a priori apprises par un modèle génératif profond. Ensuite, nous avons abstrait le mouvement de la topologie et de la morphologie dans une représentation profonde, afin de rassembler, de traiter ou de squeletto-morphoser des séquences de mouvement avec des topologies et des morphologies variables. Enfin, nous nous sommes attaqués à la détection des contacts des pieds avec le sol dans le but de nettoyer automatiquement les artéfacts de glissement des pieds.
|
|
Informatique
/ 17-04-2023
Lesoil Luc
Voir le résumé
Voir le résumé
Les systèmes logiciels sont fortement configurables, au sens où les utilisateurs peuvent adapter leur compilation et leur exécution grâce à des configurations. Mais toutes ces configurations ne se valent pas, et certaines d'entre elles seront nettement plus efficaces que d'autres en terme de performance. Pour l'être humain, il est complexe d'appréhender et de comparer les les différentes possibilités de configuration, et donc de choisir laquelle sera adaptée pour atteindre un objectif de performance. De récents travaux de recherche ont montré que l'apprentissage automatique pouvait pallier à ce manque et prédire la valeur des performances d'un système logiciel à partir de ses configurations. Problème. Mais ces techniques n'incluent pas directement l'environnement d'exécution dans les données d'apprentissage, alors que les différents éléments de la pile logicielle (matériel, système d'exploitation, etc.) peuvent interagir avec les différentes options de configuration et modifier les distributions de performance du logiciel. En bref, nos modèles prédictifs de performance sont trop simplistes et ne seront pas utiles ou applicables pour les utilisateurs finaux des logiciels configurables. Contributions. Dans cette thèse, nous proposons d'abord de définir le terme de variabilité profonde pour désigner les interactions existant entre l'environnement et les configurations d'un logiciel, modifiant ses valeurs de performance. Nous démontrons empiriquement l'existence de cette variabilité profonde et apportons quelques solutions pour adresser les problèmes soulevés par la variabilité profonde. Enfin, nous prouvons que les modèles d'apprentissage automatique peuvent être adaptés pour être par conception robustes à la variabilité profonde.
|
|
Informatique
/ 24-03-2023
Allenet Thibault
Voir le résumé
Voir le résumé
Les réseaux de neurones convolutifs et les réseaux neurones récurrents (RNN) ont été largement utilisés dans de nombreux domaines tels que la vision par ordinateur, le traitement naturel du langage et le traitement du signal. Néanmoins, la charge de calcul et le besoin en bande passante mémoire impliqués dans l'inférence des réseaux de neurones profonds empêchent souvent leur déploiement sur des cibles embarquées à faible ressources. De plus, la vulnérabilité des réseaux de neurones profonds à de petites perturbations sur les entrées remet en question leur déploiement pour des applications impliquant des décisions de haute criticité. Pour relever ces défis, cette thèse propose deux principales contributions. D'une part, nous proposons des méthodes de compression pour rendre les réseaux de neurones profonds plus adaptés aux systèmes embarqués ayant de faibles ressources. D'autre part, nous proposons une nouvelle stratégie pour rendre les réseaux de neurones profonds plus robustes aux attaques adverses en tenant compte des ressources limitées des systèmes embarqués. Dans un premier temps, nous présentons une revue de la littérature sur des principes et des outils de bases de l'apprentissage profond, des types de réseaux de neurones reconnus et un état de l'art sur des méthodes de compression de réseaux de neurones. Ensuite, nous présentons deux contributions autour de la compression des réseaux de neurones profonds : une étude de transférabilité du Lottery Ticket sur les RNN et une méthode de quantification à l’apprentissage. L’étude de transférabilité du Lottery Ticket sur les RNN analyse la convergence des RNN et étudie son impact sur l'élagage des paramètres pour des taches de classification d'images et de modélisation du langage. Nous proposons aussi une méthode de prétraitement basée sur le sous-échantillonnage des données qui permet une convergence plus rapide des LSTM tout en préservant les performances applicatives. Avec la méthode Disentangled Loss Quantization Aware Training (DL-QAT), nous proposons d'améliorer une méthode de quantification avancée avec des fonctions de coût favorables à la quantification afin d'atteindre des paramètres binaires. Les expériences sur ImageNet-1k avec DL-QAT montrent une amélioration de près de 1 % sur la précision du score de ResNet-18 avec des poids binaires et des activations de 2 bits. Il apparaît clairement que DL-QAT fournit le meilleur profil du compromis entre l'empreinte mémoire et la performance applicative. Ce travail étudie ensuite la robustesse des réseaux de neurones face aux attaques adverses. Après avoir présenté l'état de l'art sur les attaques adverses et les mécanismes de défense, nous proposons le mécanisme de défense Ensemble Hash Defense (EHD). EHD permet une meilleure résistance aux attaques adverses basées sur l'approximation du gradient tout en préservant les performances de l'application et en ne nécessitant qu'une surcharge de mémoire au moment de l'inférence. Dans la meilleure configuration, notre système réalise des gains de robustesse significatifs par rapport aux modèles de base et à une approche de robustesse basée sur la fonction de coût. De plus, le principe de l'EHD la rend complémentaire à d'autres méthodes d'optimisation robuste qui permettraient d'améliorer encore la robustesse du système final. Dans la perspective de l'inférence sur cible embarquée, la surcharge mémoire introduite par l'EHD peut être réduite par la quantification ou le partage de poids. En conclusion, les travaux de cette thèse ont proposé des méthodes de compression de réseaux de neurones et un système de défense pour résoudre des défis importants, à savoir comment rendre les réseaux de neurones profonds plus robustes face aux attaques adverses et plus faciles à déployer sur les plateformes à ressources limitées. Ces travaux réduisent davantage l'écart entre l'état de l'art des réseaux neurones profonds et leur exécution sur des cibles embarquées à faible ressources.
|
|
Informatique
/ 23-03-2023
BATTULGA DAVAADORJ
Voir le résumé
Voir le résumé
Le domaine du traitement de flux de données (ou stream processing (SP)) a émergé comme une réponse au besoin de développer et de déployer des applications pour le traitement en temps-réel de données générés en continu. Alors qu’aujourd’hui les outils du stream processing ont atteint un degré de maturité et d’utilisabilité significatifs leur permettant de gérer un grand volume de donnés en temps réel, ils ne sont pas adaptés aux plates-formes géographiquement distribuées, comme celles supportant le Fog computing. Les travaux décrits dans cette thèse contribuent à construire des plates-formes pour le Fog computing spécialisées pour le traitement de flux de données, à renforcer leurs propriétés de passage à l’échelle, d’autonomie et de programmabilité. Premièrement, en terme de passage à l’échelle, et afin d’avancer vers la possibilité de déploiement d’applications de traitement de flux de données sur des plates-formes de type Fog, nous proposons un nouveau modèle architectural fondé sur la coordination de plusieurs sites de calcul, au- dessus desquels une application pourra être déployée de façon unifiée. Deuxièmement, sur l’aspect autonomie, et afin de gérer le temps d’exécution de l’application après son déploiement initial, nous proposons un mécanisme d’adaptation dans lequel les sites de calcul collaborent pour assurer la reconfiguration efficace du déploiement de l’application. Enfin, ces travaux explorent le versant pratique de la problématique. Nous discutons la conception générique et l’implémentation dans un contexte réel de ville intelligente d’un nœud de calcul pour le Fog.
|
|
Informatique
/ 15-03-2023
Cong Minh Thanh
Voir le résumé
Voir le résumé
La conception de plates-formes de système sur puce hétérogènes est complexe avec de nombreuses combinaisons possibles. La simulation détaillée de différentes solutions est nécessaire pour déterminer le meilleur design. Les environnements de simulation existants (tels que gem5) sont limités car purement logiciels et ne prennent pas en compte les architectures hétérogènes. Pour pallier ces limitations, l'utilisation de composants reprogrammables FPGA pour accélérer la simulation est motivée. Notre travail est divisé en deux parties. La première partie est d'ordre expérimental et a étudié une approche de conception d'architectures hétérogènes en se concentrant sur la simulation de modèles de performance de composants de l'architecture (accélérateurs matériels et cœurs de processeurs) sur FPGA. La seconde partie est méthodologique et concerne un flot pour déterminer la meilleure microarchitecture en termes de rapport performance/consommation d'énergie. Ce flot combine un simulateur logiciel d'architecture et une méthode d'optimisation d'hyperparamètres pour trouver la meilleure combinaison de parallélisme, stratégies de déroulage de boucles et interfaces de mémoire. Les expérimentations ont été menées sur différents problèmes pour déterminer les solutions les plus optimales en termes d'efficacité énergétique.
|
|