Tri :
Date
Titre
Auteur
|
|
Automatique, productique et robotique
/ 17-12-2020
Rahal Rahaf
Voir le résumé
Voir le résumé
L'interaction homme-robot est au cœur des développements de la robotique au fil des ans. En effet, même si l'autonomie robotique a été mise au point dans des environnements structurés et prévisibles, le recours à l'homme est encore nécessaire dans des environnements variables. Le travail présenté s'inscrit dans le cadre du thème général de l'interaction homme-robot. Plus précisément, la thèse traite de l'interaction à distance sous forme de téléopération. Nous concevons de nouvelles architectures de contrôle partagé pour une téléopération robotique sûre et intuitive, avec divers types d'interaction (notamment des retours haptiques) et différents niveaux d'automatisation. Nous concevons d’abord de nouvelles architectures de contrôle partagé pour la saisie et la manipulation robotique avec retours haptiques, ciblant à la fois les phases de préhension et de post-préhension. La première vise à minimiser l’effort du robot en phase de post-préhension, tandis que la seconde se concentre sur la réduction de la charge de travail humaine pendant l'exécution de la tâche. Nous ciblons également une application de découpe robotique, et élaborons une nouvelle technique de contrôle partagé imposant des contraintes non holonomes motivées par la tâche de découpe. Enfin, nous mettons en évidence le rôle de l'interaction haptique dans la conception d'algorithmes de saisie autonome, en utilisant l'expérience humaine et les retours haptiques pour apprendre au robot la saisie autonome d’objets déformables.
|
|
Informatique
/ 17-12-2020
Rahali Mohamed
Voir le résumé
Voir le résumé
Le concept de découpage du réseau « slicing » promet une flexibilité et une autonomie importantes pour la gestion des ressources. Grâce à ses principales caractéristiques, qui s'appuient essentiellement sur les technologies NFV et SDN, les nouveaux services de communication peuvent être conçus et déployés beaucoup plus rapidement qu'auparavant. Cependant, le maintien du niveau nécessaire de fiabilité reste un problème majeur. L'une de ses conséquences est que la surveillance de l'infrastructure réseau dédiée à cette classe de services est un défi essentiel, défi que nous abordons dans cette thèse via l'utilisation des techniques de tomographie. La tomographie étudie l'inférence des performances du réseau interne à partir de mesures externes. Nous étudions, entre autre, son application dans le contexte du slicing et des réseaux virtuels. Tout d'abord, nous présentons l'algorithme d'échantillonnage évolutif (ESA) comme un outil permettant d'inférer des métriques de nœuds ou de liens (dites « cachés », c'est-à-dire, intérieures) à partir des mesures de bout en bout, en suivant une approche de type algorithme génétique. Il améliore la précision et le temps de calcul des solutions existantes basées sur l'algorithme espérance-maximisation~(EM). Ensuite, nous utilisons une architecture de réseau neuronal entraîné comme outil d'inférence pour traiter le même problème. Le modèle apprend avec un petit volume de données simulées ce qui permet de le répéter rapidement en fonction des mises à jour du réseau. Deuxièmement, nous avons abordé le problème de placement des moniteurs. Nous avons étudié un cas particulier où seulement des cycles sont utilisés. La motivation de ce choix est d'éviter les contraintes liées à la synchronisation entre les nœuds. La programmabilité du réseau offerte par le SDN permet le déploiement de ce type de chemin personnalisé. Cette problématique est formulée comme un problème de couverture d'ensemble et nous avons proposé deux approches pour le résoudre, un algorithme optimal et une autre heuristique. Enfin, nous avons étudié le problème de la détection d'anomalies dans les réseaux NFV. Nous appliquons les principes de la tomographie booléenne, où chaque nœud ne peut avoir que deux états : opérationnel ou défaillant. Nous donnons des conditions nécessaires et suffisantes sur la topologie, plus une stratégie de sondage qui garantissent la localisation d'une limite maximale fixe de nœuds simultanément défaillants.
|
|
Informatique
/ 17-12-2020
Andriamilanto Tompoariniaina Nampoina
Voir le résumé
Voir le résumé
L'authentification web consiste à vérifier que le visiteur d'un site web est bien le détenteur d'un compte. Pour ce faire, plusieurs informations peuvent servir de preuve de détention, dont les empreintes de navigateur. Celles-ci sont des propriétés collectées à partir d'un navigateur permettant d'en constituer une empreinte potentiellement unique. Au travers de cette thèse, nous proposons deux contributions. Nous étudions l'adéquation des empreintes de navigateur pour de l'authentification. Nous faisons le lien entre les empreintes digitales et celles des navigateurs afin d'évaluer ces dernières selon des propriétés d'informations biométriques. Nous basons notre étude sur l'analyse de quatre jeux de données d'empreintes de navigateur, dont un comprenant presque deux millions de navigateurs. Nous proposons FPSelect, un outil de sélection d'attributs tels qu'ils satisfassent un niveau de sécurité et réduisent les contraintes d'utilisation. Le niveau de sécurité est mesuré selon la proportion d'utilisateurs usurpés étant donné les attributs utilisés, une population de navigateurs, et un attaquant modélisé. Les contraintes sur l'utilisation sont mesurées selon le temps de collecte des empreintes, leur taille, et leur instabilité. Nous comparons les résultats de FPSelect avec des méthodes usuelles de sélection d'attributs sur deux jeux de données.
|
|
Informatique
/ 17-12-2020
Tran Thi To Quyen
Voir le résumé
Voir le résumé
Une jointure floue est l'une des opérations de traitement et d'analyse de données les plus utiles pour le Big Data dans un contexte général. Il combine des paires de tuples dont la distance est inférieure ou égale à un seuil donné. La jointure floue est utilisée dans de nombreuses applications pratiques, mais elle est extrêmement coûteuse en temps et en espace, et peut même ne pas être exécutée sur des ensembles de données à grande échelle. Bien qu'il y ait eu quelques études pour améliorer ses performances en appliquant des filtres, une solution d'un filtre flou efficace pour la jointure floue n'a jamais été réalisée. Dans cette thèse, nous nous concentrons donc sur l'optimisation des grandes jointures floues à l'aide de filtres. Pour atteindre ces objectifs, nous appliquons d'abord des filtres Bloom aux opérations de grande jointure floue afin d'éliminer la plupart des éléments non joints dans les ensembles de données d'entrée avant d'envoyer les données au traitement de jointure réel. Ainsi, il réduit les données intermédiaires redondantes, les comparaisons inutiles et évite la duplication des données. Une autre proposition importante est les filtres flous, qui sont des structures de données probabilistes conçues pour représenter des ensembles et leurs éléments de similarité. Ils sont utilisés pour détecter rapidement les éléments proches de l'ensemble dans des seuils donnés avec un faible taux de faux positifs et zéro taux de faux négatifs. De plus, ces filtres sont non seulement indépendants avec des seuils et des fonctions de mesure de distance, mais aussi facilement mis à jour. Par conséquent, il peut être appliqué à un large éventail de problèmes courants tels que la déduplication, la correction d'erreurs, le nettoyage des données, l'intégration de données, les jointures récursives et les jointures de flux. Notre amélioration réduira considérablement le nombre de calculs redondants et les frais généraux associés tels que les données intermédiaires et la communication pour les opérations de déduplication. Nous effectuons ensuite des comparaisons d'analyse des algorithmes de jointure floue convaincantes sur la base d'un modèle de coût M-C-R. En conséquence, en utilisant les filtres proposés, les opérations de jointure floue peuvent minimiser les coûts d'E/S disque et de communication. De plus, les opérations de jointure floue basées sur des filtres se sont avérées plus efficaces que les solutions existantes grâce à des évaluations expérimentales dans Spark. Des comparaisons expérimentales de différents algorithmes pour les jointures floues sont examinées en ce qui concerne la quantité de données intermédiaires, la quantité totale de sortie, le temps total d'exécution et en particulier les calendriers des tâches. Bref, nos améliorations sur les opérations de jointure contribuent à la scène mondiale d'optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle.
|
|
Informatique
/ 16-12-2020
Fahs Ali Jawad
Voir le résumé
Voir le résumé
L'architecture géo-distribuée de fog computing fournit aux utilisateurs des ressources accessibles avec une faible latence. Cependant, exploiter pleinement cette architecture nécessite une distribution similaire de l'application par l'utilisation de techniques de réplication. Par conséquent, la gestion de ces répliques doit intégrer des algorithmes prenant en compte la proximité aux différents niveaux de gestion des ressources du système. Dans cette thèse, nous avons abordé ce problème à travers trois contributions. Premièrement, nous avons conçu un système de routage des requêtes entre les utilisateurs et les ressource prenant en compte la proximité. Deuxièmement, nous avons proposé des algorithmes dynamiques pour le placement des répliques prenant en compte les derniers percentiles de la latence. Enfin, nous avons développé un système de mise à l’échelle automatique qui ajustent le nombre des répliques de l'application en fonction de la charge subie par les applications fog computing.
|
|
Droit et sciences politique
/ 16-12-2020
Barlet Christophe
Voir le résumé
Voir le résumé
L’inspection-contrôle a connu plusieurs évolutions qui interrogent sa place et son rôle, en particulier dans le champ de cette étude. La multiplicité des acteurs et des procédures d’inspection-contrôle rend son appréhension complexe et interroge la nature juridique et le régime juridique applicables aux différents types de contrôles. Par ailleurs, l’inspection-contrôle apparaît aujourd’hui remise en question par la normalisation des pratiques professionnelles et des nouvelles démarches d’accompagnement et d’amélioration continue de la qualité dans les établissements et services du champ étudié. Ces démarches, dévolues à des autorités publiques ou des organismes privés, prennent la forme de la certification des établissements de santé, de l’accréditation des professionnels de santé, de l’évaluation des établissements et services sociaux et médico-sociaux ou encore de l’audit. Elles s’appuient largement sur le droit des autorisations et la contractualisation. Il convient ainsi de rechercher si une bonne activité de l’État, c’est seulement de la règle ou aussi de la régulation, si le contrôle a changé de nature, s’il s’est diversifié ou s’il a régressé au bénéfice d’autres activités plus souples sous l’influence du droit de la concurrence, du droit communautaire et de la situation budgétaire de l’État. La question de la juridicité de l’inspection en tant que contrôle particulier et son articulation avec les démarches qualité guident cette recherche.
|
|
Chimie moléculaire et macromoléculaire
/ 16-12-2020
Bou Zeid Samar
Voir le résumé
Voir le résumé
Les hétérocycles constituent une grande famille de composés organiques possédant un grand intérêt biologique et industriel. Afin d’obtenir des structures hétérocycliques variées et élargir leur domaine d’application, le développement de nouvelles approches synthétiques efficaces est devenu un défi important dans les laboratoires de recherche. Le travail présenté dans ce mémoire s'inscrit dans cette perspective et aborde de nouvelles méthodologies efficaces et durables pour accéder aux molécules hétérocycliques à visée thérapeutique.
Dans une première partie, une méthodologie basée sur un réarrangement dioxa-[1,3]-sigmatropique [3,3] assisté par irradiations micro-ondes a permis d’élargir le scope en carbamates allyliques linéaires et d’aboutir par la suite aux dérivés d’oxazinanedione. Dans une deuxième partie, un réarrangement sigmatropique [3,3] d’allyle cyanate/isocyanate a été appliqué aux carbamates allyliques pour accéder aux dérivés d’imidazolidinedione. Enfin, la synthèse des dérivés 2-alkyl et 2-arylimidazolones, inspirés du produit naturel la leucettamine B, est exposée dans ce manuscrit. Elle met en jeu une stratégie synthétique multicomposant assistée par micro-ondes. Les dérivés d’imidazolone obtenus ont montré des activités anticancéreuses intéressantes contre les lignées cellulaires MCF-7 et HepG2. De même, ils ont montré un effet thérapeutique potentiel sur un modèle de maladie d’Alzheimer induit aux poissons zèbre.
|
|
Droit public
/ 16-12-2020
Klimt Pierre
Voir le résumé
Voir le résumé
Le bicamérisme est parfois présenté comme un gâchis, mais il l'est plus souvent comme une évidence voire, tout simplement, comme une « tradition républicaine ». Comprendre les fondements constitutionnels justifiant l'existence de l'actuelle seconde chambre suppose cependant de dépasser ces simples postulats et d'élaborer une véritable systématique du bicamérisme, qui en soit à la fois une généalogie institutionnelle et le condensé des présupposés théoriques du constitutionnalisme qui lui ont donnés naissance et lui ont permis de perdurer. En tant qu'institution, le Sénat est d'abord un représentant chargé de la détermination de la volonté de la nation. Il ne peut cependant l'être qu'à la condition qu'il procède du suffrage égal et universel. Au regard de ces principes, la justification théorique de l'existence du Sénat est au mieux ambigüe. En pratique, les sénateurs s'en accommodent en s'appropriant en compensation une fonction de représentation « territoriale », traduction supposée de leur mode d'élection différencié. En retour cette ambigüité intrinsèque concentre cependant les demandes de mutations de la représentation sur le Sénat, au nom de la satisfaction d'impératifs de représentativités divers. L'histoire du bicamérisme représentant n'est toutefois pas celle de l'institutionnalisation de l'hétérogénéité sociologique, et le principe de représentation nationale continue de s'opposer à ses déclinaisons les plus récentes.La justification de l'existence de la seconde chambre ne réside donc pas dans l'altération assumée de l'unité de la représentation nationale, fut-elle pensée à des fins de complémentarité. Elle est à rechercher du côté du constitutionnalisme libéral classique, dont le Sénat constitue la principale rémanence au sein du système institutionnel et normatif de la Ve République. La création d'une seconde chambre est avant tout une technique participant du gouvernement représentatif avec « séparation des pouvoirs ». Jusque dans son inflexion républicaine, le bicamérisme s'est imposé et s'est vu définir comme étant essentiellement un agencement institutionnel d'équilibre et de concurrence entre autorités délibérantes et non de spécialisation des pouvoirs. Les mutations contemporaines du constitutionnalisme libéral ont conduit, cependant, à revigorer certains aspects de la tentation de la spécialisation. Ces dernières décennies, les sénateurs de la Ve République ont su accompagner ces mutations tout en préservant le cœur essentiel de leur fonction. Le transformisme institutionnel mesuré - et parfois quelque peu dispersé - auquel ils se sont livrés a conduit au renouveau de leur fonction délibérante sans la remettre fondamentalement en cause, grâce à l'exploration et au perfectionnement technique de la délibération sénatoriale, grâce à une spécialisation d'appoint de celle-ci, et grâce, enfin, à la démonstration de l'exemplarité de ses conditions d'exercice.
|
|
Chirurgie dentaire
/ 16-12-2020
Julien Pierre
Voir le résumé
Voir le résumé
Le composite fibré semble être un matériau prometteur pour la dentisterie restauratrice et biomimétique de demain. Nous avons ici cherché à faire un état des lieux de leurs caractéristiques mécaniques et physiques quand ils sont utilisés en restauration directe. Nous avons cherché dans la dernière partie à comparer les données des études in vitro récoltées avec des données cliniques in vivo. Il en résulte que les composites renforcés de fibres ont été d’un apport bénéfique, notamment pour endiguer la propagation de fissures existantes tout en permettant une reconstruction pérenne. D’autre part, leur utilisation reste soumise à certaines règles de mise en place sans quoi leurs propriétés ne sauraient être maximales. Ses évolutions et indications constituent des pistes de recherche prometteuses.
|
|
Chirurgie dentaire
/ 16-12-2020
Boulbin Etienne
Voir le résumé
Voir le résumé
Le composite fibré semble être un matériau prometteur pour la dentisterie restauratrice et biomimétique de demain. Nous avons ici cherché à faire un état des lieux de leurs caractéristiques mécaniques et physiques quand ils sont utilisés en restauration directe. Nous avons cherché dans la dernière partie à comparer les données des études in vitro récoltées avec des données cliniques in vivo. Il en résulte que les composites renforcés de fibres ont été d’un apport bénéfique, notamment pour endiguer la propagation de fissures existantes tout en permettant une reconstruction pérenne. D’autre part, leur utilisation reste soumise à certaines règles de mise en place sans quoi leurs propriétés ne sauraient être maximales. Ses évolutions et indications constituent des pistes de recherche prometteuses.
|
|