Tri :
Date
Titre
Auteur
|
|
Informatique
/ 12-12-2013
Abbaci Katia
Voir le résumé
Voir le résumé
Plusieurs domaines d'application traitent des objets et des données complexes dont la structure et la sémantique de leurs composants sont des informations importantes pour leur manipulation et leur exploitation. La structure de graphe a été bien souvent adoptée, comme modèles de représentation, dans ces domaines. Elle permet de véhiculer un maximum d'informations, liées à la structure, la sémantique et au comportement de ces objets, nécessaires pour assurer une meilleure représentation et une manipulation efficace. Ainsi, lors d'une comparaison entre deux objets complexes, l'opération d'appariement est appliquée entre les graphes les modélisant. Nous nous sommes intéressés dans cette thèse à l'appariement approximatif qui permet de sélectionner les graphes les plus similaires au graphe d'une requête. L'objectif de notre travail est de contribuer à l'interrogation flexible et personnalisée d'objets complexes modélisés sous forme de graphes pour identifier les graphes les plus pertinents aux besoins de l'utilisateur, exprimés d'une manière partielle ou imprécise. Dans un premier temps, nous avons proposé un cadre de sélection de services Web modélisés sous forme de graphes qui permet (i) d'améliorer le processus d'appariement en intégrant les préférences des utilisateurs et l'aspect structurel des graphes comparés, et (ii) de retourner les services les plus pertinents. Une deuxième méthode d'évaluation de requêtes de recherche de graphes par similarité a également été présentée pour calculer le skyline de graphes d'une requête utilisateur en tenant compte de plusieurs mesures de distance de graphes. Enfin, des approches de raffinement ont été définies pour réduire la taille, souvent importante, du skyline. Elles ont pour but d'identifier et d'ordonner les points skyline qui répondent le mieux à la requête de l'utilisateur.
|
|
Télécommunications
/ 08-12-2021
Abdelghany Ahmed
Voir le résumé
Voir le résumé
L'objectif principal de ce travail est d'améliorer diverses fonctions LPWAN, en exploitant la connaissance des propriétés de propagation du canal sans fil. Tout d'abord, les techniques de localisation (sans GPS) sont étudiées, puis améliorées en proposant une technique TDoA paramétrique originale. Dans ce contexte, des techniques de prétraitement des observables spécifiques à la technique TDoA sont proposées. En utilisant un simulateur spécifique implémenté dans le cadre de la thèse, les résultats montrent que les approches proposées sont plus efficaces que la technique TDoA classique. D'autre part, l'utilisation du CSI pour la localisation est préconisée, la thèse étudie sa variabilité spatiale et temporelle. A travers une campagne de mesure, la fiabilité de l'utilisation du ESP en substitution du RSSI est affirmée par sa portée accrue. A ce stade, le LoRaWAN PDR est modélisé en fonction du ESP. Ensuite, le travail est orienté vers l'amélioration du PDR}en proposant des algorithmes d'allocation de spectre qui exploitent la dépendance en fréquence du PDR. Ainsi, deux politiques décentralisées sont proposées pour apprendre un schéma d'allocation de fréquence approprié basé sur le ESP comme information sur la qualité du canal. Expérimentalement, les algorithmes proposés sont plus performants que la politique conventionnelle UCB avec moins de perte de paquets à la fin du processus.
|
|
Informatique
/ 30-09-2013
Abdou Arbi Oumarou
Voir le résumé
Voir le résumé
Nous développons une approche générique pour comprendre comment différents régimes alimentaires peuvent influencer la qualité et la composition du lait. Cette question s'intègre dans le cadre du Flux Balance Analysis (FBA), qui consiste à analyser un réseau métabolique en optimisant un système de contraintes linéaires. Nous avons proposé une extension du FBA pour analyser la transformation des nutriments en intégrant des hypothèses biologiques utilisées par différents modèles numériques dans un modèle générique de la glande mammaire. Notre méthode permet de quantifier les précurseurs qui interviennent dans la composition des sorties du système, en calculant des contributions des entrées dans les sorties [AIO]. A l'aide de cette approche, nous avons montré que la transformation des nutriments du lait ne peut pas être modélisée par l'optimisation d'une combinaison linéaire des flux des réactions sur un modèle du métabolisme mammaire. Pour étudier plus précisément la flexibilité d'un réseau métabolique, nous avons proposé un algorithme efficace de recherche locale pour calculer les valeurs extrémales des coefficients des AIOs. Cette approche permet de discriminer les traitements sans formuler d'hypothèses sur le comportement interne du système.
|
|
Automatique, productique et robotique
/ 18-12-2018
Abi-Farraj Firas
Voir le résumé
Voir le résumé
Bien que la pleine autonomie dans des environnements inconnus soit encore loin, les architectures de contrôle partagé où l'humain et un contrôleur autonome travaillent ensemble pour atteindre un objectif commun peuvent constituer un « terrain intermédiaire » pragmatique. Dans cette thèse, nous avons abordé les différents problèmes des algorithmes de contrôle partagé pour les applications de saisie et de manipulation. En particulier, le travail s'inscrit dans le projet H2020 Romans dont l'objectif est d'automatiser le tri et la ségrégation des déchets nucléaires en développant des architectures de contrôle partagées permettant à un opérateur humain de manipuler facilement les objets d'intérêt. La thèse propose des architectures de contrôle partagé différentes pour manipulation à double bras avec un équilibre opérateur / autonomie différent en fonction de la tâche à accomplir. Au lieu de travailler uniquement sur le contrôle instantané du manipulateur, nous proposons des architectures qui prennent en compte automatiquement les tâches de pré-saisie et de post-saisie permettant à l'opérateur de se concentrer uniquement sur la tâche à accomplir. La thèse propose également une architecture de contrôle partagée pour contrôler un humanoïde à deux bras où l'utilisateur est informé de la stabilité de l'humanoïde grâce à un retour haptique. En plus, un nouvel algorithme d'équilibrage permettant un contrôle optimal de l'humanoïde lors de l'interaction avec l'environnement est également proposé.
|
|
Informatique
/ 12-12-2016
Acosta Padilla Francisco Javier
Voir le résumé
Voir le résumé
The Internet of Things (IoT) is covering little by little every aspect on our lives. As these systems become more pervasive, the need of managing this complex infrastructure comes with several challenges. Indeed, plenty of small interconnected devices are now providing more than a service in several aspects of our everyday life, which need to be adapted to new contexts without the interruption of such services. However, this new computing system differs from classical Internet systems mainly on the type, physical size and access of the nodes. Thus, typical methods to manage the distributed software layer on large distributed systems as usual cannot be employed on this context. Indeed, this is due to the very different capacities on computing power and network connectivity, which are very constrained for IoT devices. Moreover, the complexity which was before managed by experts on several fields, such as embedded systems and Wireless Sensor Networks (WSN), is now increased by the larger quantity and heterogeneity of the node’s software and hardware. Therefore, we need efficient methods to manage the software layer of these systems, taking into account the very limited resources. This underlying hardware infrastructure raises new challenges in the way we administrate the software layer of these systems. These challenges can be divided into: intra-node, on which we face the limited memory and CPU of IoT nodes, in order to manage the software layer and ; inter-node, on which a new way to distribute the updates is needed, due to the different network topology and cost in energy for battery powered devices. Indeed, the limited computing power and battery life of each node combined with the very distributed nature of these systems, greatly adds complexity to the distributed software layer management. Software reconfiguration of nodes in the Internet of Things is a major concern for various application fields. In particular, distributing the code of updated or new software features to their final node destination in order to adapt it to new requirements, has a huge impact on energy consumption. Most current algorithms for disseminating code over the air (OTA) are meant to disseminate a complete firmware through small chunks and are often implemented at the network layer, thus ignoring all guiding information from the application layer. First contribution: A models@runtime engine able to represent an IoT running application on resource constrained nodes. The transformation of the Kevoree meta-model into C code to meet the specific memory constraints of an IoT device was performed, as well as the proposition of modelling tools to manipulate a model@runtime. Second contribution: Component decoupling of an IoT system as well as an efficient component distribution algorithm. Components decoupling of an application in the context of the IoT facilitates its representation on the model@runtime, while it provides a way to easily change its behaviour by adding/removing components and changing their parameters. In addition, a mechanism to distribute such components using a new algorithm, called Calpulli is proposed.
|
|
Informatique
/ 20-01-2020
Ahmed Arif
Voir le résumé
Voir le résumé
Les architectures Fog computing sont composées d'un grand nombre de machines dispersées dans une zone géographique telle qu'une ville ou une région. Dans ce contexte il est important de permettre un démarrage rapide des applications déployées sous forme de containers Docker. Cette thèse étudie les raisons de la lenteur de déploiement, et identifie trois opportunités susceptibles de réduire le temps de déploiement des conteneurs: (1) améliorer le taux de réussite du cache Docker; (2) accélérer l'opération d'installation d'une image; et (3) accélérer le processus de démarrage après la création d'un conteneur.
|
|
Traitement du signal et télécommunications
/ 28-09-2017
Aït-Aoudia Fayçal
Voir le résumé
Voir le résumé
Les Réseaux de Capteurs Sans Fils (RCSFs) sont composés d'une multitude de nœuds, chacun étant capable de réaliser des mesures (température, pression, etc) et de communiquer par radio fréquence. Ces réseaux forment une pierre angulaire de l'Internet des Objets, en étant au cœur de nombreuses applications, par exemple de domotique ou d'agriculture de précision. La limite d'utilisation des RCSFs provient souvent de leurs durées de vie restreintes, les rendant peu intéressants pour des applications nécessitants de longues périodes de fonctionnement en autonomie. En effet, les RCSFs traditionnels sont alimentés par des piles individuelles équipant chaque nœud, et les nœuds sont ainsi condamnés à une durée de vie finie et courte par rapport aux besoins de certaines applications. De plus, changer les piles n'est pas toujours réalisable si le réseau est dense, ou si les nœuds sont déployés dans des environnements les rendant difficile d'accès. Une solution plus prometteuse est d'équiper chaque nœud d'un ou de plusieurs récupérateur(s) d'énergie individuel(s), et ainsi de le rendre capable de s'alimenter exclusivement à partir de l'énergie récoltée dans son environnent. Plusieurs sources d'énergie sont possibles, telles que le vent ou le solaire. Étant donné que les sources d'énergie sont typiquement dynamiques et non contrôlées, ne pas tomber en panne d'alimentation et nécessaire pour garantir un fonctionnement fiable. Comme l'augmentation de la qualité de service engendre souvent une augmentation de la puissance consommée, une solution simple est de configurer la qualité de service au déploiement à une valeur constante suffisamment faible pour éviter la panne d'alimentation. Cependant, cette solution ne permet pas d'exploiter pleinement l'énergie récoltée, et mène ainsi à un gaspillage d'énergie important ainsi qu'à de faibles qualités de service au vu de l'énergie récoltée. Une solution plus efficace est d'adapter dynamiquement la puissance consommée, et donc la qualité de service. Cette adaptation est faite par un composant logiciel appelé gestionnaire d'énergie. Dans cette thèse, deux nouvelles approches pour l'adaptation en ligne sont proposées, l'une s'appuyant sur la théorie du contrôle floue, et l'autre sur l'apprentissage par renforcement. De plus, comme la communication est souvent la tâche la plus énergivore dans les RCSFs, les wake-up receivers sont utilisées dans cette thèse pour réduire le coût des communications. Un modèle analytique générique a été proposé pour étudier différents protocoles de contrôle d'accès au support (Medium Access Control -- MAC), et combiné à des résultats expérimentaux pour évaluer les wake-up receivers. Aussi, un nouveau protocole MAC permettant la sélection opportuniste de relais a été proposé. Enfin, la combinaison des wake-up receivers et de la récolte d'énergie a été étudiée expérimentalement avec un cas pratique.
|
|
Informatique
/ 16-12-2013
Alaggan Mohammad
Voir le résumé
Voir le résumé
Dans cette thèse nous considérons une plate-forme de filtrage collaboratif distribué dans laquelle chaque pair héberge ses informations personnelles, comme les URL qu'il a aimé, les pages d'information qui ont attiré son intérêt ou les vidéos qu'il a regardé, sur sa propre machine. Ensuite, sans reposer sur un tiers fiable, le pair s'engage dans un protocole distribué combinant ses données personnelles avec celles d'autres pairs afin d'exécuter un filtrage collaboratif. L'objectif principal est d'être capable de recevoir des recommandations personnalisées ou d'autres services comme un moteur de recherche distribué et personnalisé. Les protocoles de filtrage collaboratif basés sur les utilisateurs, qui demandent de calculer des similarités entre les utilisateurs, ont été appliqués aux systèmes distribués. Comme le calcul de similarité entre les utilisateurs nécessite d'utiliser leurs profils privés personnels, cela lève de sérieuses inquiétudes quant à la vie privée. Dans cette thèse nous adressons le problème du calcul de similarités entre les pairs sur une plate forme collaborative. Notre travail fournit une primitive préservant la vie privée pour le calcul de similarité qui peut rendre les protocoles collaboratifs respectueux de la vie privée. Nous adressons le challenge unique qui est d'appliquer des techniques de préservation de la vie privée pour le calcul de similarité aux systèmes dynamiques à large échelle. En particulier, nous introduisons un protocole cryptographique bipartite qui assure la differential privacy, une notion forte de préservation de la vie privée. De plus, nous résolvons le problème du budget de vie privée qui empêcherait les pairs de calculer leur similarité plus d'un nombre fixe de fois en introduisant la notion de canaux anonymes bidirectionnels. Nous développons aussi une variante hétérogène de la differential privacy qui peut apporter différent niveaux de confidentialité pour différent utilisateurs, et même différent niveaux de confidentialité pour différents items du profile d'un même utilisateur, prenant ainsi en compte différentes attentes en terme de préservation de la vie privée. De plus, nous proposons un protocole non interactif qui est très efficace pour publier une représentation compacte et préservant la vie privée des profiles des utilisateurs qui peut être utilisée pour estimer la similarité. Enfin, nous étudions le problème de choisir un paramètre de vie privée à la fois théoriquement et empiriquement en créant plusieurs attaques par inférence qui démontrent pour quelles valeurs du paramètre de vie privée le niveau de vie privée fournis est acceptable.
|
|
Traitement du signal et télécommunications
/ 12-01-2016
Alain Martin
Voir le résumé
Voir le résumé
L'efficacité des services de compression vidéo est de nos jours un enjeu essentiel, et est appelé à le devenir d'autant plus dans le futur, comme l'indique la croissance constante du trafic vidéo et la production de nouveaux formats tels que la vidéo à haute résolution, à gamme de couleur ou dynamique étendues, ou encore à fréquence d'images augmentée. Le standard MPEG HEVC est aujourd'hui un des schémas de compression les plus efficaces, toutefois, il devient nécessaire de proposer de nouvelles méthodes originales pour faire face aux nouveaux besoins de compression. En effet, les principes de bases des codecs modernes ont été conçu il y a plus de 30 ans : la réduction des redondances spatiales et temporelles du signal en utilisant des outils de prédiction, l'utilisation d'une transformée afin de diminuer d'avantage les corrélations du signal, une quantification afin de réduire l'information non perceptible, et enfin un codage entropique pour prendre en compte les redondances statistiques du signal. Dans cette thèse, nous explorons de nouvelles méthodes ayant pour but d'exploiter d'avantage les redondances du signal vidéo, notamment à travers des techniques multi-patchs. Dans un premier temps, nous présentons des méthodes multi-patchs basées LLE pour améliorer la prédiction Inter, qui sont ensuite combinées pour la prédiction Intra et Inter. Nous montrons leur efficacité comparé à H.264. La seconde contribution de cette thèse est un schéma d'amélioration en dehors de la boucle de codage, basé sur des méthodes de débruitage avec épitome. Des épitomes de bonne qualité sont transmis au décodeur en plus de la vidéo encodée, et nous pouvons alors utiliser coté décodeur des méthodes de débruitage multi-patchs qui s'appuient sur les patchs de bonne qualité contenu dans les épitomes, afin d'améliorer la qualité de la vidéo décodée. Nous montrons que le schéma est efficace en comparaison de SHVC. Enfin, nous proposons un autre schéma d'amélioration en dehors de la boucle de codage, qui s'appuie sur un partitionnement des patchs symétrique à l'encodeur et au décodeur. Coté encodeur, on peut alors apprendre des projections linéaires pour chaque partition entre les patchs codés/décodés et les patchs sources. Les projections linéaires sont alors envoyés au décodeur et appliquées aux patchs décodés afin d'en améliorer la qualité. Le schéma proposé est efficace comparé à HEVC, et prometteur pour des schémas scalables comme SHVC.
|
|
Informatique
/ 21-11-2018
Alawe Imad
Voir le résumé
Voir le résumé
Afin de répondre aux besoins de la 5G, nous évaluons plusieurs visions du cœur de réseau. Nous comparons les performances des visions en mesurant le temps nécessaire pour établir le service pour l’utilisateur. De plus, nous proposons dans cette thèse un algorithme basé sur la théorie du contrôle permettant d’équilibrer la charge entre les instances AMF, et d’augmenter ou de diminuer le nombre d’instances AMF en fonction de la charge du réseau. En outre, nous proposons un nouveau mécanisme pour adapter les ressources du réseau cœur 5G en anticipant les évolutions, de la charge de trafic, grâce à des prédictions via des approches de machine learning. Enfin, nous proposons une solution pour généraliser les réseaux de neurones tout en accélérant le processus.
|
|