| |
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
|
Tri :
Date
Titre
Auteur
|
|
|
Informatique
/ 29-04-2026
Hammoud Hassan
Voir le résumé
Voir le résumé
Les systèmes IoT destinés à la surveillance environnementale reposent souvent sur une transmission continue des données, ce qui est coûteux, peu flexible et énergivore, ce qui pose un défi dans les environnements aux ressources limitées. Cette thèse présente des expériences menées avec des nœuds IoT extrêmes équipés de plusieurs capteurs, démontrant d'abord la surveillance et le traitement des données sur un seul nœud, puis s'étendant à plusieurs nœuds, pour une collecte adaptative et distribuée. Les résultats montrent que la frugalité conduit à une collecte de données plus efficace et que le comportement au niveau des nœuds influence fortement la consommation d'énergie. Afin de mieux comprendre l'utilisation de l'énergie, des mesures empiriques ont été effectuées, qui révèlent que les opérations de mémoire sont un facteur important, souvent négligé, et que des volumes plus importants et des accès fréquents augmentent encore la consommation. Sur la base de ces observations, un modèle énergétique étendu intégrant la mémoire est présenté, et un mécanisme logiciel est introduit pour réduire le volume de données, ce qui se traduit par des économies d'énergie confirmées par simulation. Dans une perspective d'avenir, cette thèse propose de combiner la détection locale et le partage de données, tout en redistribuant dynamiquement les responsabilités entre les nœuds, pour une surveillance plus frugale, autonome et évolutive.
|
|
|
Informatique
/ 31-03-2026
Kara Burak
Voir le résumé
Voir le résumé
Cette thèse étudie comment les contraintes de durabilité transforment l’économie, les stratégies concurrentielles et les mécanismes opérationnels de la livraison vidéo multi-CDN. Elle développe des modèles fondés sur la théorie des jeux pour caractériser le comportement stratégique des CDNs, des fournisseurs de services et des régulateurs soumis à des politiques environnementales telles que la tarification carbone. Ces modèles quantifient l’impact de ces instruments sur les prix, les choix énergétiques et les investissements dans des infrastructures plus vertes, identifiant les conditions où des équilibres durables apparaissent ou nécessitent une intervention ciblée. Au-delà de cette analyse, la thèse propose des extensions protocolaires visant à améliorer l’adaptabilité, la résilience et la sensibilité énergétique des architectures multi-CDN. Elle introduit des primitives de négociation inter-CDN, une logique de bascule tenant compte du playhead et du buffer, une réaffectation dynamique des utilisateurs vers les serveurs de bordure, ainsi qu’une sélection sémantique des débits, intégrant en temps réel des attributs liés à la durabilité. Dans l’ensemble, ces contributions offrent une perspective rigoureuse sur les conditions d’une distribution vidéo durable et réellement opérationnelle à grande échelle.
|
|
|
Informatique
/ 12-01-2026
Aubard Lucas
Voir le résumé
Voir le résumé
La fragmentation IP et la segmentation TCP permettent de diviser des paquets réseaux trop volumineux en morceaux plus petits. Ce découpage peut donner lieu à du recouvrement, c'est-à-dire que plusieurs morceaux ainsi créés peuvent se chevaucher, de manière complète ou partielle, avec des données non nécessairement identiques. Les politiques de réassemblage, c'est-à-dire le morceau de données préféré en fonction du type de recouvrement, diffèrent selon les implémentations IPv4, IPv6 et TCP. Dès lors, un système de détection d'intrusion réseau (NIDS) qui ne ré-assemble pas les recouvrements de la même manière que l'hôte surveillé est aveugle au flux réellement traité par cet hôte, laissant la place à son contournement. L'objectif principal de cette thèse est d'évaluer dans quelle mesure les NIDS sont vulnérables à des attaques basées sur les recouvrements IPv4, IPv6 et TCP. Nous proposons tout d'abord une nouvelle méthode pour modéliser les recouvrements de fragments et de segments afin de garantir la complétude des tests. Nous instancions ce modèle dans notre outil PYROLYSE et testons les politiques de réassemblage de différents types de piles IP et TCP. Nous avons découvert que les politiques sont beaucoup plus diverses et complexes que décrites dans l'état de l'art et que les NIDS Suricata, Snort et Zeek présentent des incohérences de réassemblage avec ces piles, ce qui les rend vulnérables aux attaques par recouvrement. Nous avons également trouvé des erreurs de réassemblage dans cinq piles, dont une CVE.
|
|
|
Informatique
/ 12-01-2026
Andrianatrehina Herinomena Henintsoa
Voir le résumé
Voir le résumé
Dans la quête permanente d’une puissance de calcul plus rapide, les processeurs modernes utilisent des techniques permettant d’exploiter au maximum leurs ressources. Parmi ces techniques, l’exécution spéculative tente de prédire le résultat des instructions dont l’issue n’est pas encore connue, mais dont dépend la suite du programme. Cela permet au processeur d’éviter d’être inactif. Cependant, elle a ouvert une faille dans la micro-architecture : les mauvaises spéculations peuvent être exploitées pour accéder à des données sensibles, donnant naissance à la vulnérabilité Spectre. L’état de l’art propose diverses protections matérielles et logicielles. Les solutions matérielles sont généralement plus complètes, mais leur impact réel sur les performances reste débattu en raison des différences d’architecture et de méthodologie d’évaluation. Cette thèse vise à proposer une protection contre la vulnérabilité Spectre sur un cœur RISC-V . En commençant par évaluer les protections existantes, notamment la spéculation sélective, une approche largement déclinée en solutions logicielles et matérielles. Nous partons du principe que la micro-architecture est incapable de distinguer les données secrètes des données publiques dans un programme. Les résultats montrent que parvenir à une protection parfaite grâce à la spéculation sélective a un coût prohibitif en termes de performances. Face à ces limites, nous proposons une nouvelle solution qui fournit davantage d’informations à la micro-architecture sur les données sensibles.
|
|
|
Informatique
/ 12-12-2025
Amara Hamza
Voir le résumé
Voir le résumé
Les multiprocesseurs sur puce reposent sur les réseaux sur puce (NoCs) pour assurer des communications efficaces entre cœurs. L’augmentation du trafic accroît toutefois la latence et la consommation de bande passante, motivant l’adoption de techniques comme la compression delta et les communications approximatives. Bien qu’elles améliorent performances et efficacité énergétique, ces techniques exposent les NoCs à de nouvelles vulnérabilités face aux attaques de type Trojan matériel, pouvant dégrader la qualité des applications et les performances. Nous analysons ces menaces et proposons des solutions adaptées pour y remédier. Pour la compression delta, nous proposons SED2C, qui intègre statiquement des codes de détection et de correction d'erreurs pour protéger des bases de taille fixe, et DyED2C, qui ajuste dynamiquement la protection pour des bases de taille variable. Les résultats expérimentaux montrent une amélioration significative de la qualité des applications avec un faible surcoût matériel. Pour les communications approximatives, nous proposons DyEKF, basé sur un filtre de Kalman étendu (EKF), permettant un compromis entre fiabilité, performances et qualité des applications. Les évaluations montrent une réduction significative du taux de retransmission par rapport à l’état de l’art, tout en maintenant une qualité équivalente et un coût matériel modéré.
|
|
|
Informatique
/ 10-12-2025
Boëzennec Robin
Voir le résumé
Voir le résumé
Cette thèse vise à réduire l'utilisation de ressources dans les systèmes de calcul haute performance (HPC). Elle commence par explorer l'utilisation d'algorithmes d’apprentissage automatique pour améliorer l'ordonnancement de tâches, mais conclut que les ordonnanceurs actuels sont déjà proches de l'optimal, et que de récents progrès proclamés dans ce domaine étaient dus à de mauvaises métriques et des méthodologies d'évaluation défaillantes. Les éléments d'une bonne évaluation sont donc discutés, et des métriques pertinentes mises en avant. La deuxième contribution explore l’usage de systèmes de mémoire désagrégée pour limiter la consommation de mémoire. Deux algorithmes d’allocation avec garanties théoriques sont proposés et évalués, montrant une réduction significative de la consommation mémoire tout en n'engendrant qu'une faible augmentation du response time. Le dernier volet introduit des modèles de vieillissement du matériel au niveau des nœuds de calcul, couplé à une stratégie de changement de fréquence pour maximiser la quantité totale de calcul sur la durée de vie du système. L’approche se montre robuste face aux incertitudes sur le vieillissement réel du matériel. En conclusion, ces approches augmentent l’efficience économique mais induisent aussi une hausse des temps de réponse, freinant ainsi l’effet rebond.
|
|
|
Informatique
/ 10-12-2025
Hémadou Louis
Voir le résumé
Voir le résumé
Dans de nombreuses applications d’apprentissage machine, les données d’entraînement et de test diffèrent sensiblement, créant ce que l’on appelle un écart de domaine. Dans un contexte industriel, ce décalage apparaît typiquement lorsqu’un modèle est entraîné sur des données synthétiques puis déployé sur des données réelles. Un tel écart compromet la robustesse des modèles : leurs performances se dégradent dès qu’ils sont confrontés aux données de test. Cette thèse vise à concevoir de nouvelles méthodes pour limiter ces pertes de performance et renforcer la capacité de généralisation face à un changement de domaine. L’approche développée s’appuie sur l’exploitation des connaissances encodées par les grands modèles pré-entraînés, apparus peu avant le début de ces travaux, afin de tirer parti de leur richesse représentationnelle pour mieux gérer ces décalages. Nous proposons dans un premier temps une évaluation de l’efficacité de ces modèles sur des données issues de contextes académiques et industriels. Nous introduisons ensuite une méthode d’adaptation de domaine fondée sur l’utilisation d’une indication textuelle décrivant le domaine cible. Ces deux contributions portent sur la classification d’images, tandis qu’une dernière partie étend les travaux à la tâche de détection d’objets.
|
|
|
Informatique
/ 10-12-2025
Philippe Pierrick
Voir le résumé
Voir le résumé
Les systèmes logiciels sont omniprésents dans les sociétés modernes. Qu'il s'agisse de smartphones ou de services publics essentiels, nombre d'entre eux traitent des données sensibles, rendant critique leur protection contre les fuites et les erreurs de gestion de ces données. Parmi les faiblesses récurrentes, comme l'illustrent la CWE-200 et ses descendants, la divulgation involontaire d'information est une menace persistante. Cette thèse explore comment l'analyse statique intégrée au sein d'un compilateur peut détecter automatiquement de telles faiblesses. Nous commençons par disséquer l'analyseur statique de GCC, en documentant son moteur d'exécution symbolique, son modèle mémoire, et son système de diagnostique, le mettant ainsi en évidence comme un bon candidat pour des analyses de sécurité. En nous appuyant sur cette base, nous proposons GnuZero, un outil basé sur GCC pour détecter des mises à zéro manquantes de données sensibles, identifiées par les CWE-226 et CWE-244, grâce à un ensemble d'attributs dédiés et d'une analyse de propagation de teinte basée sur la durée de vie des variables, validée sur des bancs d'essai et des logiciels du monde réel. Nous généralisons ensuite cette approche avec GnuSecret, un cadriciel unifiant le suivi de secrets pour capturer des faiblesses plus larges de divulgation d'informations, détectant avec succès des vulnérabilités connues et nouvelles. Ensemble, ces contributions démontrent la faisabilité et l'efficacité des analyses mises en œuvre dans un compilateur largement utilisé.
|
|
|
Informatique
/ 04-12-2025
Vincent Erwan
Voir le résumé
Voir le résumé
Améliorer l'efficacité des transports en commun est un enjeu crucial pour les organismes qui en assurent la gestion. Aujourd'hui, grâce à l'essor des données massives et des nouvelles méthodes d'apprentissage automatique, il est de plus en plus facile d'organiser la gestion des services de transport et de comprendre ainsi que de prédire différents critères de performance, comme la vitesse commerciale. La prédiction de la vitesse commerciale permettrait d'améliorer la fluidité du réseau, ses performances et la satisfaction de ses usagers et de ses gestionnaires. Cependant, les méthodes actuellement mises en œuvre sont imparfaites et ont du mal à prendre en compte la complexité des interactions entre les différents facteurs influençant la performance du réseau. D'où le besoin, voire la nécessité, pour les exploitants, de déterminer des approches plus avancées et performantes.
Le principal défi réside dans l'identification de ces facteurs déterminants. Par ailleurs, les relations spatio-temporelles entre ces facteurs et la vitesse commerciale rendent les estimations complexes. L'utilisation des réseaux de neurones en graphes (GNN) apparaît donc comme l'une des solutions prometteuses. Actuellement, leurs applications dans la littérature restent peu explorées pour cette tâche.
Dans cette thèse, une approche fondée sur les GNN est proposée pour prédire la vitesse commerciale des bus. L'un des principaux indicateurs de performance des réseaux de transport en commun. Des expérimentations sur des jeux de données issus d'un réseau de transport de bus montrent que cette approche surpasse les méthodes plus traditionnelles, en termes de précision et de robustesse. Ces résultats ouvrent la voie à une gestion plus efficace et explicative des systèmes complexes de transports urbains par bus.
|
|
|
Signal, image, vision
/ 04-12-2025
Bordin Tom
Voir le résumé
Voir le résumé
Dans cette thèse, nous présentons nos travaux sur la compression d’images sémantique. Notre objectif est de réduire drastiquement les débits de compression au-delà de ceux proposés par les approches classiques. Nous introduisons un nouveau cadre fondé sur des représentations sémantiques des images, déplaçant l’accent de la fidélité pixel vers la préservation du contenu de l’image. L’objectif devient alors de conserver la sémantique du contenu tout en reconstruisant des images réalistes. Nous abordons deux questions de recherche centrales : Comment construire une représentation sémantique compacte mais expressive d’une image ? et Comment concevoir un décodeur capable de reconstruire, à partir d’une telle représentation, des images réalistes et fidèles sémantiquement, même à des débits extrêmement faibles ? Au fil des chapitres de cette thèse, nous montrons que les modèles fondamentaux possèdent des espaces sémantiques riches, exploitables pour la compression. Nous adaptons ensuite le décodeur à ces représentations en tirant parti de la puissance des modèles de diffusion, proposant des techniques permettant de les guider efficacement sans nécessiter de réentraînement. Enfin, nous introduisons un schéma de compression à l’état de l’art qui atteint des taux extrêmement bas tout en préservant la fidélité sémantique, appuyé par une évaluation subjective.
|
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|