Recherche avancée
Toutes les thèses
Thèses de doctorat
Thèses d'exercice (médecine, santé, pharmacie)
Thèses de doctorat > Par thématique en fr
  • Nouveautés
  • Par thématique
  • Par laboratoire
  • Par date
  • Par auteur
Thèses de doctorat -> Recherche thématique
Thématique > Informatique
Niveau supérieur
  • 586 ressources ont été trouvées. Voici les résultats 1 à 10
  |< << Page précédente 1 2 3 4 5 6 Page suivante >> >| documents par page
Tri :   Date Titre Auteur

Network traffic classification for identifying multi-activity situations in home environments


Informatique / 03-11-2025
Boumhand Ahcene
Voir le résumé
Voir le résumé
La classification du trafic réseau est un domaine de recherche qui stimule le développement de diverses applications dans le contexte de gestion des réseaux. De nombreuses études dans ce domaine ont porté sur la classification du trafic réseau en différentes activités uniques. Cependant, la multiplication des services et des appareils connectés sur internet a donné lieu à l’émergence de nouveaux modes de consommation, comme le multitâche numérique (ou multi-activités), qui consiste à effectuer plusieurs activités simultanément. Reconnaître l’occurrence de ces situations de multi-activité peut permettre aux opérateurs de réseaux de mieux adapter leurs solutions de gestion de réseaux et aux fournisseurs de services de concevoir des solutions mieux adaptées aux exigences des utilisateurs. Dans cette thèse, nous proposons une nouvelle approche qui peut traiter un scénario comprenant à la fois des situations d’activité unique et de multi-activité. L’approche proposée analyse une trace de réseau sur une fenêtre temporelle et détermine ensuite à quel type de situation elle appartient. En outre, elle identifie le type d’activités réalisées et les applications utilisées. Les résultats obtenus sont équivalents, et dépassent souvent, ceux des techniques classiques de l’état de l’art qui ne traitent qu’une seule activité.

Parcimonie dans les réseaux de neurones : compromis entre le nombre d’opérations et leur complexité dans un contexte embarqué


Informatique / 02-10-2025
Rossigneux Baptiste
Voir le résumé
Voir le résumé
Cette thèse aborde le défi du déploiement de réseaux de neurones profonds sur des systèmes embarqués aux ressources contraintes. Nous exploitons la parcimonie comme un levier fondamental pour concevoir des modèles de vision par ordinateur à la fois efficaces et performants. Nos contributions s'articulent en trois axes. Premièrement, nous nous attaquons au goulot d'étranglement de la mémoire dans les réseaux de neurones convolutifs (CNN). Nous proposons une double couche de projection qui, insérée avec un rapide entraînement, réduit l'empreinte mémoire maximale du réseau, puis se combine aux couches existantes pour n'induire aucun surcoût calculatoire à l'inférence. Deuxièmement, nous présentons une méthode d'élagage de non-linéarités visant à réduire la profondeur effective des modèles. Nous introduisons un critère statistique rapide, basé sur la distribution des activations, qui identifie les non-linéarités redondantes. Cette approche permet de fusionner des couches linéaires successives tout en préservant la précision du modèle. Enfin, nous tentons de réduire la quantité de calculs demandée par les Modèles de Vision-Language (VLMs) par la voie de la réduction des tokens données en entrée. Dans un même temps nous tentons de réduire la sensibilité au bruit de ces modèles en débruitant les tokens gardés, avant de les donner au modèle de langage.

Sélection de cellule et allocation de ressources dans les réseaux avec backhaul sans fil


Informatique / 09-07-2025
Ghodhbane Chourouk
Voir le résumé
Voir le résumé
Pour faire face à la demande croissante de trafic des utilisateurs mobiles et améliorer la couverture, une densification des stations de base est nécessaire. La technologie Integrated Access and Backhaul (IAB) a été proposée pour faciliter cette densification en définissant des nœuds IAB qui agissent comme des stations de base mais sont connectés sans-fil au réseau fixe. Toutefois, l’IAB introduit des défis techniques complexes, tels que : i) le partage de la bande passante entre l’accès et le backhaul, et ii) la planification qui doit être conforme à la contrainte de semi-duplex. Dans cette thèse, nous nous concentrons sur les politiques de sélection de cellule et d’allocation de ressources pour les réseaux IAB. Pour la sélection de cellule, nous proposons une politique permettant à chaque utilisateur de s’associer à un nœud IAB qui optimise la consommation de ressources tout en respectant la capacité de chaque cellule, afin de maximiser la capacité du réseau et d’assurer un bon équilibrage de charge. Concernant l’allocation des ressources, deux politiques sont proposées. La première, gérée par la station de base principale, permet une répartition dynamique des ressources sur la bande passante partagée entre les différents nœuds IAB, avec une gestion optimisée des interférences. Une fois les ressources allouées à chaque cellule, une seconde politique entre en jeu pour permettre à chaque nœud IAB de distribuer ses ressources entre ses utilisateurs en fonction de leurs besoins en matière de Qualité de Service (QoS), principalement en termes de latence. Ces politiques visent à améliorer la capacité du réseau et à offrir un haut niveau de satisfaction aux utilisateurs, en tenant compte des conditions du réseau et des exigences des utilisateurs.

Accélération d'algorithmes bio-informatiques sur une architecture Processing-in-Memory


Informatique / 02-07-2025
Mognol Meven
Voir le résumé
Voir le résumé
La bio-informatique est un domaine où les besoins en calcul sont extrêmement importants. En particulier, en génomique, la dernière décennie a vu l’émergence de nouvelles technologies de séquençage de l’ADN, entraînant une explosion de la quantité de données à traiter. Les algorithmes de traitement de ces données ont évolué, mais se heurtent de plus en plus aux limites matérielles liées à l’accès mémoire sur des architectures traditionnelles telles que les CPU et les GPU. Bien que certains composants, tels que les FPGA, permettent de créer des circuits très spécialisés, ces derniers restent coûteux et nécessitent une grande expertise pour leur mise en œuvre. Parallèlement, le processing-in-memory (PiM), une technologie envisagée dès les années 1970, attire un intérêt croissant dans l’industrie. Dans ce manuscrit, nous analysons trois algorithmes liés à la génomique sur l’accélérateur PiM généraliste et programmable de la société UPMEM. Nous étudions d’abord le comportement des algorithmes sur une architecture CPU traditionnelle, implémentons leur équivalent sur le PiM UPMEM, et comparons les performances en termes de temps d’exécution et de consommation énergétique. Enfin, nous formulons des recommandations, fondées sur nos études, pour les futures architectures PiM généralistes.

Effects of synchronous clock glitch on the security of integrated circuits


Informatique / 23-06-2025
Marotta Amélie
Voir le résumé
Voir le résumé
Lors de la conception d'un objet électronique, la sécurité est à prendre en considération. En effet, les sources de vulnérabilité peuvent être multiples, ainsi que les moyens de les exploiter. En particulier, nous nous intéressons à l'injection de fautes. Ces attaques consistent à perturber certains signaux d'un circuit (comme l'alimentation) afin de modifier son comportement. Que ce soit pour développer des contremesures ou des attaques efficaces, il est nécessaire de comprendre l'impact global des fautes sur un circuit intégré. L'injection de fautes électromagnétiques impacte plusieurs signaux à la fois, et donc son étude peut se révéler complexe. Cette thèse vise à étudier un effet en particulier des fautes électromagnétiques, les perturbations synchrones de l'horloge. Ce type de perturbation a été utilisé avec succès pour contourner des mesures de sécurité. Pourtant, une analyse de bout en bout n'a jamais été explorée. Dans un premier temps, nous explorons leur effet sur les bascules et leur échantillonnage, ce qui nous permet de déduire un nouveau modèle de faute. Dans un second temps, notre intérêt se porte sur l'effet des perturbations sur la microarchitecture. Nos buts sont multiples : faire le lien entre les paramètres d'injection et les différents effets observés, identifier les parties vulnérables du processeur, faire le lien avec le modèle de faute bas niveau. Ces deux contributions permettent d'améliorer la compréhension des effets de l'injection de fautes, notamment électromagnétiques, à divers niveaux d'abstraction.

Développement d’un système de vélocimétrie laser dans le moyen infrarouge


Photonique / 19-06-2025
Lefrère Grégory
Voir le résumé
Voir le résumé
La propagation d’une onde de choc constitue un indicateur essentiel du comportement d’un matériau sous choc. Sa mesure nécessite à la fois la transparence du matériau et une résolution spatio-temporelle suffisante, typiquement de l’ordre du micromètre et de la nanoseconde selon les conditions de choc. À ce jour, aucun système ne combine ces deux caractéristiques. Les systèmes optiques actuels, opérant dans le visible ou le proche infrarouge, offrent la résolution requise, mais uniquement pour des mesures de surface, en raison de la faible transparence des matériaux à ces longueurs d’onde. À l’inverse, les radio-interféromètres pénètrent les matériaux mais leur résolution est limitée par la longueur d’onde (3,19 mm). Après un état de l’art sur les vélocimètres et la transparence des matériaux, nous proposons une architecture fonctionnant en continu dans le moyen infrarouge (MIR), entre 8 et 12 µm. Cette gamme de longueur d'onde offre un compromis entre résolution et pénétration. Le vélocimètre, basé sur un laser accordable, a été caractérisé dans plusieurs configurations. Des essais en laboratoire à basse et moyenne vitesse ont confirmé sa capacité à traverser les matériaux. Des expériences en conditions extrêmes ont ensuite permis de mesurer des vitesses élevées (>4000 m/s) sur des matériaux inertes puis énergétiques. Les résultats, comparés à des simulations par éléments finis, démontrent le potentiel du dispositif pour la mesure continue des vitesses de choc et de détonation.

Incremental, reproducible builds of software variants


Informatique / 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.

Optimisation énergétique du calcul proche mémoire par génération locale d'instructions


Informatique / 27-05-2025
La Fuente Léo de
Voir le résumé
Voir le résumé
Le calcul proche mémoire constitue une approche prometteuse pour atteindre un objectif de faible consommation énergétique dans les systèmes embarqués. Ce paradigme limite l’énergie dépensée lors des transferts de données entre le processeur et la mémoire. Toutefois, la gestion des instructions de calcul induit une part de consommation supplémentaire. Cette thèse propose une approche visant à réduire la consommation énergétique à l’aide d’un séquenceur capable de générer les instructions de calcul en mémoire. L’intégration de ce séquenceur dans l’unité de contrôle d’une architecture de calcul proche mémoire existante adaptée aux systèmes embarqués permet d’optimiser l’exécution des opérations tout en limitant les transferts de données, entraînant ainsi une réduction significative de la consommation énergétique. Un circuit, modélisé et simulé après synthèse, placement et routage, permet d’obtenir des estimations réalistes de la consommation. Ce circuit intègre un séquenceur dédié à la multiplication matricielle, réduisant le coût d’exécution de cette opération dans un contexte de calcul proche mémoire. De plus, des estimations ont été réalisées pour évaluer l’impact de cette approche sur d’autres opérations telles que la transformée de Fourier rapide (TFR) et la transformée en cosinus discrète (TCD).

Cryptanalysis of public-key cryptography


Informatique / 23-05-2025
Kirchner Paul
Voir le résumé
Voir le résumé
La cryptanalyse de schémas de cryptographie à clé publique repose sur un ensemble de techniques algorithmiques et algébriques en théorie des nombres. Dans une première partie de cette thèse, nous présentons des améliorations de l’algorithme LLL, dû à Lenstra, Lenstra et Lovasz pour réduire un réseau euclidien, c’est-à-dire réduire la norme et orthogonaliser le plus possible les vecteurs de la base. Nous montrons aussi comment utiliser cet algorithme pour réduire des réseaux modules en rang 2 dans un corps de nombres cyclotomique ayant des sous-corps. En effet, certains schémas comme NTRU ou Falcon, dont la sécurité repose sur ce problème difficile, ont été proposés en cryptographie post-quantique et pour du chiffrement homomorphe. Nous améliorons aussi les techniques d’algèbre linéaire creuse et proposons de meilleurs algorithmes lorsque la matrice est à diagonale dominante. Ces avancées nous permettent de réaliser de nouveaux records de calculs de corps de nombres : nombre de classes, générateurs du groupe des unités, générateur d’un idéal principal. Dans une seconde partie, nous étudions différents problèmes classiques en théorie des nombres : nous améliorons différents algorithmes pour tester la primalité d’un entier et en particulier, le test cyclotomique initialement proposé par Adleman et dernièrement développé par Mihailescu. Puis, nous étudions différents algorithmes dans un modèle dit de l’anneau en boîte noire, c’est-à-dire que nous étudions le nombre d’additions et de multiplications dans l’anneau, sans nous intéresser à la façon de représenter et de faire les calculs dans cet anneau. Ceci nous permet dans le dernier chapitre, d’instancier ces algorithmes en fonction de différents anneaux pour proposer des algorithmes efficaces en cryptanalyse. Ce faisant, nous sommes capables de distribuer plus facilement les calculs de tout l’algorithme, alors que les algorithmes dit de calcul d’indice utilisent une étape d’algèbre linéaire qu’il est difficile de paralléliser.

Sensing and reconstruction of plenoptic point clouds


Signal, image, vision / 21-05-2025
Freitas Davi Rabbouni de Carvalho
Voir le résumé
Voir le résumé
Cette thèse donne un aperçu de la fonction plénoptique et de la manière dont elle est liée aux contenus volumétriques, par le biais de représentations de scènes plénoptiques. Elle passe en revue les méthodes existantes qui introduisent cette capacité de manière explicite et implicite, sous la forme d’un nuage de points plénoptique (PPC) et de champs de radiance (RF), respectivement. Ces méthodes sont présentées du point de vue des défis qu’elles posent en termes de praticité pour les applications de diffusion en continu de contenu interactif, à savoir la taille et la vitesse. Dans un premier temps, nous avons intégré la capacité plénoptique pour le codeur MPEG basé sur la géométrie (G-PCC) en compressant les PPC à l’aide d’une combinaison des transformées linéaires sur le vecteur de couleur des différents points de vue de la caméra combinées aux codeurs d’attributs prédictifs du G-PCC. Nous abordons ensuite les inconvénients liés à la taille des implémentations de rendu en temps réel des méthodes basées sur le NeRF, en introduisant un pipeline de compression dans le modèle PlenOctrees. Ensuite, nous introduisons une méthode pour générer systématiquement des PPC et les comparer directement aux solutions RF avec des mesures conventionnelles basées sur le rendu. Enfin, nous tirons parti de la géométrie sous-jacente des modèles RF pour orienter leur élagage en vue d’une compression plus efficace.

rss |< << Page précédente 1 2 3 4 5 6 Page suivante >> >| documents par page
© 2016  |  MENTIONS LEGALES  |  PLUS D'INFORMATION