|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 18-06-2024
Jeudy Corentin
Voir le résumé
Voir le résumé
La transition vers la cryptographie post-quantique est une tâche considérable ayant suscité un nombre important de travaux ces dernières années. En parallèle, la cryptographie pour la protection de la vie privée, visant à pallier aux limitations inhérentes des mécanismes cryptographiques basiques dans ce domaine, a connu un véritable essor. Malgré le succès de chacune de ces branches prises individuellement, combiner les deux aspects de manière efficace s'avère extrêmement difficile.
Le but de cette thèse de doctorat consiste alors à proposer de nouvelles constructions visant à garantir une protection efficace et post-quantique de la vie privée, et plus généralement des mécanismes d'authentification avancés. Dans ce but, nous nous consacrons tout d'abord à l'étude de l'une des hypothèses mathématiques fondamentales utilisées en cryptographie sur les réseaux Euclidiens: Module Learning With Errors. Nous prouvons que le problème ne devient pas significativement plus facile même en choisissant des distributions de secret et d'erreur plus courtes. Ensuite, nous proposons des optimisations des échantillonneurs d'antécédents utilisés par de nombreuses signatures avancées. Loin d'être limitées à ce cas d'usage, nous montrons que ces optimisations mènent à la conception de signatures standards efficaces. Enfin, à partir de ces contributions, nous concevons des algorithmes de signatures avec protocoles efficaces, un outil polyvalent utile à la construction d'applications avancées. Nous en montrons les capacités en proposant le premier mécanisme d'accréditation anonyme post-quantique, que nous implémentons afin de mettre en exergue son efficacité aussi bien théorique que pratique.
|
|
Informatique
/ 13-06-2024
Hoarau Arthur
Voir le résumé
Voir le résumé
Ce document expose les recherches effectuées dans le cadre d'une thèse sur l'apprentissage actif de données incertaines et imprécises, soutenue grâce au financement de la Région Bretagne et du département Côtes-d'Armor. Deux principaux axes de recherche ont été explorés : les fonctions de croyance pour modéliser l'incertitude dans les données, et l'apprentissage actif pour travailler avec un nombre limité d'observations labellisées. La thèse s'est penchée sur la qualité et la quantité des labels en apprentissage automatique, visant à améliorer la modélisation des labels (qualité) tout en réduisant les coûts de labellisation (quantité). Des jeux de données à labels riches ont été proposés et mis à la disposition de la communauté scientifique. De nouveaux modèles ont été développés, des arbres de décision et des forêts aléatoires crédibilistes, tous capables de produire des prédictions incertaines et imprécises. Deux méthodes d'échantillonnage, fondées sur l'incertitude crédibiliste, ont été proposées et ont montré une augmentation des performances en apprentissage actif sur des jeux de données classiques. Enfin, des perspectives de recherche future ont été envisagées, notamment l'amélioration des méthodes d'échantillonnage par incertitude crédibiliste. Les travaux en cours comprennent la comparaison de la méthode proposée avec d'autres modèles de décomposition d'incertitudes, en se basant sur des recherches récentes liées à la thèse.
|
|
Informatique
/ 22-04-2024
Tit Karim
Voir le résumé
Voir le résumé
Cette thèse étudie la fiabilité des réseaux de neurones profonds en utilisant des algorithmes de simulation d’événements rares dans le cadre de l’ingénierie de la fiabilité statistique. L’objectif est d’évaluer et d’améliorer la robustesse de ces réseaux dans des situations peu communes mais cruciales. La recherche se concentre sur le développement de nouvelles méthodes statistiques spécifiquement pour les réseaux de neurones profonds. Ces méthodes sont conçues pour mieux comprendre comment ces réseaux se comportent face à des données inhabituelles ou corrompues. Une réalisation clé est la création d’un nouvel algorithme qui améliore l’applicabilité des techniques d’échantillonnage d’importance aux classificateurs différentiables, une caractéristique commune dans les modèles modernes d’apprentissage profond. L’étude met en évidence les difficultés d’application des méthodes traditionnelles de fiabilité statistique aux données complexes et de grande dimension typiques en apprentissage profond. Malgré ces défis, les résultats offrent des outils et des approches qui peuvent être appliqués à divers modèles d’apprentissage profond.
|
|
Automatique, productique et robotique
/ 18-04-2024
Carli Nicola de
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous attaquons aux défis de la localisation des systèmes multi-robots, en nous concentrant sur la localisation coopérative dans des formations non infiniment rigides avec des contraintes de détection. Nos contributions introduisent un cadre dans lequel les objectifs éventuellement conflictuels du maintien de la connectivité, de l'exécution des tâches et de l'acquisition d'informations sont "médiés" à l'aide d'un programme quadratique et des fonctions de barrière de contrôle et du formalisme de la fonction de Lyapunov de contrôle. Une autre contribution de cette thèse concerne la localisation active distribuée de cibles mobiles multiples par un groupe de robots volants utilisant des mesures basées sur des caméras, tout en accommodant d'autres tâches si la redondance du système le permet. Dans ce cas également, la formulation du problème utilise un programme quadratique et des fonctions de barrière de contrôle. En nous appuyant sur la fonction de barrière de contrôle et le cadre du programme quadratique, nous identifions et abordons les limites de l'état actuel de la technique, en particulier en ce qui concerne les fonctions de barrière de contrôle distribuées. Nos modifications aboutissent à un contrôleur qui converge vers la solution optimale centralisée. Enfin, nous présentons une méthodologie d'observation comme une nouvelle contribution, facilitant la localisation coopérative d'un système multi-robots dans un cadre commun en utilisant des mesures relatives au cadre du corps.
|
|
Informatique
/ 16-04-2024
Yin Tairan
Voir le résumé
Voir le résumé
Les données sur les mouvements de foule sont essentielles pour comprendre et simuler des comportements de foule. Ces données sont toutefois rares en raison des multiples difficultés liées à leur collecte. La réalité virtuelle (RV) a été utilisée pour étudier le comportement individuel dans les foules, généralement en immergeant les utilisateurs dans des foules virtuelles et en capturant leur comportement. Dans cette thèse, nous proposons et évaluons une nouvelle approche établie sur la RV, qui lève les limites des expériences réelles pour l'acquisition de données sur le mouvement des foules. Nous appelons cette approche le paradigme « One-Man-Crowd ». Nous proposons tout d'abord de capturer les mouvements de la foule avec un seul utilisateur. En enregistrant les trajectoires passées et les mouvements du corps de l'utilisateur, et en les affichant sur des personnages virtuels, les utilisateurs construisent progressivement le comportement global de la foule. Nous proposons ensuite un nouveau concept de foule contextuelle qui s'appuie sur la simulation de la foule pour atténuer les biais comportementaux des utilisateurs lors de la procédure de capture. Nous mettons en œuvre deux stratégies différentes, à savoir un processus Replace-Record-Replay (3R) et un processus Replace-Record-Replay-Responsive (4R). Nous évaluons et validons l'approche proposée en reproduisant et en comparant au total cinq expériences de foules réelles. Nos résultats suggèrent que le paradigme One-Man-Crowd offre une approche prometteuse pour l'acquisition de données réalistes sur les mouvements de foule dans des environnements virtuels.
|
|
Informatique
/ 10-04-2024
Tucciarone Francesco
Voir le résumé
Voir le résumé
Le climat dépend fortement de l’état global de l’océan. La simulation numérique reste le seul moyen de prévoir le système océan-atmosphère et d’évaluer ses états futurs afin d’établir des prévisions fiables des évolutions météorologiques et climatologiques. Les simulations à grande échelle constituent le principaux outils d’étude de l’océan et de l’atmosphère, dans mesure où les simulations à haute résolution restent confinées à de petits domaines géographiques ou à de courtes périodes d’intégration. L’interdépendance complexe des dynamiques à méso-échelle et sous-méso-échelle est cependant perdue dans les simulations qui ne résolvent pas les échelles inférieures au rayon de déformation de Rossby; celles-ci doivent donc être paramétrées. La plupart des défis associés à la dynamique des fluides (dans toutes ses connotations) découlent de la représentation de ces effets à l’aide d’un schéma de fermeture efficace. Une nouvelle famille d’approches consiste à incorporer des perturbations et des composantes de bruit dans la dynamique. L’objectif est d’enrichir la variabilité et de paramétrer les processus sous-maille, la turbulence, l’incertitude des valeurs limites et de tenir compte des erreurs numériques et de discrétisation, tout en respectant les principes physiques de la dynamique des fluides.
|
|
Informatique
/ 29-02-2024
Krayem Ibrahim
Voir le résumé
Voir le résumé
Les progrès récents en matière d’intégration technologique ont permis d’étudier de nouvelles solutions pour les interconnexions sur puce, telles que les réseaux sur puce sans fil (WiNoCs). Ces opportunités offrent alors de très nombreuses configurations pour la mise en place d’un NoC performant, ce qui conduit à un vaste espace de conception qu’il est impossible d’explorer de façon exhaustive par des techniques des simulations standards. Pour répondre à ce challenge, Nous proposons un modèle analytique basé sur la théorie des files d’attente permettant évaluer la latence des interconnexions d’une architecture manycore. Nous considérons une interconnexion hybride basée sur un NoC électrique et un NoC sans fil pour les communications intra- et inter-clusters. Les résultats démontrent que le modèle proposé réduit de manière significative le temps d’exécution de la simulation jusqu’à 500× tout en maintenant une estimation des performance précise à 5 % par rapport au simulateur Noxim travaillant au niveau du cycle. De plus, nous proposons une méthode pour accélérer l’analyse des performances du NoC en utilisant le fenêtrage des traces d’application. Cette technique de fractionnement et de fusion des fenêtres améliore la précision des estimations de performance tout en réduisant la complexité des calculs. Les résultats expérimentaux confirment l’efficacité de cette méthode avec différents types de trafic, réduisant de manière significative les erreurs et améliorant le temps d’exécution.
|
|
Informatique
/ 19-02-2024
Ferry Corentin
Voir le résumé
Voir le résumé
À mesure que les processeurs gagnent en puissance de calcul, leurs demandes en accès mémoire s'accroissent de différentes manières : certains calculs exigent une latence faible pour des accès aléatoires, d'autres un débit important et des accès réguliers. Pour répondre à cette demande, les architectures et technologies mémoire se diversifient. Il est alors nécessaire que les programmes et les accélérateurs qui les exécutent s'adaptent pour effectuer des accès de faible latence et de haut débit; notamment, sont à adapter la suite des accès en mémoire et la disposition des données. Si ces tâches sont réalisables manuellement, leur automatisation épargne au développeur d'avoir à les rechercher. Dans cette thèse, on propose plusieurs méthodes automatisées de disposition des données pour des accélérateurs FPGA. Pour des mémoires à haut débit et haute latence d'accès, on cherche à maximiser l'utilisation de la bande passante; pour des mémoires à plus faible débit, on minimise la quantité d'accès non valorisés en préservant la contiguité. On introduit à cet effet des analyses mathématiques, des allocations de mémoires spécifiques ainsi que des transformations automatisées de programme pour obtenir des accélérateurs FPGA optimisés.
|
|
Informatique
/ 08-02-2024
Hengeveld Simon
Voir le résumé
Voir le résumé
Dans cette thèse, nous étudions différents aspects du Distance Geometry Problem (DGP). Le DGP est un problème inverse dans lequel un ensemble de distances par paire est inversé pour trouver une structure dans un espace euclidien, étant donné une certaine dimension K. Nous nous concentrons principalement sur l’application de la biologie structurelle, où nous pouvons exploiter les distances inter-atomiques pour calculer les structures des protéines. Pour cette application, nous sommes en mesure de discrétiser l’espace de recherche à l’aide de méthodes de branchement et de découpage. Nous étendons la méthode pour utiliser non seulement les informations de distance, mais aussi les angles de torsion. Nous présentons des expériences utilisant des données NMR réelles avec des résultats prometteurs. Ensuite, nous nous penchons sur la géométrie dynamique des distances en nous concentrant sur les mouvements humains, jetant ainsi les bases de futurs projets qui pourraient se concentrer sur la modélisation de la dynamique des protéines. En outre, nous discutons des cartes adaptatives, qui sont un autre exemple d’application de la DG dans laquelle nous pouvons exploiter plus que les informations de distance. Enfin, nous terminons par un bref ré sumé et une description des travaux en cours.
|
|
Informatique
/ 05-02-2024
Le Dilavrec Quentin
Voir le résumé
Voir le résumé
Les systèmes informatiques jouent un rôle central dans les sociétés contemporaines, se développant et s'adaptant continuellement pour répondre aux nouvelles exigences et pratiques. Au fil des ans, grâce à des efforts de développement importants et à de nombreuses mises à jour du code, ces systèmes peuvent accumuler des millions de lignes de code. En outre, ils présentent des caractéristiques de complexité, de configurabilité et de multilinguisme, et s'appuient sur des pipelines de construction vastes et complexes pour cibler de multiples plateformes et matériels. Ce qui nécessite des analyses de code approfondies pour maintenir le code, contrôler la qualité et détecter les erreurs. L'analyse automatisée du code est un processus coûteux en ressources, principalement conçu pour examiner une seule version d'un logiciel. Actuellement, les méthodes d'analyse de code existantes peinent à évaluer efficacement plusieurs versions de logiciels au cours d'une seule analyse, ce qui prend beaucoup de temps. Ce type d'analyse de code, qui examine le code d'un logiciel à plusieurs moments de son existence, est appelé "analyse de code temporel". Les analyses temporelles de code ouvrent de nouvelles perspectives pour l'amélioration de la qualité et de la fiabilité des logiciels. Par exemple, de telles analyses permettraient d'étudier pleinement la façon dont le code et ses tests évoluent conjointement dans l'historique du code. Pour surmonter les différents défis qui empêchent de telles analyses de fonctionner à grande échelle, cette thèse apporte les contributions suivantes. Cette thèse démontre d'abord la faisabilité de l'analyse des changements de code source pour identifier les relations de causalité entre les changements (c'est-à-dire les co-évolutions). La deuxième contribution porte sur l'efficacité du calcul des modifications fines et de leurs impacts à partir de l'historique des codes. Pour ce faire, il a fallu revoir la manière dont les historiques des codes sources sont représentés et traités, en tirant parti de la nature structurée du code et de sa stabilité dans le temps. Cela a conduit à une approche, appelée HyperAST, qui calcule de manière incrémentale les dépendances référentielles. La troisième contribution est une nouvelle technique de différenciation structuré de code pour différencier les commits. Cette dernière contribution, appelée HyperDiff, complète HyperAST pour comparer les commits à grande échelle.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|