|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 21-12-2023
Ayats H. Ambre
Voir le résumé
Voir le résumé
Avec les progrès récents dans le domaine de l'intelligence artificielle, la question du contrôle humain est devenu centrale. Aujourd'hui, cela passe à la fois par des recherches en explicabilité et des systèmes centrés autour de l'interaction avec l'utilisateur·ice. De plus, avec l'expansion du web sémantique et des méthodes de traitement automatique du langage naturelle, la tâche de construction de graphes de connaissances à partir de textes est devenu un enjeu important. Cette thèse présente un système centré-utilisateur·ice pour la construction de graphes de connaissances à partir de textes. Cette thèse présente plusieurs contributions. Tout d'abord, nous introduisons un workflow centré-utilisateur·ice pour la tâche sus-citée, ayant la propriété d'automatiser progressivement les actions de l'utilisateur·ice tout en lui laissant un contrôle fin du résultat. Ensuite, nous présentons nos apports dans le domaine de l'analyse de concepts formels, utilisés afin de concevoir un module d'apprentissage fainéant et explicable pour la tâche de classification de relations. Enfin, nous présentons nos apports dans le domaine de l'extraction de relations, et comment ces apports s'inscrivent dans le workflow présenté précédemment.
|
|
Informatique
/ 20-12-2023
Delaunay Julien
Voir le résumé
Voir le résumé
Cette thèse se concentre sur la génération d'explications locales pour les modèles de machine learning déjà déployés, en recherchant les conditions optimales pour des explications pertinentes, prenant en compte à la fois les données et les besoins de l'utilisateur. L'objectif principal est de développer des méthodes produisant des explications pour n'importe quel modèle de prédiction, tout en veillant à ce que ces explications demeurent à la fois fidèles au modèle sous-jacent et compréhensibles par les utilisateurs qui les reçoivent. La thèse est divisée en deux parties. Dans la première, on améliore une méthode d'explication basée sur des règles. On introduit ensuite une approche pour évaluer l'adéquation des explications linéaires pour approximer un modèle à expliquer. Enfin, cette partie présente une expérimentation comparative entre deux familles de méthodes d'explication contrefactuelles, dans le but d'analyser les avantages de l'une par rapport à l'autre. La deuxième partie se concentre sur des expériences utilisateurs évaluant l'impact de trois méthodes d'explication et de deux représentations différentes. Ces expériences mesurent la perception en termes de compréhension et de confiance des utilisateurs en fonction des explications et de leurs représentations. L'ensemble de ces travaux contribue à une meilleure compréhension de la génération d'explications pour les modèles de machine learning, avec des implications potentielles pour l'amélioration de la transparence, de la confiance et de l'utilisabilité des systèmes d'IA déployés.
|
|
Informatique
/ 19-12-2023
Cheriere Agathe
Voir le résumé
Voir le résumé
Depuis une trentaine d’années, nous avons connaissance d’attaques ciblant des implantations de cryptosystèmes, exploitant des informations physiques telles que temps d’exécution. Il est donc naturel de se demander quelles menaces représentent ces attaques pour les implantations de schémas post-quantiques qui seront déployées dans l’industrie. Dans cette thèse, nous nous intéressons plus particulièrement à la résistance des algorithmes cryptographiques à base de codes correcteurs d’erreurs, vis à vis des attaques par canaux auxiliaires. Nous nous sommes focalisés sur deux schémas, ROLLO et BIKE, candidats au second tour de la standardisation post-quantique du NIST. Nous montrons à travers nos travaux que leur implantation en temps constant est notamment vulnérable aux attaques par analyse de consommation de courant. Pour mettre en évidence ces vulnérabilités, nous utilisons des techniques tels que l’apprentissage automatique et l’algèbre linéaire. De plus, pour les deux schémas, une seule trace de la consommation de courant est nécessaire pour remonter à la clé privée. Suite à la mise en évidence de ces vulnérabilités, nous proposons des stratégies de contre-mesures visant à prévenir ces attaques tout en maintenant le temps constant.
|
|
Informatique
/ 18-12-2023
Raimondi Gautier
Voir le résumé
Voir le résumé
De par leur omniprésence, la sécurité des systèmes informatiques est un enjeu majeur. Dans cette thèse, nous visons à garantir une sécurité contre un certain type d'attaque : les attaques par canal caché temporel. Ces attaques utilisent le temps d'exécution d'un programme pour déduire des informations sur le système. En particulier, on dit d'un programme qu'il est constant-time lorsqu'il n'est pas sensible à ce type d'attaques. Cela passe par des contraintes sur le programmes, qui ne doit ni réaliser de décisions en utilisant de valeurs secrètes, ni utiliser un de ces secrets pour accéder à la mémoire. Nous présentons dans ce document une méthode permettant de garantir la propriété constant-time d'un programme. Cette méthode est une transformation à haut niveau, suivi d'une compilation par Jasmin pour préserver la propriété. Nous présentons également la preuve de la sécurité et de la préservation sémantique de cette méthode.
|
|
Informatique
/ 15-12-2023
Patat Gwendal
Voir le résumé
Voir le résumé
Les systèmes opaques présentent un défi unique pour la gestion des droits numériques, ou Digital Right Management (DRM), Widevine en étant une illustration clé. Malgré son utilisation répandue, ce système DRM a révélé des vulnérabilités importantes dans la protection du contenu propriétaire. Dans cette thèse, nous disséquons le fonctionnement interne de Widevine et analysons comment cette opacité entrave la sécurité tant pour les fournisseurs de contenu, appelés platforme Over-the-Top (OTT), que pour les utilisateurs. Nous explorons sa mise en utilisation sur les plateformes OTT, identifiant les obstacles qui empêchent son utilisation complète. Les préoccupations en matière de confidentialité sont également abordées, alors que nous enquêtons sur des problèmes d'implémentation au sein des navigateurs internet lors de la standardisation des systèmes DRM par la W3C avec la recommandation Encrypted Media Extension (EME). Ces résultats ne dévoilent pas seulement des problèmes liés à Widevine, mais signalent également des voies de recherche futures dans le paysage DRM plus large, soulignant la nécessité de transparence, de sécurité et de conception centrée autour des utilisateurs.
|
|
Automatique, productique et robotique
/ 12-12-2023
Makiyeh Fouad
Voir le résumé
Voir le résumé
La manipulation d'objets rigides a depuis longtemps alimenté l'automatisation, tandis que l'adaptation aux matériaux souples reste un problème ouvert. Cette étude se concentre sur la commande de la forme d'objets déformables en utilisant le modèle masse-ressort (MSM) pour développer des relations analytiques entre les déplacements des points de l'objet et le mouvement des points manipulés. Nous dérivons une loi de commande basée sur cette relation pour positionner avec précision en temps réel plusieurs points de l'objet dans différentes expériences mettant en œuvre divers objets souples, deux manipulateurs robotiques et une caméra RGB-D. Nous proposons en outre deux méthodes de déformation de la forme des objets souples, en utilisant des vecteurs de caractéristiques de faible dimension, en exploitant les descripteurs de Fourier ou les moments 3D, pour paramétrer la surface de l'objet. Diverses expériences confirment l'efficacité de ces paramétrisations dans la commande de la forme. Nous détaillons également la création du modèle, l'estimation de ses paramètres et le suivi des objets déformables, comblant ainsi l'écart entre les déformations du modèle et celles du monde réel.
|
|
Informatique
/ 12-12-2023
Amalou Abderaouf Nassim
Voir le résumé
Voir le résumé
L'estimation du temps d'exécution des programmes est une tâche clé mais difficile, rendue encore plus complexe par la croissance de la complexité et l'insuffisance de la documentation des architectures de processeurs modernes. Bien que les méthodes traditionnelles comme les simulateurs précis au cycle soient exactes, elles sont également longues et nécessitent une compréhension approfondie de l'architecture du processeur. Pour aborder ces limitations, une nouvelle approche basée sur les données et utilisant des techniques d'apprentissage automatique a été développée. Cependant, bien que les modèles d'apprentissage automatique existants offrent des estimations rapides, ils sont principalement adaptés à des architectures simples avec des temps d'instruction constants. Ce document vise à développer de nouvelles méthodes d'apprentissage automatique pour des processeurs complexes et non documentés en introduisant la prise en compte du contexte dans les modèles de timing basés sur l'apprentissage automatique. Une approche novatrice traitant les séquences d'instructions comme un langage naturel et emploie des algorithmes d'apprentissage automatique avancés tels que les réseaux Long Short-Term Memory et les Transformers. Ceci permet au modèle de prendre en compte des caractéristiques complexes telles que les effets de cache et de pipeline, améliorant la précision pour les temps d'exécution moyens et pires cas.
|
|
Informatique
/ 08-12-2023
Yuan Shenghao
Voir le résumé
Voir le résumé
En tant que technologie révolutionnaire d'extension du noyau, Berkeley Packet Filters (BPF) a été appliqué à divers systèmes d'exploitation dans différents domaines, des serveurs (BPF étendu de Linux) aux micro-contrôleurs (rBPF de RIOT-OS). L'isolation des machines virtuelles BPF est essentielle pour garantir l'intégrité du système contre les programmes potentiellement malveillants, en particulier pour les microcontrôleurs qui disposent rarement d'une protection matérielle de la mémoire. Cette thèse présente une machine virtuelle rBPF de confiance dont l'isolation des fautes est formellement prouvée dans l'assistant de preuve Coq. Nous présentons un processus de vérification de bout en bout pour extraire une implémentation C exécutable vérifiée à partir de modèles rBPF abstraits écrits en Coq. Nous introduisons également des techniques Just-in-Time dans rBPF pour l'optimisation des performances. Nos preuves sont toutes vérifiées mécaniquement dans Coq.
|
|
Informatique
/ 30-11-2023
Mentec François
Voir le résumé
Voir le résumé
Le recrutement a toujours été une tâche cruciale pour la réussite des entreprises, notamment pour les entreprises de services pour lesquelles l’embauche est un élément central de leur modèle commercial. La croissance du marché du travail ainsi que l’augmentation du nombre de compétences spécialisées requises par les entreprises ont motivé l’exploration de techniques pour optimiser et même automatiser certaines parties du processus de recrutement. Les nombreux progrès réalisés dans les domaines de l’intelligence artificielle et du traitement automatique du langage naturel au cours des dernières décennies ont offert la possibilité de traiter efficacement les données utilisées lors du recrutement. Nous examinons l’utilisation d’un système de recommandation d’emploi dans une entreprise de conseil, en mettant l’accent sur l’explication de la recommandation et sa perception par les utilisateurs. Tout d’abord, nous expérimentons avec des recommandations basées sur la connaissance en utilisant l’ontologie européenne des compétences et des professions ESCO qui présente des résultats prometteurs, mais en raison des limites actuelles, nous utilisons finalement un système de recommandation sémantique qui fait désormais partie des processus de l’entreprise et offre la possibilité d’études qualitatives et quantitatives sur l’impact des recommandations et de leurs explications. Nous relions la disponibilité des explications à des gains majeurs d’efficacité pour les recruteurs. L’explication offre également un moyen précieux d’affiner les recommandations grâce à des retours utilisateurs contextuels. Un tel retour d’information est non seulement utile pour générer des recommandations en temps réel, mais aussi pour fournir des données précieuses pour évaluer les modèles et améliorer davantage le système. À l’avenir, nous préconisons que la disponibilité des recommandations devienne la norme pour tous les systèmes de recommandation d’emploi.
|
|
Signal, image, vision
/ 28-11-2023
Charpenay Nicolas
Voir le résumé
Voir le résumé
Cette thèse de doctorat porte sur la théorie de l'information zéro-erreur, notamment sur le codage de source avec information adjacente, le codage de canal et la dualité source-canal. Ces travaux s'articulent autour de trois axes: 1. les problèmes de codage zéro-erreur basés sur la correction, 2. les problèmes de codage zéro-erreur basés sur les graphes de confusion, 3. les problèmes de codage zéro-erreur pour le calcul d'une fonction. Une contribution importante de ce travail concerne le problème de la linéarisation du débit optimal, lorsque l'encodeur traite plusieurs tâches conjointement. Nous démontrons l'équivalence de la linéarisation pour les produits de graphes et pour leurs unions disjointes. Cette observation permet de caractériser les débits optimaux pour une classe de problèmes irrésolus depuis les années 1950. Les contributions de cette thèse ont donné lieu à des publications dans les actes des meilleurs conférences internationales de théorie de l'information et deux articles de revues sont en cours de préparation.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|