|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Physique
/ 12-12-2023
Dubroeucq Romain
Voir le résumé
Voir le résumé
Cette thèse s'inscrit dans le contexte des expériences d'astrophysique de laboratoire menées à l'Institut de Physique de Rennes, qui tentent de reproduire les conditions de basses températures (~10-50 K) du milieu interstellaire, afin de réaliser des mesures de cinétique réactionnelle avec des molécules d'intérêt pour l'astrochimie. L'objectif de cette thèse est le développement d'un spectromètre d'absorption infrarouge résolu en temps, pour sonder les écoulements supersoniques uniformes utilisés pour refroidir les molécules en phase gazeuse. Le spectromètre est basé sur un peigne de fréquences optiques, qui présente des dizaines de milliers de modes laser équidistants dans le domaine des fréquences, fournissant une large couverture spectrale, une haute résolution et une haute sensibilité, et permettant ainsi de détecter plusieurs espèces moléculaires simultanément. Pour augmenter encore la sensibilité de détection, le peigne de fréquences est couplé à une cavité optique. La détection à large bande de la lumière laser est réalisée avec un spectromètre à transformée de Fourier, qui peut opérer de manière résolue en temps, et est appliqué à une nouvelle approche de la spectroscopie de temps de déclin de cavité large bande avec un peigne de fréquences. La première démonstration d'un jet supersonique continu sondé par spectroscopie à transformée de Fourier basée sur un peigne de fréquences couplé à une cavité optique est également présentée.
|
|
Statistique/modélisation en écologie, géosciences, agronomie et alimentation
/ 20-12-2023
Letard Mathilde
Voir le résumé
Voir le résumé
Les interfaces terre-eau, fortement vulnérables au changement climatique et à la pression anthropique, requièrent une surveillance accrue. Toutefois, l’observation ininterrompue des zones submergées et émergées demeure un défi en raison de la présence d’eau. La télédétection lidar topobathymétrique constitue une solution adéquate en assurant une représentation continue des zones terre-eau, matérialisée par des nuages de points 3D et des formes d’ondes 1D. Cependant, une pleine exploitation de ces données requiert des outils encore en attente de développement. Cette thèse présente plusieurs méthodes d’extraction de connaissances des données lidar topo-bathymétriques, incluant des approches de classification basées sur des nuages de points bi-spectraux et des formes d’ondes bispectrales. En outre, des réseaux de neurones profonds sont conçus pour la segmentation sémantique, la détection et la classification d’objets, ainsi que l’estimation de paramètres physiques de l’eau à partir des formes d’ondes bathymétriques. L’utilisation de modèles de transfert radiatif guide des approches visant à réduire la nécessité de données labélisées, améliorant ainsi le traitement des formes d’ondes lidar dans les eaux très peu profondes ou turbides.
|
|
Informatique
/ 30-11-2023
Mentec François
Voir le résumé
Voir le résumé
Le recrutement a toujours été une tâche cruciale pour la réussite des entreprises, notamment pour les entreprises de services pour lesquelles l’embauche est un élément central de leur modèle commercial. La croissance du marché du travail ainsi que l’augmentation du nombre de compétences spécialisées requises par les entreprises ont motivé l’exploration de techniques pour optimiser et même automatiser certaines parties du processus de recrutement. Les nombreux progrès réalisés dans les domaines de l’intelligence artificielle et du traitement automatique du langage naturel au cours des dernières décennies ont offert la possibilité de traiter efficacement les données utilisées lors du recrutement. Nous examinons l’utilisation d’un système de recommandation d’emploi dans une entreprise de conseil, en mettant l’accent sur l’explication de la recommandation et sa perception par les utilisateurs. Tout d’abord, nous expérimentons avec des recommandations basées sur la connaissance en utilisant l’ontologie européenne des compétences et des professions ESCO qui présente des résultats prometteurs, mais en raison des limites actuelles, nous utilisons finalement un système de recommandation sémantique qui fait désormais partie des processus de l’entreprise et offre la possibilité d’études qualitatives et quantitatives sur l’impact des recommandations et de leurs explications. Nous relions la disponibilité des explications à des gains majeurs d’efficacité pour les recruteurs. L’explication offre également un moyen précieux d’affiner les recommandations grâce à des retours utilisateurs contextuels. Un tel retour d’information est non seulement utile pour générer des recommandations en temps réel, mais aussi pour fournir des données précieuses pour évaluer les modèles et améliorer davantage le système. À l’avenir, nous préconisons que la disponibilité des recommandations devienne la norme pour tous les systèmes de recommandation d’emploi.
|
|
Informatique
/ 12-12-2023
Amalou Abderaouf Nassim
Voir le résumé
Voir le résumé
L'estimation du temps d'exécution des programmes est une tâche clé mais difficile, rendue encore plus complexe par la croissance de la complexité et l'insuffisance de la documentation des architectures de processeurs modernes. Bien que les méthodes traditionnelles comme les simulateurs précis au cycle soient exactes, elles sont également longues et nécessitent une compréhension approfondie de l'architecture du processeur. Pour aborder ces limitations, une nouvelle approche basée sur les données et utilisant des techniques d'apprentissage automatique a été développée. Cependant, bien que les modèles d'apprentissage automatique existants offrent des estimations rapides, ils sont principalement adaptés à des architectures simples avec des temps d'instruction constants. Ce document vise à développer de nouvelles méthodes d'apprentissage automatique pour des processeurs complexes et non documentés en introduisant la prise en compte du contexte dans les modèles de timing basés sur l'apprentissage automatique. Une approche novatrice traitant les séquences d'instructions comme un langage naturel et emploie des algorithmes d'apprentissage automatique avancés tels que les réseaux Long Short-Term Memory et les Transformers. Ceci permet au modèle de prendre en compte des caractéristiques complexes telles que les effets de cache et de pipeline, améliorant la précision pour les temps d'exécution moyens et pires cas.
|
|
Information-Communication
/ 26-11-2019
Tran Thi Ngoc Nhung
Voir le résumé
Voir le résumé
Cette thèse concentre ses recherches sur les journalistes qui ont couvert la guerre du Vietnam (guerre américaine au Vietnam de 1955 à 1975) en se focalisant exclusivement sur un groupe spécifique de journalistes nord-vietnamiens qui ont couvert les batailles du Nord, du Sud ou l’ensemble lors de la guerre du Vietnam. De nombreux journalistes nord-vietnamiens qui rendaient compte des événements de la guerre ont joué un rôle important dans la guerre pour l’indépendance nationale. Beaucoup d’entre eux sont morts sur les champs de bataille et beaucoup sont sortis de la guerre avec des handicaps ou dans de mauvaises conditions de vie. Leurs contributions ne sont consignées que dans des journaux intimes, des documents historiques et des livres contenant des informations générales. Il n’y a pas eu jusqu’à présent de recherche scientifique analysant en détail : pourquoi les journalistes ont assisté à la guerre ;
comment ils se sont préparés à couvrir la guerre ; quels appuis ils ont reçus de leurs directions ; quelles étaient leurs conditions de travail et de vie ; comment ils ont vécu et travaillé en fonction de ces conditions dans les combats ; quels types d’équipement ils ont utilisé pour rendre leur travail possible ; comment ils se sont déplacés vers et dans les zones de combat ; ce qu’ils ont fait quand ils se sont reposés ; ce qu’ils pensaient de leur travail ; quels résultats ils ont obtenus ; quels impacts leur participation a eue ; comment leur travail a influencé leurs propres engagements. Par conséquent, cette thèse vise à identifier ces aspects cachés du vécu des journalistes nord-vietnamiens afin de mettre en évidence leurs contributions dans les objectifs de leur pays.
|
|
Télécommunications
/ 14-12-2023
Wu Mengda
Voir le résumé
Voir le résumé
Ce travail concerne l'imagerie tomographique 3-D par Radar à Synthèse d'Ouverture de terrain (GB-SAR) pour la détection in situ des défauts de chaussée.Un GB-SAR bistatique à visée latérale, fonctionnant en mode de propagation vers l'avant (FSC), caractérisé par un rapport Signal sur Bruit (SNR) élevé et une résolution verticale constante, est proposé. Une focalisation tomographique utilisant une ouverture dans la direction verticale est introduite pour résoudre l'ambiguïté et améliorer la résolution en distance au sol. Une configuration SAR bistatique FSC à déplacement horizontal et à décalage constant (COSBis), est proposée afin de réduire la complexité du système à un niveau minimal, en utilisant une seule paire d'antennes Tx et Rx, et qui permet d'obtenir une résolution en distance au sol améliorée par focalisation sur une ouverture angulaire générée par le mouvement horizontal. Les résultats expérimentaux démontrent la capacité du mode proposé à détecter des défauts artificiels et à caractériser des détails fins en utilisant une diversité de polarisation. Des techniques d'analyse spectrale à haute résolution sont appliquées à l'approche COSBis pour affiner le diagnostic routier. Cette configuration innovante de GB-SAR, associée à des techniques d'imagerie à haute résolution, démontre un fort potentiel pour l'inspection et la maintenance des chaussées.
|
|
Biologie cellulaire, biologie du développement
/ 06-11-2023
Garcia Ruano Daniel
Voir le résumé
Voir le résumé
La régulation du volume des cellules est un aspect crucial de la biologie des organismes vivants. Ainsi, la taille des cellules a un impact sur leur biochimie et leur organisation interne, et joue un rôle clé dans leur interaction avec l'environnement. De manière surprenante, alors que divers mécanismes contribuant à la régulation du volume cellulaire à court terme ont été décrits, le rôle de ce paramètre morphologique dans l'adaptation sur le long terme reste inconnu. Pour étudier cette question, nous avons optimisé de nouvelles méthodologies pour la mesure directe du volume cellulaire et l'évolution automatisée de la levure. Nous avons ensuite tiré parti de ces technologies pour réaliser des expériences d'évolution en laboratoire en soumettant des cellules de levure de fission à différentes conditions adverses. La plupart des populations évoluées que nous avons ainsi obtenues présentent des changements remarquables de volume cellulaire, changements qui sont associés à leur adaptation. Le séquençage du génome de l'une de ces populations, qui a évolué en présence de phénylalanine comme unique source suboptimale d'azote, a révélé des altérations génétiques adaptatives dans le facteur de transcription Toe2, le facteur de Nonsense Mediated Decay (NMD) Upf1, ainsi qu’une amplification génétique d’un gène codant pour un transporteur de spermidine, SPBC36.01c, dont l’expression est régulée par Toe2. Nous avons alors montré que la mutation de Toe2 et l'augmentation du nombre de copies de SPBC36.01c ont un effet synergique sur l’adaptation de cette population. Bien qu’un lien de causalité entre altération du volume cellulaire et évolution n'ait pas été observé, notre étude a mis en évidence un nouveau motif d’adaptation qui combine modulation transcriptionnelle et variation ciblée du nombre de copies d’un gène cible. Ce module pourrait être conservé et contribuer à l’évolution des cellules eucaryotes dans des environnements délétères variés.
|
|
Informatique
/ 18-12-2023
Raimondi Gautier
Voir le résumé
Voir le résumé
De par leur omniprésence, la sécurité des systèmes informatiques est un enjeu majeur. Dans cette thèse, nous visons à garantir une sécurité contre un certain type d'attaque : les attaques par canal caché temporel. Ces attaques utilisent le temps d'exécution d'un programme pour déduire des informations sur le système. En particulier, on dit d'un programme qu'il est constant-time lorsqu'il n'est pas sensible à ce type d'attaques. Cela passe par des contraintes sur le programmes, qui ne doit ni réaliser de décisions en utilisant de valeurs secrètes, ni utiliser un de ces secrets pour accéder à la mémoire. Nous présentons dans ce document une méthode permettant de garantir la propriété constant-time d'un programme. Cette méthode est une transformation à haut niveau, suivi d'une compilation par Jasmin pour préserver la propriété. Nous présentons également la preuve de la sécurité et de la préservation sémantique de cette méthode.
|
|
Informatique
/ 19-12-2023
Cheriere Agathe
Voir le résumé
Voir le résumé
Depuis une trentaine d’années, nous avons connaissance d’attaques ciblant des implantations de cryptosystèmes, exploitant des informations physiques telles que temps d’exécution. Il est donc naturel de se demander quelles menaces représentent ces attaques pour les implantations de schémas post-quantiques qui seront déployées dans l’industrie. Dans cette thèse, nous nous intéressons plus particulièrement à la résistance des algorithmes cryptographiques à base de codes correcteurs d’erreurs, vis à vis des attaques par canaux auxiliaires. Nous nous sommes focalisés sur deux schémas, ROLLO et BIKE, candidats au second tour de la standardisation post-quantique du NIST. Nous montrons à travers nos travaux que leur implantation en temps constant est notamment vulnérable aux attaques par analyse de consommation de courant. Pour mettre en évidence ces vulnérabilités, nous utilisons des techniques tels que l’apprentissage automatique et l’algèbre linéaire. De plus, pour les deux schémas, une seule trace de la consommation de courant est nécessaire pour remonter à la clé privée. Suite à la mise en évidence de ces vulnérabilités, nous proposons des stratégies de contre-mesures visant à prévenir ces attaques tout en maintenant le temps constant.
|
|
Sciences Économiques et sciences de Gestion
/ 12-12-2022
Brunetti Roberto
Voir le résumé
Voir le résumé
Les inégalités de richesse ont augmenté dans plusieurs pays. Le patrimoine immobilier étant une composante majeure de la richesse totale, il est fondamental d'étudier ce qui détermine sa valeur pour comprendre la dynamique de la répartition de la richesse. De plus, étant donné le niveau élevé des inégalités, une compréhension plus approfondie des déterminants de la redistribution est nécessaire. Cette thèse se développe selon ces deux axes de recherche. Le chapitre 1 étudie l'impact des contraintes d'emprunt et des choix résidentiels des ménages sur les inégalités de richesse. Nous trouvons que les contraintes d'emprunt peuvent générer des inégalités et un tri spatial des individus qui peuvent persister à long terme. Dans le chapitre 2, j'étudie l'impact du pouvoir de vote des communes dans les conseils intercommunaux sur l'offre de logements. Je trouve que les communes avec un pouvoir de vote plus élevé ont tendance à construire moins de logements multifamiliaux et plus de logements unifamiliaux. Le chapitre 3 analyse les préférences en matière de redistribution des résidents américains appartenant aux 20% supérieurs et inférieurs de la distribution des revenus. Nous constatons que les participants redistribuent davantage lorsque les individus pauvres (bénéficiaires de la redistribution) sont décrits comme des travailleurs acharnés, tandis que les caractéristiques des personnes aisées n'influencent que les décisions des participants à haut revenu. Le chapitre 4 analyse comment les choix de redistribution des décideurs politiques sont influencés par leur propre idéologie et par les préférences des électeurs en utilisant une expérience en ligne avec des élus locaux français. Les résultats soulignent l'importance des préférences des électeurs dans les choix fiscaux et les raisons pour lesquelles les décisions des décideurs politiques s'écartent de ces préférences.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|