|
Tri :
Date
Titre
Auteur
|
|
|
Mécanique des solides, des matériaux, des structures et des surfaces
/ 24-10-2025
Heng Kimhong
Voir le résumé
Voir le résumé
Le verre présente des avantages environnementaux, et son utilisation structurelle est en pleine expansion. Cependant, son poids propre limite ses applications, et une utilisation inefficace des matériaux suscite des préoccupations liées aux émissions de CO₂. Cette recherche doctorale a développé et appliqué l’optimisation topologique (OT) pour concevoir des structures en verre légères en 2D et 3D. Un algorithme d’OT basé sur la méthode de densité a été proposé, intégrant des contraintes de déformation et de contrainte principale maximale (CPM), ainsi que la prise en compte du poids propre. L’algorithme a démontré sa robustesse dans les deux cas de conception. Des structures 2D optimisées, fabriquées par découpe au jet d’eau, ont été validées par des essais de flexion et de mesure des contraintes, montrant une amélioration des performances mécaniques et une réduction des contraintes locales de traction. Pour les structures 3D, la faisabilité a été démontrée par deux méthodes : le moulage et une nouvelle méthode par l’assemblage de couches découpées par jet d’eau. Les validations numériques et expérimentales ont confirmé que ces deux méthodes préservent l’intégrité structurelle et la fidélité géométrique. La méthode par l’assemblage de couches, combinée au collage par fusion du verre, offre une voie prometteuse pour la fabrication de composants en verre optimisés par l'OT. Dans l’ensemble, cette recherche établit une bases pour des structures en verre à haute performance et favorise des applications plus larges dans la construction durable.
|
|
|
Physique
/ 19-09-2025
Boileau Maxime
Voir le résumé
Voir le résumé
On s’intéresse aux milieux poreux humides salés. Sous l’effet du séchage, le sel peut migrer à la surface, donnant une efflorescence ou une croûte saline. En pratique, ce phénomène peut altérer le support - béton ou pierre - et conduire à la dégradation d’éventuelles peintures ou fresques le recouvrant. Les études antérieures concernent principalement les situations où le milieu poreux est saturé ou bien alimenté en continu par de l’eau salé. Cette thèse s’intéresse au cas où le milieu est initialement insaturé et elle cherche à comprendre et à déterminer les principaux mécanismes de transfert de sel qui résultent de nombreux phénomènes couplés : capillarité, écoulement de liquide visqueux, transfert thermique, cristallisation. . . La saturation initiale apparaı̂t, par le biais d’expériences simples qui ont été réalisées par nos soins, un paramètre important déclenchant ou non la remontée du sel par le mouvement de la phase liquide. À cet égard, la présence de chemins liquides continus s’avère être également un élément indispensable pour caractériser cette remontée. L’étude numérique de ce phénomène a été conduite par l’utilisation des réseaux de pores (Pore Network Model) permettant de prendre en compte potentiellement tous les mécanismes cités ci-dessus. Un soin particulier a été apporté aux conditions initiales, définies par deux paramètres : la saturation globale et la répartition spatiale de l’eau salée. Deux régimes de séchage distincts sont observés : l’un conduisant à la cristallisation du sel sur place, l’autre conduisant à une migration vers la surface. Bien que nos simulations aient été limitées au cas isotherme, le logiciel mis au point a été conçu pour inclure facilement de nombreux autres phénomènes physiques.
|
|
|
Électronique
/ 04-09-2025
Thuróczy Tomas
Voir le résumé
Voir le résumé
La radiométrie satellitaire est une technique de télédétection passive permettant la mesure et la quantification de paramètres atmosphériques statiques et dynamiques sur Terre, sur d'autres planètes et sur des corps célestes en espace profond. La plupart des radiomètres sub-térahertz (sub-THz) et térahertz sont généralement déployés sur de gros satellites, impliquant des coûts élevés, des temps de développement longs, et un partage des ressources et du temps d'observation avec d'autres instruments. L'avènement des Cubesats a permis d’introduire la radiométrie térahertz dans le domaine des petits satellites, avec plusieurs missions déjà réalisées avec succès. Comparés aux grands satellites, les Cubesats offrent des coûts de développement et de lancement réduits, ainsi que des délais de développement plus courts, puisqu’ils se concentrent généralement sur un seul objectif scientifique et un seul instrument. Toutefois, l’intégration d’un instrument radiométrique térahertz à bord d’un Cubesat présente d'importants défis, en raison du volume, de la masse, de la puissance disponible limités et de la gestion thermique complexe. Cette thèse doctorale explore de nouvelles approches pour le développement de récepteurs hétérodynes térahertz compacts adaptés aux plateformes Cubesat, en se concentrant spécifiquement sur des méthodes innovantes d’antenne et de calibration électronique, ainsi que sur les aspects d’intégration entre ces sous-systèmes. Le travail a été réalisé en codirection entre l’Institut d’Électronique et des Technologies du numéRique (IETR) de l’Université de Rennes et le Laboratoire d’Études du Rayonnement et de la Matière en Astrophysique et Atmosphères (LERMA) de l’Observatoire de Paris. Cette collaboration tire parti des expertises respectives des deux instituts : antennes sub-THz planaires aux structures périodiques (IETR) et mélangeurs subharmoniques à faible bruit à diodes Schottky ainsi que chaînes d’oscillateurs locaux développés à LERMA et fabriqués au C2N. En raison du caractère pluridisciplinaire du projet doctoral, le manuscrit est structuré en deux parties, chacune présentant des contributions scientifiques dans les domaines susmentionnés. Une approche globale est néanmoins adoptée pour évaluer la performance des technologies développées dans le contexte de l'instrument radiométrique dans son ensemble. Les technologies développées sont conçues pour être évolutives vers des fréquences supérieures, jusqu’à et au-delà de 1 THz.
|
|
|
Chimie moléculaire et macromoléculaire
/ 10-07-2025
BRISSOIT ALICE
Voir le résumé
Voir le résumé
Les lichens produisent des métabolites originaux qui sont d’un grand intérêt pharmacologique et taxonomique. Toutefois, leur composition chimique reste encore à explorer, en particulier en ce qui concerne les familles de composés autres que les phénols. La chromatographie sur couche mince constitue la méthode d’analyse la plus couramment utilisée, et des systèmes chromatographiques développés dans les années 1970 sont toujours employés aujourd’hui en lichénochimie. Ce travail de thèse s’inscrit dans une démarche de continuité et de modernisation de ces approches analytiques, en mobilisant la chromatographie sur couche mince à haute performance (HPTLC). À partir de séries de standards lichéniques (phénols et terpénoïdes), des protocoles ont été développés pour optimiser leur migration et leur caractérisation. Une base de données fondée sur le comportement HPTLC en mode gradient a été établie pour 142 standards lichéniques phénoliques, ainsi qu’une base de données en mode isocratique pour 49 standards terpéniques. La reproductibilité apportée par la semi-automatisation, le suivi de protocoles définis et la combinaison de diverses caractéristiques et mesures (valeurs de Rf, couleurs avant et après révélation, profils UV pour les phénols) assurent une meilleure identification des composés. Des protocoles d’extraction adaptés (broyeur-extracteur, ultrasons) ont aussi été mis au point pour le profilage d’extraits lichéniques. Pour les composés terpéniques, une semi-quantification a été réalisée à partir de révélations à l’acide phosphomolybdique. Ces méthodes ont été appliquées au profilage d’extraits lichéniques dans une visée chimiotaxonomique, et des essais de bioautographie sur plaque HPTLC ont montré la faisabilité d’un protocole simple permettant de mettre en évidence les activités antimicrobiennes associées à des composés lichéniques séparés sur ces plaques.
|
|
|
Pharmacie
/ 08-07-2025
Hugot Hélène
Voir le résumé
Voir le résumé
Malgré plusieurs scandales sanitaires passés, une majorité de Français garde confiance dans les médicaments (77 %) et les vaccins (75 %), tout en se montrant plus critique vis-à- vis des entreprises pharmaceutiques. Le médicament, défini comme une substance active, n’est pas un produit comme les autres, ses effets ne sont jamais exclusivement bénéfiques. La pharmacovigilance permet une surveillance continue des effets indésirables, même après la commercialisation. Depuis 2005, les Plans de Gestion des Risques (PGR) sont devenus obligatoires pour mieux anticiper et gérer les risques liés aux traitements. Le pharmacien d’officine, en contact direct avec les patients, joue un rôle crucial dans cette chaîne de sécurité sanitaire : il informe, surveille, signale les effets indésirables, et participe activement à l’éducation thérapeutique, contribuant ainsi à un meilleur usage des médicaments dans un cadre réglementé.
|
|
|
Anthropologie
/ 08-07-2025
Couatarmanach Antoine
Voir le résumé
Voir le résumé
Les personnes hospitalisées en psychiatrie souffrent d'une santé orale dégradée par rapport à la population générale. Cette étude visait à analyser les causes et les conséquences de cette dégradation au sein d'un établissement de santé mentale de l'ouest de la France.
Une enquête ethnographique a été mise en œuvre. Elle s'appuyait sur l'observation de la vie quotidienne durant trois mois au sein de deux unités d'hospitalisation, sur l'observation du fonctionnement d'une consultation dentaire au sein de l'établissement pendant près d'un an, et sur un corpus de 24 entretiens conduits avec une diversité d'acteurs (soignants, chirurgiens-dentistes et patients).
L'analyse a permis de mettre en évidence la prégnance de facteurs (hygiène, alimentation, consommation de tabac…) défavorables à la santé orale, mais aussi les freins auxquels étaient confrontés les soignants dans la promotion de cette santé orale. Ont été également analysés les intérêts et les limites de la consultation dentaire dans l'accès aux soins et leur réalisation chez les patients. Enfin, dans le cadre d'une analyse de "l'économie morale" de la santé orale en psychiatrie, les tensions éthiques auxquelles sont confrontés les acteurs ont été investiguées.
Replacées dans le contexte actuel de la psychiatrie en France, les relations de soins en matière de santé orale confrontent les professionnels à des dilemmes liés à la promotion de l'autonomie des patients mais également aux manières d'allouer les ressources dont ils disposent.
Ce travail met finalement en évidence l'importance des approches collectives entre les différents professionnels de santé et les patients pour promouvoir la santé orale en psychiatrie.
|
|
|
Pharmacie
/ 07-07-2025
Le Roch Aymeric
Voir le résumé
Voir le résumé
En 1962, G.Y. Lesher et son équipe décrivent l’acide nalidixique, un dérivé d’un antipaludéen, la chloroquine. C’est le début de l’histoire des quinolones. Cette famille, qui dans un premier temps ne servira qu’à traiter les infections urinaires, ne cessera d’évoluer et grâce à la présence d’un atome de fluor en position 6 du noyau quinoléïque. Les quinolones se transforment alors en fluoroquinolones, dont le spectre antibactérien est élargi vers les bactéries Gram+. Grâce à une relation structure-activité unique, les fluoroquinolones ne cessent d’évoluer et de proposer de nouvelles molécules novatrices pour soigner l’humanité. Cependant, cette classe d’antibiotiques si prometteuse est aujourd’hui au cœur d’alertes des agences sanitaires mondiales. En effet, l’apparition d’effets indésirables persistants, invalidants voire irréversibles, et ce possible dès la première prise d’une fluoroquinolone inquiète les autorités. Ce travail permet de découvrir l’histoire des fluoroquinolones de leur début à aujourd’hui. Grâce à une efficacité prouvée, les fluoroquinolones ont su s’imposer dans l’antibiothérapie. Cependant, les effets indésirables marqués alertent sur la balance bénéfices/risques de cette classe. Ce travail met aussi en valeur le rôle primordial et essentiel du pharmacien d’officine dans la prévention de ces effets. Son conseil précieux, son expertise du médicament et sa proximité envers les patients font du pharmacien d’officine un acteur majeur de lutte contre l’antibiorésistance et de bon usage des fluoroquinolones.
|
|
|
Pharmacie
/ 04-07-2025
Cornée Briac
Voir le résumé
Voir le résumé
Les anticorps anti CD38 ont profondément transformé la prise en charge du myélome multiple. Leur intégration dans les schémas thérapeutiques, aussi bien en première ligne qu’en rechute a permis d’améliorer significativement la survie et la profondeur de réponse. Cette thèse a pour but de faire le point sur les mécanismes d’actions, les différents schémas thérapeutiques disponibles, leur place dans les recommandations actuelles ainsi que les défis et perspectives liés à leur utilisation, à l’heure où de nouvelles stratégies thérapeutiques émergent.
|
|
|
Pharmacie
/ 02-07-2025
Frin Louise
Voir le résumé
Voir le résumé
Cette thèse explore l’évolution des biomarqueurs en oncologie à travers l’exemple des médicaments anticorps conjugués (antibody-drug conjugates, ADC), en particulier dans le contexte du cancer du sein avec une surexpression de HER2. Initialement conçus pour délivrer de manière ciblée des agents cytotoxiques aux cellules surexprimant le récepteur HER2, les ADC illustrent les progrès de la médecine de précision. En retraçant l’histoire des anticorps monoclonaux ainsi que des ADC de première, deuxième, et troisième génération, ce travail met en évidence une transition progressive vers des mécanismes d’action élargis, notamment l’effet bystander. Ce phénomène, qui permet une action au-delà des cellules strictement HER2-positives, remet en question la définition classique de biomarqueur en tant qu’élément strictement prédictif de la réponse thérapeutique. L’évolution technologique des ADC semble ainsi s’accompagner d’une redéfinition du rôle et de la spécificité des biomarqueurs en oncologie.
|
|
|
Informatique
/ 02-07-2025
Mognol Meven
Voir le résumé
Voir le résumé
La bio-informatique est un domaine où les besoins en calcul sont extrêmement importants. En particulier, en génomique, la dernière décennie a vu l’émergence de nouvelles technologies de séquençage de l’ADN, entraînant une explosion de la quantité de données à traiter. Les algorithmes de traitement de ces données ont évolué, mais se heurtent de plus en plus aux limites matérielles liées à l’accès mémoire sur des architectures traditionnelles telles que les CPU et les GPU. Bien que certains composants, tels que les FPGA, permettent de créer des circuits très spécialisés, ces derniers restent coûteux et nécessitent une grande expertise pour leur mise en œuvre. Parallèlement, le processing-in-memory (PiM), une technologie envisagée dès les années 1970, attire un intérêt croissant dans l’industrie. Dans ce manuscrit, nous analysons trois algorithmes liés à la génomique sur l’accélérateur PiM généraliste et programmable de la société UPMEM. Nous étudions d’abord le comportement des algorithmes sur une architecture CPU traditionnelle, implémentons leur équivalent sur le PiM UPMEM, et comparons les performances en termes de temps d’exécution et de consommation énergétique. Enfin, nous formulons des recommandations, fondées sur nos études, pour les futures architectures PiM généralistes.
|
|