|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Mathématiques et leurs interactions
/ 07-07-2023
Abboud Marc
Voir le résumé
Voir le résumé
Une surface affine (sur un corps algébriquement clos) est une variété de dimension 2 définie par des équations polynomiales. Lorsqu’on se donne un endomorphisme d’une telle surface, on peut se poser les questions naturelles suivantes : y’a-t-il des orbites Zariski-denses ? Si l’orbite d’un point part à l’infini, peut-on contrôler sa vitesse de fuite ? Y’a-t-il beaucoup d’orbites périodiques ? Peut-on exhiber une mesure de probabilité invariante intéressante par le système dynamique ? Pour répondre à ces questions, j’utilise des techniques valuatives. Plus précisément un endomorphisme f d’une surface affine S induit une transformation de l’espace des valuations centrées à l’infini de S. L’étude de la dynamique de f sur cet espace de valuations permet de comprendre la dynamique de f sur S.
|
|
Photonique
/ 19-12-2023
Agaisse Romain
Voir le résumé
Voir le résumé
La stabilité en fréquence des lasers est une propriété recherchée dans de nombreux domaines tels que les communications optiques, la spectroscopie ou encore la métrologie temps-fréquence. Dans ce contexte, l’institut Foton a mis au point un principe permettant d’auto-affiner spectralement un laser à des niveaux extrêmement bas. Pour cela on pompe un résonateur Brillouin non-réciproque ce qui génère une onde Stokes spectralement pure. L’ajout d’une boucle à verrouillage de phase qui contre-réagit sur la pompe permet alors d’éviter les sauts de modes du résonateur Brillouin tout en affinant spectralement le laser de pompe, produisant ainsi un effet d'auto-affinement en cascade. Dans ce manuscrit, nous étudions théoriquement et expérimentalement le système d’auto-affinement spectral laser assisté par effet Brillouin. La modélisation de l’ensemble de ses constituants par le biais du formalisme des fonctions de transfert est confortée par des validations expérimentales. Ces fonctions de transfert rendent compte de la réponse des différents éléments du système vis-à-vis des fluctuations de phase et d’amplitude. L’expression de la fonction de transfert du système complet est ensuite validée expérimentalement en comparant les prévisions théoriques aux mesures de fonction de transfert en boucle ouverte ainsi qu'en réponse indicielle. L’exploitation du modèle et de ses paramètres physiques ajustables permet alors de réduire davantage les fluctuations de fréquence pour un laser de pompe à état solide émettant à 1,54 \uD835\uDF07m. Cela nous permet notamment de mettre en évidence le fait que le résonateur Brillouin dans ces conditions de verrouillage de phase joue le rôle d'une référence optique. Les performances du système sont ensuite évaluées en dupliquant ce dernier et en mesurant dans le domaine micro- onde le battement entre les deux systèmes indépendants. Finalement, le principe du « buffer reservoir » est ajouté au système d’affinement spectral. Ce principe basé sur l’insertion d’un mécanisme d’absorption non-linéaire dans le laser de pompe permet de réduire l'excès de bruit d'amplitude aux oscillations de relaxations de 32 dB. Ainsi on supprime la principale source de bruit d’amplitude converti en bruit de phase dans le système.
|
|
Médecine
/ 02-06-2023
Agasse-Lafont Thomas
Voir le résumé
Voir le résumé
Contexte : Les accidents vasculaires cérébraux dans le territoire de l’artère cérébrale postérieure représentent environ 5% de l’ensemble des AVC. Tout comme les AVC avec occlusion de l’artère cérébrale moyenne, ils peuvent être responsables d’un handicap fonctionnel. Les facteurs associés à un bon pronostic restent mal connus. Si la thrombolyse intraveineuse est recommandée, l’efficacité de la thrombectomie mécanique dans ce type d’AVC n’est pas démontrée. L’objectif de ce travail est de déterminer les facteurs associés à un bon pronostic fonctionnel à trois mois et d’évaluer la qualité de vie de ces patients. Une partie des données collectées a été utilisée dans l’étude multicentrique Acapulco. Méthodes : La sélection des patients a été faite à l’aide d’un registre local recensant l’ensemble des patients thrombolysés et/ou thrombectomisés au CHU de Rennes. Les patients présentant un AVC avec occlusion de l’artère cérébrale postérieure ont été inclus. Les données cliniques et radiologiques ont été obtenues à partir des dossiers informatiques de ces patients. Un questionnaire de qualité de vie EQ5D a été fait par téléphone. Un score de rankin à 3 mois compris entre 0 et 2 était défini comme un bon résultat fonctionnel, un score strictement supérieur à deux, un mauvais résultat. Des analyses univariées et multivariées ont été réalisées pour identifier les facteurs influençant le pronostic fonctionnel. Résultats : 40 patients pris en charge au CHU de Rennes entre septembre 2013 et juin 2022 ont été inclus. Environ un tiers de ces patients a eu un pronostic fonctionnel défavorable (mRS > 2). Le NIH à 24h influence de façon significative le pronostic fonctionnel. La qualité de vie n’est pas significativement moins bonne chez les patients présentant un mauvais résultat fonctionnel. Conclusion : Les AVC du territoire de l’artère cérébrale postérieure peuvent être responsables d’une perte d’indépendance et de qualité de vie. Le pronostic fonctionnel semble être principalement lié à l’évolution du NIHSS en hospitalisation.
|
|
Pharmacie
/ 12-10-2023
Agranier Maxime
Voir le résumé
Voir le résumé
Nous présentons ici une étude rétrospective sur la mise en place de l’examen de séquençage d’exome réalisé de manière rapide dans un contexte prénatal au sein des centres de la FHU GenOMedS, qui regroupe les centres hospitalo-universitaires du Grand Ouest de la France. L’objectif est de faire un premier bilan de l’introduction de cet examen en routine obstétricale environ un an et demi après que les premières patientes aient pu en bénéficier. Cette étude s’appuie sur une cohorte constituée de 69 examens soit la totalité des patientes s’étant vue prescrire un tel examen depuis sa mise en place dans les différents centres de la FHU. Notre étude est centrée principalement sur deux axes : Un premier axe revenant sur la mise en place de cet examen dans les différents centres et sa faisabilité. Nous nous intéressons ici à la dynamique de son intégration au sein des différents laboratoires de génétique, services de génétique clinique et d’obstétrique. Nous nous sommes également intéressés à ses performances techniques et temporelles. Un second axe, plus clinique s’intéresse au rendement diagnostique de cet examen. Le contexte est celui de la mise en évidence de signes d’appel échographiques au cours du suivi de grossesse. Nous nous sommes intéressés aux performances diagnostiques de cette analyse dans toutes les circonstances cliniques ayant pu être rencontrées. Nous avons également étudié l’implication du résultat de cet examen dans les suites de grossesse. Cette étude nous à permis de montrer que les centres du réseau HUGO sont désormais autonomes dans la prise en charge de cet examen et qu’il est maintenant parfaitement intégrée dans la routine des différents services impliqués. Avec une durée moyenne de 17 jours, les délais analytiques restent compatibles avec le contexte évolutif de la grossesse, bien que le délai médian de près d’un mois entre le prélèvement et l’enregistrement de l’examen puisse probablement être raccourci. Avec un rendement global d’environ 25%, soit un total de 17 diagnostics réalisés sur 69 fœtus testés, l’apport diagnostique de cet examen est conséquent. Toutes les maladies identifiées étaient fortement invalidantes pour l’individu à naître. Il s’agissait principalement de déficiences intellectuelles syndromiques, mais aussi de maladies métaboliques et osseuses. Les anomalies de la face et du crâne, les œdème et hydrops, ainsi que les syndrome polymalformatifs ont été associé à un rendement diagnostique important bien que cet examen garde une grande pertinence dans certaines atteintes à plus faible rendement comme les malformations isolées du système nerveux centrale. Un diagnostic positif à permis d’orienter les couples vers une IMG dans la plupart des cas. En conclusion l’examen d’exome prénatal a parfaitement su trouver sa place dans l’arsenal diagnostique des centres du groupement HUGO. Cette technique robuste est actuellement la seule alternative permettant le diagnostic de maladies géniques en période anténatale disponible dans nos laboratoires. Nous espérons que cette étude contribuera à rendre nos pratiques plus efficientes.
|
|
Composants et dispositifs pour l'électronique et la photonique
/ 24-01-2023
Ahammou Brahim
Voir le résumé
Voir le résumé
Les couches minces à base de nitrure de silicium (SiNx) ont été reconnus comme des diélectriques essentiels dans l'industrie microélectronique et optoélectronique en raison de leurs propriétés intéressantes. Dans cette thèse, nous décrivons comment contrôler l'indice optique et les propriétés mécaniques des couches de SiNx et d'oxynitrure de silicium (SiOyNx) en ajustant les paramètres du processus de dépôt. Nous utilisons deux types de réacteurs de dépôt chimique en phase vapeur assisté par plasma : un réacteur standard à couplage capacitif avec excitation radiofréquence et un réacteur à résonance cyclotron électronique avec excitation micro-onde. Nous discutons de la fabrication et de la caractérisation des structures multicouches comme application optique de nos couches minces. Nous focalisons sur la caractérisation et la compréhension des propriétés optiques de ces couches minces grâce à l’ellipsométrie spectroscopique. Nous étudions également expérimentalement leurs propriétés mécaniques en utilisant la technique de mesure de la courbure des substrats, la fabrication de microstructures et les mesures de nanoindentation. Enfin, nous montrons des mesures précises de la distribution des contraintes induites dans le GaAs lorsque de tels couches minces sont structurés sous forme de rubans allongées de largeur variable, en utilisant la lithographie optique et la gravure au plasma. Pour cela, nous cartographions la déformation anisotrope, en mesurant le degré de polarisation de la photoluminescence (PL) à intégration spectrale générée au sein du GaAs par excitation avec un laser rouge. La PL des semi-conducteurs cubiques massifs tels que le GaAs n'est pas polarisé, tandis que sous une contrainte anisotrope un certain degré de polarisation est produit. Ces cartographies ont été mesurées soit à partir de la surface du semi-conducteur, soit à partir de sections transversales clivées. Ils fournissent une image détaillée et complète de la déformation cristalline au voisinage de la couche contrainte structurée. Ensuite, nous avons effectué des simulations par éléments finis en essayant de reproduire les cartographies expérimentales. Nous pensons que notre schéma de simulation est utile pour la conception des composants photoniques, par exemple pour prédire les changements locaux de l'indice de réfraction dus à l'effet photoélastique.
|
|
Pharmacie
/ 02-05-2023
Al Mohammad Yamane
Voir le résumé
Voir le résumé
La pandémie du Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV-2), responsable de la maladie Covid-19, a engendré une course sans précédent pour la recherche d’un traitement. Parmi les traitements qui semblaient prometteurs, il y a eu les anticorps monoclonaux dont fait partie la bithérapie bamlanivimab/etesevimab, commercialisée par le laboratoire Eli Lilly & Company. Cette bithérapie avait bénéficié d’une Autorisation Temporaire d’Utilisation (ATU), permettant aux patients un accès anticipé avant mise sur le marché. La mise en place d’une ATU implique différents acteurs notamment en ce qui concerne le suivi des effets indésirables, pour garantir la sécurité des patients. A ce titre, l’industriel joue un rôle primordial dans la collecte des évènements indésirables. L’intérêt des ATU pour palier à un manque de l’arsenal thérapeutique ne fait plus débat. Cependant l’urgence sanitaire ne doit pas justifier un recours facilité à ces accès anticipés pour de nouvelles thérapies.
|
|
Pharmacie
/ 14-04-2023
Allavène Agathe
Voir le résumé
Voir le résumé
Pour développer un nouveau médicament, il faut environ 12 ans et un milliard d'euros de la première découverte de la molécule à sa mise à disposition pour les patients. Si nous prenons le cas de la France, lorsque le médicament possède son AMM, il faut patienter encore 530 jours en moyenne pour obtenir le prix et le remboursement, qui conditionnent la distribution du médicament en ville ou dans les établissements de santé. Dans ce contexte, pour de nombreux patients atteints de maladies graves dans le monde, il existe une thérapeutique appropriée mais celle-ci n’est pas encore disponible malgré la découverte scientifique effective. Afin de rendre certains médicaments disponibles à un stade plus précoce et d'optimiser leur développement en Europe, des procédures d’accès dérogatoire à l’AMM peuvent-être mises en place. Le statut d’ATU est ainsi apparu en France en 1992. Ce dispositif permettait à des patients en situation d'impasse thérapeutique et lorsque les données disponibles sur le médicament en ATU suggéraient un bénéfice réel pour ces patients au regard des risques, d’avoir recours au traitement avant sa mise sur le marché. Par la réforme du 1er juillet 2021, le système des ATU a été remplacé par celui de l’accès compassionnel et de l’accès précoce. Au cours de cette thèse, je décrirai dans un premier temps le cadre européen de l’usage compassionnel. Dans un second temps, j’aborderai le cadre législatif français, en détaillant plus particulièrement l’ancien système des ATU de cohorte et ses limites, qui ont conduit à la réforme en 2021. Enfin, je présenterai les accès dérogatoires actuellement en vigueur, notamment l’accès précoce.
|
|
Chimie moléculaire
/ 19-12-2023
Alleman Cécile
Voir le résumé
Voir le résumé
Les interactions protéine – protéine (IPP) sont essentielles à la régulation des phénomènes cellulaires. Elles impliquent deux partenaires : une protéine adaptatrice et une protéine effectrice, cette dernière étant régulée positivement ou négativement. Bien que l’inhibition des IPPs constitue une approche thérapeutique solide, la stabilisation reste encore peu étudiée, mais pourrait mener à de nouvelles modalités prometteuses. Ce projet se concentre sur la famille de protéines adaptatrices 14-3-3 qui interagit avec plus de 200 partenaires. Parmi eux, la protéine p53 est l’objet de multiples recherches dû à sa fonction régulatrice clé de nombreux processus biologiques (réparation de l’ADN, apoptose). Ces fonctions majeures sont cependant altérées dans la moitié des cancers, favorisant ainsi le développement tumoral. Des études préliminaires ont montré que la stabilisation de l’interaction entre p53 et 14-3-3 à l’aide d’une colle moléculaire permettait de restaurer l’activité antitumorale de p53. Parmi ces colles moléculaires, la fusicoccine-A (FC-A) se localise dans la vallée formée par 14-3-3 et permet d’augmenter la stabilisation du complexe protéique. Dans ce contexte, ce projet se concentre sur l’accès à des analogues simplifiés de la FC-A à travers la synthèse de squelettes tricycliques afin d’élargir la librairie de colles moléculaires. Des analogues [6-8-5] à partir d’un substrat aromatique sont envisagés, ainsi que des analogues [5-8-5] à partir d’un dérivé cyclopentane, plus proches de la structure cible. Différentes stratégies de synthèse ont été explorées afin d’accéder à ces analogues.
|
|
Informatique
/ 24-03-2023
Allenet Thibault
Voir le résumé
Voir le résumé
Les réseaux de neurones convolutifs et les réseaux neurones récurrents (RNN) ont été largement utilisés dans de nombreux domaines tels que la vision par ordinateur, le traitement naturel du langage et le traitement du signal. Néanmoins, la charge de calcul et le besoin en bande passante mémoire impliqués dans l'inférence des réseaux de neurones profonds empêchent souvent leur déploiement sur des cibles embarquées à faible ressources. De plus, la vulnérabilité des réseaux de neurones profonds à de petites perturbations sur les entrées remet en question leur déploiement pour des applications impliquant des décisions de haute criticité. Pour relever ces défis, cette thèse propose deux principales contributions. D'une part, nous proposons des méthodes de compression pour rendre les réseaux de neurones profonds plus adaptés aux systèmes embarqués ayant de faibles ressources. D'autre part, nous proposons une nouvelle stratégie pour rendre les réseaux de neurones profonds plus robustes aux attaques adverses en tenant compte des ressources limitées des systèmes embarqués. Dans un premier temps, nous présentons une revue de la littérature sur des principes et des outils de bases de l'apprentissage profond, des types de réseaux de neurones reconnus et un état de l'art sur des méthodes de compression de réseaux de neurones. Ensuite, nous présentons deux contributions autour de la compression des réseaux de neurones profonds : une étude de transférabilité du Lottery Ticket sur les RNN et une méthode de quantification à l’apprentissage. L’étude de transférabilité du Lottery Ticket sur les RNN analyse la convergence des RNN et étudie son impact sur l'élagage des paramètres pour des taches de classification d'images et de modélisation du langage. Nous proposons aussi une méthode de prétraitement basée sur le sous-échantillonnage des données qui permet une convergence plus rapide des LSTM tout en préservant les performances applicatives. Avec la méthode Disentangled Loss Quantization Aware Training (DL-QAT), nous proposons d'améliorer une méthode de quantification avancée avec des fonctions de coût favorables à la quantification afin d'atteindre des paramètres binaires. Les expériences sur ImageNet-1k avec DL-QAT montrent une amélioration de près de 1 % sur la précision du score de ResNet-18 avec des poids binaires et des activations de 2 bits. Il apparaît clairement que DL-QAT fournit le meilleur profil du compromis entre l'empreinte mémoire et la performance applicative. Ce travail étudie ensuite la robustesse des réseaux de neurones face aux attaques adverses. Après avoir présenté l'état de l'art sur les attaques adverses et les mécanismes de défense, nous proposons le mécanisme de défense Ensemble Hash Defense (EHD). EHD permet une meilleure résistance aux attaques adverses basées sur l'approximation du gradient tout en préservant les performances de l'application et en ne nécessitant qu'une surcharge de mémoire au moment de l'inférence. Dans la meilleure configuration, notre système réalise des gains de robustesse significatifs par rapport aux modèles de base et à une approche de robustesse basée sur la fonction de coût. De plus, le principe de l'EHD la rend complémentaire à d'autres méthodes d'optimisation robuste qui permettraient d'améliorer encore la robustesse du système final. Dans la perspective de l'inférence sur cible embarquée, la surcharge mémoire introduite par l'EHD peut être réduite par la quantification ou le partage de poids. En conclusion, les travaux de cette thèse ont proposé des méthodes de compression de réseaux de neurones et un système de défense pour résoudre des défis importants, à savoir comment rendre les réseaux de neurones profonds plus robustes face aux attaques adverses et plus faciles à déployer sur les plateformes à ressources limitées. Ces travaux réduisent davantage l'écart entre l'état de l'art des réseaux neurones profonds et leur exécution sur des cibles embarquées à faible ressources.
|
|
Informatique
/ 12-12-2023
Amalou Abderaouf Nassim
Voir le résumé
Voir le résumé
L'estimation du temps d'exécution des programmes est une tâche clé mais difficile, rendue encore plus complexe par la croissance de la complexité et l'insuffisance de la documentation des architectures de processeurs modernes. Bien que les méthodes traditionnelles comme les simulateurs précis au cycle soient exactes, elles sont également longues et nécessitent une compréhension approfondie de l'architecture du processeur. Pour aborder ces limitations, une nouvelle approche basée sur les données et utilisant des techniques d'apprentissage automatique a été développée. Cependant, bien que les modèles d'apprentissage automatique existants offrent des estimations rapides, ils sont principalement adaptés à des architectures simples avec des temps d'instruction constants. Ce document vise à développer de nouvelles méthodes d'apprentissage automatique pour des processeurs complexes et non documentés en introduisant la prise en compte du contexte dans les modèles de timing basés sur l'apprentissage automatique. Une approche novatrice traitant les séquences d'instructions comme un langage naturel et emploie des algorithmes d'apprentissage automatique avancés tels que les réseaux Long Short-Term Memory et les Transformers. Ceci permet au modèle de prendre en compte des caractéristiques complexes telles que les effets de cache et de pipeline, améliorant la précision pour les temps d'exécution moyens et pires cas.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|