Tri :
Date
Titre
Auteur
|
|
Informatique
/ 30-09-2013
Abdou Arbi Oumarou
Voir le résumé
Voir le résumé
Nous développons une approche générique pour comprendre comment différents régimes alimentaires peuvent influencer la qualité et la composition du lait. Cette question s'intègre dans le cadre du Flux Balance Analysis (FBA), qui consiste à analyser un réseau métabolique en optimisant un système de contraintes linéaires. Nous avons proposé une extension du FBA pour analyser la transformation des nutriments en intégrant des hypothèses biologiques utilisées par différents modèles numériques dans un modèle générique de la glande mammaire. Notre méthode permet de quantifier les précurseurs qui interviennent dans la composition des sorties du système, en calculant des contributions des entrées dans les sorties [AIO]. A l'aide de cette approche, nous avons montré que la transformation des nutriments du lait ne peut pas être modélisée par l'optimisation d'une combinaison linéaire des flux des réactions sur un modèle du métabolisme mammaire. Pour étudier plus précisément la flexibilité d'un réseau métabolique, nous avons proposé un algorithme efficace de recherche locale pour calculer les valeurs extrémales des coefficients des AIOs. Cette approche permet de discriminer les traitements sans formuler d'hypothèses sur le comportement interne du système.
|
|
Chimie
/ 30-09-2013
Latouche Camille
Voir le résumé
Voir le résumé
Les travaux décrits dans cette thèse ont porté sur l'application de méthodes de la chimie quantique à l'étude de différents types et familles de composés chimiques, à savoir, des clusters encapsulant des anions et des complexes inorganiques de métaux de transition. On s'est particulièrement intéressé à la structure géométrique, la structure électronique et aux relations structures-propriétés optiques de systèmes moléculaires stables et bien caractérisés.
|
|
Sciences des matériaux
/ 26-09-2013
Toupin Perrine
Voir le résumé
Voir le résumé
Cette thèse est dédiée à l’élaboration de fibres optiques microstructurées en verre de chalcogénure. Ces verres présentent un large domaine de transparence dans l’infrarouge et des propriétés optiques non-linéaires importantes. Les fibres optiques microstructurées sont composées d’un arrangement périodique de trous d’air s’étalant le long de l’axe de la fibre. Elles possèdent ainsi des propriétés de propagation originales qui suscitent un grand intérêt dans la communauté scientifique. La possibilité de mettre les verres de chalcogénure sous forme de MOFs offre de nombreuses applications potentielles en optique passive et en optique active. Nous nous sommes intéressés à plusieurs d’entres elles. Ces travaux s’articulent en effet autour de trois objectifs majeurs : le transport de puissance dans les fenêtres de transparence atmosphériques II et III, la réalisation d’un capteur chimique et la conversion de longueurs d’onde par des effets non-linéaires. Les compositions sélectionnées pour élaborées les fibres (As38Se62, As40S60, Te20As30Se50 et Ge10As22Se68) ont fait l’objet d’une recherche approfondie de manière à trouver des méthodes de purifications adéquates pour obtenir des fibres présentant de très faibles pertes optiques. Les MOFs obtenues à partir des verres purifiés présentent des pertes inférieures au dB/m sur une grande gamme de longueur d’onde. De tels résultats permettent d’assurer le transport de moyenne puissance dans les bandes II et ou III selon la fenêtre de transmission de ces verres. Concernant la réalisation d’un capteur dans l’infrarouge, une nouvelle géométrie de fibre a été élaborée. Elle consiste en une fibre dont le cœur est partiellement exposé à l’environnement extérieur grâce à la présence d’une fente le long de l’axe de la fibre. Les essais de détection de liquides réalisés sont concluants, les résultats montrent que la fibre à cœur exposé conçue est plus sensible qu’une fibre monoindice présentant un diamètre deux fois plus petit. Un petit diamètre de cœur est un paramètre recherché afin d’exacerber les effets non-linéaires. Ainsi deux géométries de fibres ont été sélectionnées pour fabriquer les fibres destinées à générer des effets non-linéaires : les fibres multimodes à cœur suspendu (Øc<3µm) et les fibres monomodes à trois couronnes de trous (Øc<5µm). Les propriétés non-linéaires des fibres élaborées ont été analysées à l’ONERA et au laboratoire FOTON. A la vue de l’ensemble des résultats, le caractère monomode permet d’obtenir des supercontinuums plus réguliers dans la fenêtre 3-5µm et semble indispensable pour les conversions de longueurs d’onde à 1,55µm. Les fibres réalisées ont permis d’obtenir des conversions de longueurs d’onde à un taux supérieur à 170Gb/s, de démultiplexer un signal à 170,8Gb/s et de réaliser un laser à fibre Brillouin présentant des seuils de déclenchement de puissance très bas.
|
|
Droit
/ 18-09-2013
Grenier françois
Voir le résumé
Voir le résumé
L’ensemble de la doctrine s’accorde pour dire que la cession de droits sociaux est une opération complexe faisant appel à de nombreuses notions juridiques et financières. Ce faisant, même s’il s’agit simplement de transférer les droits sociaux ou le pouvoir de la société par l’intermédiaire d’une telle opération, le législateur a rendu cette opération difficile par l’utilisation de termes inappropriés. De plus la jurisprudence inconsistante, et quelquefois imprécise sur certains points de ce sujet à rendue cette opération très discutée. L’un des points essentiels de la cession de droits sociaux concernent le prix et la valeur de ces droits. Le législateur impose des conditions à ce prix et il n’est pas facile pour les parties à l’opération de remplir ces critères légaux. L’opération d’expertise du prix dans une cession de droits sociaux est l’opération permettant de dire le prix des droits sociaux, une opération permettant de remplir l’ensemble des critères juridiques et financiers d’une cession, tout en protégeant les intervenants. Cependant, il nous semble difficile pour les parties d’être juge et parties à une telle opération. C’est la raison pour laquelle les parties doivent avoir recours à un tiers estimateur pour effectuer cette opération d’expertise dont la mission sera, d’une part, de remplir les critères légaux concernant le prix et, d’autre part, d’évaluer financièrement la valeur des droits sociaux dans toutes les situations
|
|
Biologie et sciences de la santé
/ 17-09-2013
Naudet Florian
Voir le résumé
Voir le résumé
Les antidépresseurs sont les traitements pharmacologiques de choix de la dépression. Pourtant devant un nombre non négligeable d’études « négatives » et l’absence d’efficacité dans les dépressions peu sévères, la question de leur utilité reste controversée. Cette controverse présuppose que l’efficacité des antidépresseurs se mesure facilement. Pourtant, comme dans toute expérience, le dispositif expérimental peut influencer le résultat mis en évidence. L’objectif de cette thèse est justement d’explorer l’incidence de la procédure expérimentale sur l'effet mesuré des pharmacothérapies antidépressives. Est-ce que leur efficacité mesurée dans les études randomisées reflète leur effectivité (dans la « vraie vie ») ? Pour répondre à cette question, nous avons conduit une méta-analyse d’un large panel d’études de méthodologies très différentes. Une méta-régression a été réalisée pour modéliser la réponse au traitement en fonction des caractéristiques des études. Elle a permis de mettre en évidence 1/ une réponse supérieure dans les essais randomisés par rapport aux études observationnelles (possiblement plus représentatives de la « vraie vie »); 2/ une variation de la réponse en fonction de la durée de l’étude, du nombre de visites de suivi, de la population de patients inclus, du type d’analyse choisie, de la possibilité d’avoir un placebo et du design en aveugle. Une revue de la littérature apporte ensuite une perspective qualitative à la question posée. L’objectif était de décrire les dispositifs expérimentaux actuellement utilisés ou envisageables dans l’évaluation des antidépresseurs. La revue de la littérature 1/ a permis de préciser les limites des études actuelles en termes de validité interne (mesure des critères de jugement, attrition, levée de l’aveugle importance de la réponse placebo) et externe (difficultés majeures de généralisations des études); 2/ conduit à proposer une évaluation multimodale des antidépresseurs dans laquelle les études observationnelles auraient toute leur place. La question de la mesure est ensuite abordée à travers des simulations. Après avoir exploré l’impact du dispositif expérimental au niveau de l’essai en soi, le phénomène est analysé à un niveau plus global. Le choix a été fait d’un raisonnement par l’absurde, sur le terrain de la « comparative effectiveness ». L’objectif était de comparer les placebos d’antidépresseurs grâce à une méta-analyse en réseau. Ces comparaisons indirectes n’ont pas permis de mettre en évidence de différence entre placebos d’antidépresseurs. Un biais de publication a pu être mis en évidence et empêche de conclure formellement sur un résultat pourtant évident. Ce résultat ouvre une discussion sur le degré de confiance que l’on peut apporter à ce que l’on considère généralement comme des preuves scientifiques de l’effectivité de nos pratiques. Nos résultats impliquent un nouvel éclairage à la controverse sur les antidépresseurs en replaçant le débat sur le terrain épistémologique.
|
|
Informatique
/ 12-09-2013
Gudmundsson Gylfi
Voir le résumé
Voir le résumé
Les volumes de données multimédia ont fortement crus ces dernières années. Facebook stocke plus de 100 milliards d'images, 200 millions sont ajoutées chaque jour. Cela oblige les systèmes de recherche d'images par le contenu à s'adapter pour fonctionner à ces échelles. Les travaux présentés dans ce manuscrit vont dans cette direction. Deux observations essentielles cadrent nos travaux. Premièrement, la taille des collections d'images est telle, plusieurs téraoctets, qu'il nous faut obligatoirement prendre en compte les contraintes du stockage secondaire. Cet aspect est central. Deuxièmement, tous les processeurs sont maintenant multi-cœurs et les grilles de calcul largement disponibles. Du coup, profiter de parallélisme et de distribution semble naturel pour accélérer tant la construction de la base que le débit des recherches par lots. Cette thèse décrit une technique d'indexation multidimensionnelle s'appelant eCP. Sa conception prend en compte les contraintes issues de l'usage de disques et d'architectures parallèles et distribuées. eCP se fonde sur la technique de quantification vectorielle non structurée et non itérative. eCP s'appuie sur une technique de l'état de l'art qui est toutefois orientée mémoire centrale. Notre première contribution se compose d'extensions destinées à permettre de traiter de très larges collections de données en réduisant fortement le coût de l'indexation et en utilisant les disques au mieux. La seconde contribution tire profit des architectures multi-cœurs et détaille comment paralléliser l'indexation et la recherche. Nous évaluons cet apport sur près de 25 millions d'images, soit près de 8 milliards de descripteurs SIFT. La troisième contribution aborde l'aspect distribué. Nous adaptons eCP au paradigme Map-Reduce et nous utilisons Hadoop pour en évaluer les performances. Là, nous montrons la capacité de eCP à traiter de grandes bases en indexant plus de 100 millions d'images, soit 30 milliards de SIFT. Nous montrons aussi la capacité de eCP à utiliser plusieurs centaines de cœurs.
|
|
Traitement du signal et télécommunications
/ 28-08-2013
Jurczuk Krzysztof
Voir le résumé
Voir le résumé
L'objet de cette thèse est la modélisation computationnelle de l'Imagerie par Résonance Magnétique (IRM), appliquée à l'imagerie des réseaux vasculaires. Les images sont influencées par la géométrie des vaisseaux mais aussi par le flux sanguin. Par ailleurs, outre la qualité des modèles développés, il est important que les calculs soient performants. C'est pourquoi, le calcul parallèle est utilisé pour gérer ce type de problèmes complexes. Dans cette thèse, trois solutions sont proposées. La première concerne les algorithmes parallèles pour la modélisation des réseaux vasculaires. Des algorithmes dédiés à différentes architectures sont proposés. Le premier est basé sur le modèle de « passage de messages » pour les machines à mémoires distribuées. La parallélisation concerne l'irrigation de nouvelles zones de tissu par les vaisseaux existants. Le deuxième algorithme est dédié aux machines à mémoire partagée. Il parallélise également le processus de perfusion mais des processeurs différents se chargent de gérer les différents arbres vasculaires. Le troisième algorithme est une combinaison des approches précédentes offrant une solution pour les architectures parallèles hybrides. Les algorithmes proposés permettent d'accélérer considérablement la croissance des réseaux vasculaires complexes, ce qui rend possible la simulation de structures vasculaires plus précises, en un temps raisonnable et aide à améliorer le modèle vasculaire et à tester plus facilement différents jeux de paramètres. Une nouvelle approche de modélisation computationnelle des flux en IRM est également proposée. Elle combine le calcul de flux par la méthode de Lattice Boltzmann, la simulation IRM par le suivi temporel de magnétisations locales, ainsi qu'un nouvel algorithme de transport des magnétisations. Les résultats montrent qu'une telle approche intègre naturellement l'influence du flux dans la modélisation IRM. Contrairement aux travaux de la littérature, aucun mécanisme additionnel n'est nécessaire pour considérer les artéfacts de flux, ce qui offre une grande facilité d'extension du modèle. Les principaux avantages de cette méthode est sa faible complexité computationnelle, son implémentation efficace, qui facilitent le lancement des simulations en utilisant différents paramètres physiologiques ou paramètres d'acquisition des images. La troisième partie du travail de thèse a consisté à appliquer le modèle d'imagerie de flux à des réseaux vasculaires complexes en combinant les modèles de vaisseaux, de flux et d'acquisition IRM. Les algorithmes sont optimisés à tous les niveaux afin d'être performants sur des architectures parallèles. Les possibilités du modèle sont illustrées sur différents cas. Cette démarche de modélisation peut aider à mieux interpréter les images IRM grâce à l'intégration, dans les modèles, de connaissances variées allant de la vascularisation des organes jusqu'à la formation de l'image en passant par les propriétés des flux sanguins.
|
|
Chimie
/ 27-08-2013
Klitzke Joice
Voir le résumé
Voir le résumé
Dans ce travail, une nouvelle série de complexes d'Al(III) portant des ligands tridentates pyridine-bis(naphtolate) ortho-substitués ({ONOSiR3}2-, SiR3 = SiPh3, SiMe2tBu) et deux complexes d´Y(III) portant un nouveau ligand tridentate pyridine-bis(phénolate) ortho-substitués avec un group cumyle {ONOMe,Cumyl}2- ont été préparés. Leurs structures ont été élucidées à l'état solide par une étude de diffraction des rayons X et en solution par la spectroscopie par résonance magnétique multinucléaire. Des études préliminaires sur les performances catalytiques des complexes d'Al(III) et d'Y(III) dans la ROP du rac-lactide et de la β-butyrolactone sont décrits. D'autres études ont été aussi reportées sur des réactions en utilisant des quantités stoechiométriques des lactides avec des complexes homochiraux Al(III)-lactate ou Al(III){β-alkoxy ester} dont sont des complexes modèles des premiers intermédiaires et des espèces actives impliquées dans les étapes d´initiation et de propagation de la polymérisation de lactides et β-lactones.
|
|
Informatique
/ 22-07-2013
Fu Zhoulai
Voir le résumé
Voir le résumé
Si la production de logiciel fiable est depuis longtemps la préoccupation d'ingénieurs, elle devient à ce jour une branche de sujets de recherche riche en applications, dont l'analyse statique. Ce travail a porté sur l'analyse statique de programmes et, plus précisément, sur l'analyse des propriétés numériques. Ces analyses sont traditionnellement basées sur le concept de domaine abstrait. Le problème est que, ce n'est pas évident d'étendre ces domaines dans le contexte de programmes avec pointeurs. Nous avons proposé une approche qui sait systématiquement combiner ces domaines avec l'information de l'analyse de points-to (une sorte d'analyse de pointeurs). L'approche est formalisée en théorie de l'interprétation abstraite, prouvée correct et prototypée avec une modular implémentation qui sait inférer des propriétés numériques des programmes de millions de lignes de codes. La deuxième partie de la thèse vise à améliorer la précision de l'analyse points-to. Nous avons découvert que l'analyse de must-alias (qui analyse si deux variables sont nécessairement égaux) peut servir à raffiner l'analyse points-to. Nous avons formalisé cette combinaison en s'appuyant sur la notion de bisimulation, bien connue en vérification de modèle ou théorie de jeu... Un algorithme de complexité quadruple est proposé et prouvé correct.
|
|
Biologie
/ 18-07-2013
Andrieux Geoffroy
Voir le résumé
Voir le résumé
La signalisation cellulaire regroupe l'ensemble des mécanismes biologiques permettant à une cellule de répondre de façon adaptée à son microenvironnement. Pour ce faire, de nombreuses réactions biologiques entrent en jeux avec un important enchevêtrement, créant ainsi un réseau dont le comportement s'apparente à un système complexe. Le compréhension de la réponse cellulaire à une stimulation passe par le développement conjoint des techniques d'acquisition de données, et des méthodes permettant de formaliser ces données dans un modèle. C'est sur ce dernier point que s'inscrivent les travaux exposés dans cette thèse. Nous présentons ici deux approches visant à répondre à des questions de natures différentes sur la signalisation cellulaire. Dans la première nous utilisons un modèle différentiel pour étudier le rôle d'un nouvel interactant dans la voie canonique du TGF-β. Dans la seconde nous avons exploré la combinatoire de la signalisation cellulaire en développant un formalisme discret basé sur les transitions gardées. Cette approche regroupe l'interprétation de la base de données Pathway Interaction Database dans un unique modèle dynamique de propagation du signal. Des méthodes de simulations et d'analyses inspirées des techniques de vérification de modèles telles que l'atteignabilité et l'invariance ont été développées. En outre, nous avons étudié la régulation du cycle cellulaire en réponse à la signalisation, ainsi que la régulation des gènes de notre modèle en comparaison avec des données d'expressions.
|
|