|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Chimie
/ 03-12-2015
Roşca Sorin-Claudiu
Voir le résumé
Voir le résumé
L'addition catalysée des amines ou phosphines sur des substrats insaturés (alcènes, alcynes ou allènes) constitue une méthode efficace pour la production d’amines et phosphines à hautes valeurs ajoutées. Pour ces réactions, les complexes hétéroleptiques des métaux alcalino-terreux ont émergé comme des précatalyseurs effi caces. Cette thèse décrit la synthèse de complexes des alcalino-terreux supportés par des ligands aminoalcoolates fluorés de type [{RO}AeN(SiMe2H)2] ({RO} = aminoalcoolate fluoré; Ae = Ca, Sr). Des études par diffraction de rayons X montrent que ces complexes utilisent des interactions Ae···F–C and β-Si–H···Ae pour être cinétiquement inertes. Étonnamment, la somme de ces interactions non-covalentes dites secondaires est prédominante par rapport à la coordination d'éthers sur le centre métallique. En outre, les ligands aminoalcoolates fluorés ont été utilisés pour préparer de rares exemples de complexes Ae hétéroleptiques impliquant la coordination intramoléculaire de donneurs d'électrons π (i.e. alcènes et alcynes). Ainsi, pour la première fois, des complexes Ae stabilisés par des combinaisons d’interactions Ae···Cπ, Ae···F−C et β-Si−H···Ae ont été synthétisés. La nature de ces interactions a été sondée par des moyens spectroscopiques, cristallographiques et calculatoires (DFT). En revanche, nos efforts pour obtenir des complexes Ca–aryles ont conduit à la formation de complexes trinucléaires originaux présentant des interactions secondaires β-Si-H···Ca extrêmement fortes. Certains de ces complexes de calcium ont ensuite été testés en catalyse d’hydrophosphination du styrène avec la diphénylphosphine. Ils ont démontré des activités remarquables (TOF ≈ 50 h−1) en conditions douces, ainsi qu’une régiosélectivité de 100% vers la formation du produit d'addition anti-Markovnikov. En collaboration avec le Pr. M. Etienne et le Dr C. Dinoi du Laboratoire de Chimie de Coordination (Toulouse), un précatalyseur hétéroleptique de calcium supporté par un ligand tris(indazolyl)borate fluoré a été utilisé pour l’hydroamination intramoléculaire du 2,2-diméthylpent-4-en-1-amine, et a fait preuve d’une activité catalytique parmi les plus élevées à ce jour.
|
|
Biologie
/ 26-06-2015
Blaszczak Ewa Katarzyna
Voir le résumé
Voir le résumé
L'ubiquitylation des protéines est une modification post-traductionnelle qui joue un rôle capital dans la régulation des nombreuses fonctions cellulaires, y compris la croissance cellulaire et la prolifération. Les dysfonctionnements de ce mécanisme sont à l'origine de diverses maladies telles que le cancer par exemple. Le processus d'ubiquitylation implique une série des réactions enzymatiques en cascade, catalysées par une famille des enzymes, structuralement très proches. Cette famille est composée des enzymes activateurs d'ubiquitine (E1s), des enzymes de conjugaison d'ubiquitine (E2s) et des ligases d'ubiquitine (E3s). Les interactions entre E2s et E3s sont dans le centre de la cascade d'ubiquitylation. Une combinaison particulière des pairs E2/E3 va déterminer le type de chaînes d'ubiquitine qui seront attachées à la protéine d'intérêt pour ensuite déterminer la fonction régulatrice de la voie d'ubiquitylation. A ce jour, seulement une petite fraction de paires possibles entre E2 et E3 a été investiguée par des approches biochimiques et in vitro. Cependant ces approches ne reflètent pas forcément des conditions qu'on trouve dans une cellule vivante. Prenant ceci en considération, les principales objectives de ma thèse seront comme suit : identifier et optimiser une méthode de détection et de quantification des interactions E2/E3 dans une cellule vivante de la levure de boulanger (Saccharomyces cerevisiae) ; construire une bibliothèque de souches de la levure qui permettrait d'établir des interactions entre E2 et E3 ; chercher de nouvelles potentielles paires E2/E3 ; caractériser fonctionnellement une potentielle paire E2/E2. Il est difficile de trouver une méthodologie appropriée afin d'étudier les interactions entre E2 et E3 parce qu'ils sont relativement faibles et transitoires. Leurs études nécessitent donc des techniques de détection avec une grande sensibilité. Parmi différentes techniques nous avons testé et choisi la complémentation bimoléculaire de la fluorescence, BiFC. Kurtosis, une mesure permettant localiser et quantifier la fluorescence BiFC-spécifique. Nos résultats nous nous avons permis à identifier 117 putatives paires E2/E3 parmi quels, 23 paires ont été déjà décrit dans la littérature. Parmi 94 nouvelles paires, certains E3s interagissent avec seulement une seule E2 ou d'autres donnent un signal BiFC avec plusieurs E2s. Ubc13, Ubc1 et Ubc4 sont les E2s qui interagissent le plus souvent. Nous avons identifié aussi une interaction entre les protéines Asi1 et Asi3 et les enzymes de conjugaison d'ubiquitine Ubc6 et Ubc7. Asi1 et 3 sont connus de former un complexe Asi1/3 sur la membrane intérieure du noyau impliqué dans la réponse de la cellule aux acides aminés extracellulaires. Ces protéines contiennent un domaine RING caractéristique pour les ligases d'ubiquitine mais cette activité n'était pas démontrée auparavant.
|
|
Biologie
/ 15-09-2015
Prieur Jacques
Voir le résumé
Voir le résumé
Nous avons étudié la latéralité gestuelle intraspécifique de chimpanzés et de gorilles captifs dans des contextes socio-écologiques proches des conditions naturelles de vie. Nous avons montré que les chimpanzés et les gorilles étudiés présentaient un biais populationnel pour la main droite pour la majorité des gestes les plus fréquents de leur répertoire. Par la mise en oeuvre d’une approche multifactorielle, nous avons montré pour la première fois que la latéralité gestuelle intraspécifique de ces primates était influencée par plusieurs facteurs et par leurs interactions: contexte de l’interaction (champs visuels de l’émetteur et du récepteur et contexte émotionnel), caractéristique du geste (modalité sensorielle, utilisation d'un outil de communication, degré de partage et durée du geste) et par certaines composantes sociodémographiques, particulièrement le rang hiérarchique de l’émetteur et son âge dans une moindre mesure. De plus, nous avons comparé la latéralité manuelle des chimpanzés lors de l'utilisation d'outil pour des actions non-communicatives et des gestes intraspécifiques. Notre analyse multifactorielle suggère que l’utilisation d’outil dans les gestes serait plus contrôlée par l'hémisphère cérébral gauche que l’utilisation d’outil dans des actions non-communicatives. Globalement, nos résultats vérifient le modèle de Ghirlanda et collègues (2009) selon lequel les biais de latéralité au niveau populationnel pourraient être expliqués par une stratégie évolutive stable basée sur les interactions intraspécifiques. Nos résultats sont également en accord avec les études mettant en évidence l'utilisation préférentielle de la main droite pour la communication gestuelle des primates non humains et suggérant que la latéralité gestuelle serait un précurseur de la spécialisation hémisphérique gauche pour le langage. En outre, nos résultats confortent l'hypothèse que certaines espèces de primates pourraient avoir un traitement spécifique de l’hémisphère gauche pour les gestes communicatifs distinct de celui des actions manuelles non-communicatives. Du point de l’évolution, nos résultats soulignent l’importance d’étudier en détail la latéralité intraspécifique en considérant des espèces de différents degrés de socialité et en prenant en compte des contextes socioécologiques proches des conditions naturelles ainsi que de multiples facteurs potentiellement influents.
|
|
Informatique
/ 18-03-2015
Stainer Julien
Voir le résumé
Voir le résumé
Cette thèse étudie ce qui peut-être calculé dans des systèmes composés de multiple ordinateurs communicant par messages ou partageant de la mémoire. Les modèles considérés prennent en compte la possibilité de défaillance d'une partie de ces ordinateurs ainsi que la variabilité et l'hétérogénéité de leurs vitesses d'exécution. Les résultats présentés considèrent principalement les problèmes d'accord, les systèmes sujets au partitionnement et les détecteurs de fautes. Ce document établis des relations entre les modèles itérés connus et la notion de détecteur de fautes. Il présente une hiérarchie de problèmes généralisant l'accord k-ensembliste et le consensus s-simultané. Une nouvelle construction universelle basée sur des objets consensus s-simultané ainsi qu'une famille de modèles itérés autorisant plusieurs processus à s'exécuter en isolation sont introduites.
|
|
Physique
/ 29-10-2015
Mhanna Ramona
Voir le résumé
Voir le résumé
Le travail de cette thèse vise à contrôler la formation d’une structure fortement ordonnée à l’échelle supramoléculaire d'un liquide associé, par dilution dans un liquide aprotique, ou par confinement dans un silicate mésoporeux (MCM-41, SBA-15). Dans le volume, une forte perturbation du mélange idéal représentée en termes de regroupement entre les espèces similaires est observée par la diffusion de neutrons aux petits angles. Sous confinement, un phénomène remarquable de nanoségrégation des mélanges dans les pores conduit à des structures concentriques tubulaires de type coeur-gaine, ce qui est surprenant pour les systèmes binaires macroscopiquement homogène et entièrement miscibles. La dynamique moléculaire de ces nanostructures originales est étudiée par diffusion quasiélastique de neutrons dans le liquide et les états vitreux, révélant différents types de modes de relaxation sous confinement et étant fortement dépendant de la concentration. L’étiquetage isotopique HD des composants des mélanges fournit un point de vue global unique sur les propriétés de ces liquides binaires confinés. Ceci permet d’établir une corrélation directe entre les hétérogénéités dynamiques spatialement distinctes et la formation de nanostructures d'enveloppe de base d'origine induites par des interactions préférentielles.
|
|
Informatique
/ 08-12-2015
Mansour Salwa
Voir le résumé
Voir le résumé
L'étude du transfert de chaleur et de masse dans les milieux poreux saturés et insaturés fortement chauffés à leur surface possèdent de nombreuses applications, notamment en archéologie, en agriculture et en géothermie. La première partie de ce travail concerne l'amélioration de la méthode AHC (Accumulation de chaleur latente) qui permet de traiter le changement de phase, dans un milieu homogène : l'intervalle de changement de température au moment du changement de phase apparaît comme un paramètre important, et il doit être choisi proportionnel à la taille des mailles. Des résultats à la fois précis et lisses sont obtenus grâce à un raffinement du maillage localisé près de l'interface de changement de phase. La deuxième partie se rapporte à l'estimation des propriétés thermophysiques du sol par problème inverse à l'aide de données à la fois synthétiques et expérimentales. La méthode de Gauss-Newton avec relaxation et l'algorithme de Levenberg-Marquardt sont utilisés pour résoudre le problème inverse. Le choix de l'intervalle de température de la méthode AHC apparaît crucial : la convergence n'est obtenue parfois qu'au prix d'un enchaînement de plusieurs problèmes inverses. La troisième partie présente un modèle simple pour calculer la conductivité thermique effective d'un milieu granulaire contenant une faible quantité d'eau liquide. La forme exacte de ces ménisques est calculée à l'équilibre. Les résultats montrent un phénomène très net d'hystérésis quand on étudie la variation de la conductivité thermique effective en fonction de la quantité d'eau liquide ; un futur travail concernant un nouveau modèle insaturé, limité au cas du régime pendulaire et présenté à la fin de cette thèse, devrait pouvoir utiliser ces résultats.
|
|
Traitement du signal et télécommunications
/ 26-11-2015
Kitic Srdan
Voir le résumé
Voir le résumé
Les problèmes inverses liés à des processus physiques sont d'une grande importance dans la plupart des domaines liés au traitement du signal, tels que la tomographie, l'acoustique, les communications sans fil, le radar, l'imagerie médicale, pour n'en nommer que quelques uns. Dans le même temps, beaucoup de ces problèmes soulèvent des défis en raison de leur nature mal posée. Par ailleurs, les signaux émanant de phénomènes physiques sont souvent gouvernées par des lois s'exprimant sous la forme d'équations aux dérivées partielles (EDP) linéaires, ou, de manière équivalente, par des équations intégrales et leurs fonctions de Green associées. De plus, ces phénomènes sont habituellement induits par des singularités, apparaissant comme des sources ou des puits d'un champ vectoriel. Dans cette thèse, nous étudions en premier lieu le couplage entre de telles lois physiques et une hypothèse initiale de parcimonie des origines du phénomène physique. Ceci donne naissance à un concept de dualité des régularisations, formulées soit comme un problème d'analyse coparcimonieuse (menant à la représentation en EDP), soit comme une parcimonie à la synthèse équivalente à la précédente (lorsqu'on fait plutôt usage des fonctions de Green). Nous dédions une part significative de notre travail à la comparaison entre les approches de synthèse et d'analyse. Nous défendons l'idée qu'en dépit de leur équivalence formelle, leurs propriétés computationnelles sont très différentes. En effet, en raison de la parcimonie héritée par la version discrétisée de l'EDP (incarnée par l'opérateur d'analyse), l'approche coparcimonieuse passe bien plus favorablement à l'échelle que le problème équivalent régularisé par parcimonie à la synthèse. Nos constatations sont illustrées dans le cadre de deux applications : la localisation de sources acoustiques, et la localisation de sources de crises épileptiques à partir de signaux électro-encéphalographiques. Dans les deux cas, nous vérifions que l'approche coparcimonieuse démontre de meilleures capacités de passage à l'échelle, au point qu'elle permet même une interpolation complète du champ de pression dans le temps et en trois dimensions. De plus, dans le cas des sources acoustiques, l'optimisation fondée sur le modèle d'analyse \emph{bénéficie} d'une augmentation du nombre de données observées, ce qui débouche sur une accélération du temps de traitement, plus rapide que l'approche de synthèse dans des proportions de plusieurs ordres de grandeur. Nos simulations numériques montrent que les méthodes développées pour les deux applications sont compétitives face à des algorithmes de localisation constituant l'état de l'art. Pour finir, nous présentons deux méthodes fondées sur la parcimonie à l'analyse pour l'estimation aveugle de la célérité du son et de l'impédance acoustique, simultanément à l'interpolation du champ sonore. Ceci constitue une étape importante en direction de la mise en œuvre de nos méthodes en en situation réelle.
|
|
Informatique
/ 14-12-2015
Kanellou Eleni
Voir le résumé
Voir le résumé
Actuellement, la majorité des architectures de processeurs sont fondées sur une mémoire partagée avec cohérence de caches. Des prototypes intégrant de grandes quantités de cœurs, reliés par une infrastructure de transmission de messages, indiquent que, dans un proche avenir, les architectures de processeurs vont probablement avoir ces caractéristiques. Ces deux tendances exigent que les processus s'exécutent en parallèle et rendent la programmation concurrente nécessaire. Cependant, la difficulté inhérente du raisonnement sur la concurrence peut rendre ces nouvelles machines difficiles à programmer. Nous explorons trois approches ayant pour but de faciliter la programmation concurrente. Nous proposons WFR-TM, une approche fondé sur la mémoire transactionnelle (TM), un paradigme de programmation concurrente qui utilise des transactions afin de synchroniser l'accès aux données partagées. Une transaction peut soit terminer (commit), rendant visibles ses modifications, soit échouer (abort), annulant toutes ses modifications. WFR-TM tente de combiner des caractéristiques désirables des TM optimistes et pessimistes. Une TM pessimiste n'échoue jamais aucune transaction; néanmoins les algorithmes existants utilisent des verrous pour exécuter de manière séquentielle les transactions qui contiennent des opérations d'écriture. Les algorithmes TM optimistes exécutent toutes les transactions en parallèle mais les terminent seulement si elles n'ont pas rencontré de conflit au cours de leur exécution. WFR-TM fournit des transactions en lecture seule qui sont wait-free, sans jamais exécuter d'opérations de synchronisation coûteuse (par ex. CAS, LL\SC, etc) ou sacrifier le parallélisme entre les transactions d'écriture. Nous présentons également Dense, une implémentation concurrente de graphe. Les graphes sont des structures de données polyvalentes qui permettent la mise en oeuvre d'une variété d'applications. Cependant, des applications multi-processus qui utilisent des graphes utilisent encore largement des versions séquentielles. Nous introduisons un nouveau modèle de graphes concurrents, permettant l'ajout ou la suppression de n'importe quel arc du graphe, ainsi que la traversée atomique d'une partie (ou de l'intégralité) du graphe. Dense offre la possibilité d'effectuer un snapshot partiel d'un sous-ensemble du graphe défini dynamiquement. Enfin, nous ciblons les futures architectures. Dans l'intérêt de la réutilisation du code il existe depuis quelques temps une tentative d'adaptation des environnements d'exécution de logiciel - comme par ex. JVM, l'environnement d'exécution de Java - initialement prévus pour mémoire partagée, à des machines sans cohérence de caches. Nous étudions des techniques générales pour implémenter des structures de données distribuées en supposant qu'elles vont être utilisées sur des architectures many-core, qui n'offrent qu'une cohérence partielle de caches, voir pas de cohérence du tout.
|
|
Informatique
/ 01-06-2015
Essaid Amira
Voir le résumé
Voir le résumé
L'appariement des ontologies est une tâche primordiale pour palier au problème d'hétérogénéité sémantique et ainsi assurer une interopérabilité entre les applications utilisant différentes ontologies. Il consiste en la mise en correspondance de chaque entité d'une ontologie source à une entité d'une ontologie cible et ceci par application des techniques d'alignement fondées sur des mesures de similarité. Individuellement, aucune mesure de similarité ne permet d'obtenir un alignement parfait. C'est pour cette raison qu'il est intéressant de tenir compte de la complémentarité des mesures afin d'obtenir un meilleur alignement. Dans cette thèse, nous nous sommes intéressés à proposer un processus de décision crédibiliste pour l'appariement des ontologies. Étant données deux ontologies, on procède à leur appariement et ceci par application de trois techniques. Les alignements obtenus seront modélisés dans le cadre de la théorie des fonctions de croyance. Des règles de combinaison seront utilisées pour combiner les résultats d'alignement. Une étape de prise de décision s'avère utile, pour cette raison nous proposons une règle de décision fondée sur une distance et capable de décider sur une union d'hypothèses. Cette règle sera utilisée dans notre processus afin d'identifier pour chaque entité source le ou les entités cibles.
|
|
Traitement du signal et télécommunications
/ 16-03-2015
Khuat Quang Hai
Voir le résumé
Voir le résumé
Empilant une couche multiprocesseur (MPSoC) et une couche de FPGA pour former un système sur puce reconfigurable en trois dimension (3DRSoC), est une solution prometteuse donnant un niveau de flexibilité élevé en adaptant l'architecture aux applications visées. Pour une application exécutée sur ce système, l'un des principaux défis vient de la gestion de haut niveau des tâches. Cette gestion est effectuée par le service d'ordonnancement du système d'exploitation et elle doit être en mesure de déterminer, lors de l'exécution de l'application, quelle tâche est exécutée logiciellement et/ou matériellement, quand (dimension temporelle) et sur quelles ressources (dimension spatiale, c'est à dire sur quel processeur ou quelle région du FPGA) pour atteindre la haute performance du système. Dans cette thèse, nous proposons des stratégies d'ordonnancement spatio-temporel pour les architectures 3DRSoCs. La première stratégie décide la nécessité de placer une tâche matérielle et une tâche logicielle en face-à-face afin que le coût de la communication entre tâches soit minimisé. La deuxième stratégie vise à minimiser le temps d'exécution globale de l'application. Cette stratégie exploits la présence de processeurs de la couche MPSoC afin d'anticiper, en temps-réel, l'exécution d'une tâche logicielle quand sa version matérielle ne peut pas être allouée sur le FPGA. Ensuite, un outil de simulation graphique a été développé pour vérifier le bon fonctionnement des stratégies développées et aussi nous permettre de produire des résultats.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|