Tri :
Date
Titre
Auteur
|
|
Droit
/ 11-12-2017
Lemaître Sophie
Voir le résumé
Voir le résumé
Le pétrole, le gaz et les minerais sont des ressources indispensables pour le bon fonctionnement de nos économies et sont très convoitées. Elles sont, en outre, particulièrement propices à l’émergence de flux financiers illicites tels que la corruption, l’évitement fiscal ou encore le blanchiment de capitaux. La prise de conscience relative à l’ampleur des pratiques illicites dans le secteur extractif est relativement récente. Depuis une vingtaine d’années, diverses mesures formant un régime juridique ambitieux ont été adoptées pour endiguer ce phénomène. Malgré l’existence de ce régime juridique, les pratiques illicites perdurent au sein de ce secteur. Les acteurs du secteur extractif, entreprises et agents publics, ont su s’adapter et faire preuve de créativité pour contourner, détourner et manipuler ce régime juridique, afin de préserver leurs avantages et de perpétuer les flux financiers illicites. Ils peuvent également recourir à l’ingénierie juridique et financière qui leur fournit un arsenal d’outils juridiques et mobilise des experts maîtrisant à la perfection l’environnement juridique, politique et financier dans lequel les acteurs du secteur extractif évoluent. Ainsi le droit peut-il être propice aux flux financiers illicites et même au service de ceux-ci tout en voulant les combattre.
|
|
Droit
/ 11-12-2017
Abkoui Meriem
Voir le résumé
Voir le résumé
Le détachement dans le cadre d’une prestation de services est au cœur d’enjeux socio-économiques. La liberté de prestation de services permet aux entreprises établies dans un État membre de l’Union européenne de fournir des services dans d’autres États membres. L’opération de détachement permet à l’entreprise d’affecter ses travailleurs à la réalisation de la prestation de services. Cette opération économique présente des intérêts et des enjeux incontestables pour les travailleurs détachés, pour l’État d’envoi et l’État d’accueil. La libre prestation de services est essentielle au bon fonctionnement du marché intérieur, elle contribue indéniablement à la croissance économique. Le détachement de travailleurs pose la problématique de la protection offerte à ces travailleurs. En effet, l’opération de détachement présente des risques de concurrence entre les travailleurs, de fraude et de dumping social. La protection des travailleurs détachés prévue par la directive « détachement » présente des limites. Des dysfonctionnements majeurs ont été recensés, notamment les sources de protection, les contours de la protection, l’effectivité de la directive et les mesures de contrôle. La directive 96/71 a pour objectif principal de garantir la libre prestation de services. Elle organise le cadre légal des règles applicables au détachement de travailleur avec une dualité de règles. Ce cadre prévoit l’application des règles de l’État d’accueil avec le « noyau dur » de protection et les règles de l’État d’envoi pour les éléments hors du noyau dur. Cette dualité de règles s’est avérée insuffisante et problématique dans certaines situations. La directive « détachement » a été consolidée par la directive d’exécution qui est entrée en vigueur le 28 mai 2014 et dont la transposition a été prévue au plus tard le 18 juin 2016. Celle-ci a pour objectif de renforcer la protection du travailleur détaché, c’est une avancée majeure en matière de détachement, notamment en matière de contrôle de l’application de la directive détachement, de responsabilité du sous-traitant dans le cadre d’une prestation de services, de coopération entre les États membres. La Commission européenne a présenté, le 8 mars 2016, une proposition de directive destinée à mieux définir les conditions de mise en œuvre du détachement des travailleurs. Le détachement nous interroge sur la construction européenne. Précisément, quel avenir pour l’Europe ?
|
|
Biologie et sciences de la santé
/ 11-12-2017
Cavey Thibault
Voir le résumé
Voir le résumé
Les pathologies du métabolisme du fer, dont les surcharges en fer, se caractérisent par une grande variabilité de leur expression phénotypique pour des étiologies similaires. Les mécanismes de cette variabilité ne sont pas pleinement identifiés. L’existence d’interrelations entre le fer et d’autres métaux pourrait y contribuer. L’objectif de ce travail, réalisé chez la souris, a été de préciser les interactions entre le métabolisme du fer et ceux d’autres métaux. Nous avons : i) montré que le fond génétique des souris module le métabolisme d’autres métaux, en sus du fer ; et ii) identifié des liens entre les paramètres de ces métaux en situation physiologique. Nous avons également mis en évidence, dans des modèles de souris surchargées en fer par supplémentation exogène ou bien du fait d’une déficience en hepcidine (le régulateur du métabolisme systémique du fer), un lien fort entre le métabolisme du fer et ceux du molybdène et du manganèse particulièrement au niveau splénique. Ces résultats suggèrent que des mécanismes de régulation, pouvant impliquer de façon directe ou indirecte l’axe hepcidine / ferroportine, pourraient être partagés entre le fer, le molybdène et le manganèse. Le rôle de l’hepcidine devra être précisé. Les explorations dynamiques in vivo avec les isotopes stables constituant une approche possible pour mieux comprendre les mécanismes du métabolisme du fer, nous avons caractérisé la répartition des isotopes stables du fer (par le ratio isotopique 56Fe/54Fe) dans les tissus liés à son métabolisme. Ceci nous a permis de confirmer la variation du ratio isotopique 56Fe/54Fe entre les organes, et de mettre en évidence un fractionnement isotopique du fer différent selon les fonds génétiques de souris au niveau hépatique. Ces résultats montrent ainsi l’importance de prendre en compte cette caractéristique essentielle dans les études métaboliques visant à mieux comprendre le métabolisme du fer et ses liens avec celui d’autres métaux, dans un contexte physiologique ou pathologique.
|
|
Chimie
/ 11-12-2017
Casajus Hubert
Voir le résumé
Voir le résumé
Les polyesters aliphatiques, comme le poly(acide malique) et ses dérivés, sont une famille de polymères aux propriétés de bio(comptabilité) et de bio(dégradabilité) remarquables, qui en font des candidats de choix pour l'élaboration de systèmes de vectorisation de principes actifs. Généralement, ces polymères sont synthétisés via des réactions de polymérisation utilisant des amorceurs, voir des catalyseurs, organiques, organométalliques ou métalliques. La présence de ces molécules, même à l'état de traces, peut être à l'origine d'une toxicité non souhaitée. Par conséquent, l'utilisation de biocatalyseurs, comme les lipases, se développe pour apporter une solution à cet inconvénient. Cependant, cette voie de synthèse enzymatique fait face à d'autres problèmes, tels qu'une polymérisation moins bien maîtrisée et des polymères de masses molaires faibles. Cette thèse a donc pour objectif de mettre au point une voie de polymérisation du malolactonate de benzyle utilisant la lipase de pancréas de porc (PPL) comme amorceur. Dans un premier temps, nous avons optimisé certains paramètres réactionnels permettant d'obtenir des poly(malate de benzyle) , PMLABe, de masses molaires suffisamment élevées pour que ces polymères puissent être utilisés dans la formulation de vecteurs de principes actifs, grâce à l'utilisation et l'extrapolation d'un plan d'expérience. Nous nous sommes ensuite intéressés à la compréhension du mécanisme réactionnel de la polymérisation enzymatique du malolactonate de benzyle, une β-lactone β-substituée. Les différentes études menées ont permis d'approfondir notre connaissance dans ce domaine. Deux mécanismes ont été proposés et des expériences sont en cours pour confirmer l'un d'entre eux. Finalement, comme l'objectif initial est de proposer une méthode de synthèse de dérivés du PMLA plus biocompatibles conduisant à des polymères sans résidus d'amorceurs chimiques toxiques, nous avons comparé les activités biologiques de nanoparticules préparées à partir de PMLABe synthétisés par voie chimique et par voie enzymatique. Pour cela, nous avons mesuré la captation de ces nanoparticules, encapsulant une sonde de fluorescence, par des cellules hépatiques HepaRG. Puis, nous avons évalué la toxicité aiguë et la toxicité chronique de ces nanoparticules vis-à-vis des cellules HepaRG. Ces études ont permis de mettre en évidence certaines propriétés des nanoparticules ayant une influence sur la survie cellulaire et le métabolisme des cellules HepaRG. De la compréhension théorique aux applications potentielles, cette thèse apporte des connaissances sur la polymérisation enzymatique des lactones substituées, un domaine peu décrit dans la littérature.
|
|
Traitement du signal et télécommunications
/ 11-12-2017
Barrois Benjamin
Voir le résumé
Voir le résumé
Les limites physiques des circuits à base de silicium étant en passe d'être atteintes, de nouveaux moyens doivent être trouvés pour outrepasser la fin de la loi de Moore. Beaucoup d'applications peuvent tolérer des approximations dans leurs calculs à différents niveaux, sans dégrader la qualité de leur sortie, ou en la dégradant de manière acceptable. Cette thèse se concentre sur les architectures arithmétiques approximatives afin de saisir cette opportunité. Tout d'abord, une étude critique de l'état de l'art des additionneurs et multiplieurs approximatifs est présentée. Ensuite, un modèle de propagation d'erreur virgule-fixe mettant en œuvre la densité spectrale de puissance est proposée, suivi d'un modèle de propagation du taux d'erreur binaire positionnel des opérateurs approximatifs. Les opérateurs approximatifs sont ensuite utilisés pour la reproduction des effets de la VOS dans les opérateurs arithmétiques exacts. Grâce à notre outil de travail open-source ApxPerf et ses bibliothèques synthétisables C++ apx_fixed pour les opérateurs approximatifs et ct_float pour l'arithmétique flottante basse consommation, deux études consécutives sont proposées, basées sur des applications de traitement du signal complexes. Tout d'abord, les opérateurs approximatifs sont comparés à l'arithmétique virgule-fixe, et la supériorité de la virgule-fixe est soulignée. Enfin, la virgule fixe est comparée aux petits flottants dans des conditions équivalentes. En fonction des conditions applicatives, la virgule-flottante montre une compétitivité inattendue face à la virgule-fixe. Les résultats et discussions de cette thèse donnent un regard nouveau sur l'arithmétique approximative et suggère de nouvelles directions pour le futur des architectures efficaces en énergie.
|
|
Traitement du signal et télécommunications
/ 11-12-2017
Abakar Issakha Souleymane
Voir le résumé
Voir le résumé
En réponse au nombre toujours élevé de décès provoqués par les accidents routiers, l'industrie automobile a fait de la sécurité un sujet majeur de son activité global. Les radars automobiles qui étaient de simples capteurs pour véhicule de confort, sont devenus des éléments essentiels de la norme de sécurité routière. Le domaine de l’automobile est un domaine très exigent en terme de sécurité et les radars automobiles doivent avoir des performances de détection très élevées et doivent répondre à des nombreuses contraintes telles que la facilité de production et/ou le faible coût. Cette thèse concerne le développement d’algorithmes pour la détection et la localisation de piétons et de cyclistes pour des radars automobiles de nouvelle génération. Nous avons proposé une architecture de réseau d'antennes non uniforme optimale et des méthodes d'estimation spectrale à haute résolution permettant d’estimer avec précision la position angulaire des objets à partir de la direction d'arrivée (DoA) de leur réponse. Ces techniques sont adaptées à l'architecture du réseau d'antennes proposé et les performances sont évaluées à l'aide de données radar automobiles simulées et réelles acquises dans le cadre de scénarios spécifiques. Nous avons également proposé un détecteur de cible de collision, basé sur la décomposition en sous-espaces Doppler, dont l'objectif principal est d'identifier des cibles latérales dont les caractéristiques de trajectoire représentent potentiellement un danger de collision. Une méthode de calcul d'attribut de cible est également développée et un algorithme de classification est proposé pour discriminer les piétons, cyclistes et véhicules. Les différents algorithmes sont évalués et validés à l'aide de données radar automobiles réelles sur plusieurs scenarios.
|
|
Réanimation
/ 08-12-2017
Painvin Benoît
Voir le résumé
Voir le résumé
Introduction. La prise en charge antalgique des patients traumatisés thoraciques avec fractures de côtes est fondamentale et retentit sur les complications respiratoires, la durée d’hospitalisation et la mortalité. Comment l’analgésie délivrée dans un hôpital de niveau II influence elle la morbidité de cette population? Méthode. Cette étude rétrospective, observationnelle a été menée au Centre Hospitalier de Lorient entre 2014 et 2015 dans l’Unité de Réanimation et de Soins Continus (USC). L’objectif principal de l’étude était la mise en évidence de facteurs affectant la durée moyenne de séjour (DMS) de Réanimation/USC. Résultats. 37 malades ont été inclus. La DMS en réanimation/USC était de 4.7± 4.9 jours. Celle-ci était significativement allongée en cas de prescription de néfopam (6.0 ± 5.5 jours pour les patients prenant le médicament versus 2.0 ± 1.5 jours pour les patients n’en recevant pas, p=0.003) et de prescription de kétamine (6.4 ± 6.4 versus 3.5 ± 3.1 jours, p=0.05). La DMS était significativement augmentée si les patients recevaient les associations néfopam et paracétamol (5.1 ± 3.2 jours versus 4.2 ± 7.6 jours, p=0.019), kétamine et néfopam (6.9 ± 6.7 versus 3.4 ± 3.0 jours, p=0.03) ou kétamine et morphine (8.1± 7.2 jours versus 3.3 ± 2.8 jour, p = 0.004). Le nombre de jours de traitement par morphine était significativement corrélé avec l’allongement de la DMS de réanimation/USC (coefficient de Spearman=0.524, p=0.001). Le facteur tabac était associé à une DMS plus longue: 5.6 jours pour les patients fumeurs versus 4.5 jours pour les non fumeurs (p = 0.033). Les patients fumeurs et bénéficiant de morphiniques avaient une DMS plus importante que ceux n’ayant pas cette association de facteurs (respectivement 6.9 ± 2.5 versus 4.3 ± 5.3 jours, p=0.009). Conclusion. La DMS de réanimation était influencée par de nombreux facteurs tels que l’utilisation d’antalgiques, leurs associations ou le tabagisme. Une étude prospective randomisée permettrait de confirmer ces données et de démontrer un lien avec la morbi-mortalité associée.
|
|
Science politique
/ 08-12-2017
Lucas Garcia Emminarie Luisiana
Voir le résumé
Voir le résumé
Contexte Les programmes de promotion de la santé dans le milieu du travail sont des interventions complexes qui requièrent une compréhension des facteurs de risque pour l’identification des populations à cibler. Leur développement s’appuie souvent sur des méthodes de montage de projet qui ne tiennent pas compte de principes de promotion de la santé de la Charte d’Ottawa. Des approches méthodologiques adaptées sont nécessaires pour comprendre le fonctionnement de ces programmes. Objectifs Mener une réflexion autour de la promotion de la santé dans le milieu du travail à travers : (i) le développement de la « théorie de programme » d’une intervention de promotion de la santé intitulée « Plus Saine la Vie » réalisée à la Société Nationale des Chemins de Fer Français (SNCF) et (ii) l’identification des déterminants du diabète de type 2 et de l’hypertension artérielle que l’on peut mesurer en routine auprès d’une population de salariés en surpoids en milieu du travail. Méthodes L’outil de catégorisation des résultats de Promotion Santé Suisse a été utilisé pour développer la « théorie de programme » à l’aide d’une approche inductive fondée sur la documentation disponible sur l’intervention et l’observation de celle-ci sur le terrain. Vingt réunions itératives du comité de pilotage de l’intervention ont assuré la validation du processus qui a abouti au modèle final. Ensuite, nous avons utilisé la méthode de conception de programme proposée par Fry et Zask (2016) pour comprendre quels leviers d’action de la Charte d’Ottawa ont été mobilisés par l’intervention. L’identification des déterminants du diabète de type 2 et de l’hypertension artérielle a été réalisée par deux études transversales auprès des salariés en surpoids de la SNCF volontaires pour participer à un dépistage lors de la visite périodique de médecine du travail (janvier 2011- mars 2015). Résultats Une première « théorie de programme » a été développée avec des informations détaillées sur les activités, les résultats intermédiaires et les objectifs de l’intervention. Quatre axes stratégiques de la Charte d’Ottawa ont été mobilisés par l’intervention : création d’environnements favorables à la santé, renforcement de l’action communautaire, acquisition d’aptitudes individuelles et réorientation des services de santé. Dans la deuxième partie de notre travail, les quatre déterminants suivants ont été identifiés pour expliquer une hyperglycémie chez les salariés en surpoids : le sexe masculin, un âge ≥50 ans, une pression artérielle élevée (≥140/90 mm Hg), et une consommation quotidienne de produits sucrés. De plus, six déterminants ont été identifiés pour expliquer une pression artérielle élevée : le sexe masculin, un âge ≥40 ans, un indice de masse corporelle compris entre 27,5 et 29,9 kg/m², une hyperglycémie (mesurée par la glycémie capillaire ≥ 7 mmol/L), un risque élevé d'apnée du sommeil, et le travail de nuit. À l'inverse, être cadre au sein de la SNCF a été identifié comme un facteur protecteur de pression artérielle élevée. Discussion Notre travail propose un cadre conceptuel pour modéliser les programmes de promotion de la santé dans le milieu du travail et relève ainsi, par l’exemple concret de l’action « Plus Saine la Vie », comment certains des axes stratégiques de la Charte d’Ottawa ont pu être mobilisés dans le milieu du travail. Enfin, l’identification de déterminants du diabète de type 2 et de l’hypertension artérielle au cours d’une visite systématique de médecine du travail des salariés en surpoids montre la faisabilité d’interventions ciblées de promotion de la santé dans le milieu du travail.
|
|
Droit public
/ 08-12-2017
Roche Jean-Baptiste
Voir le résumé
Voir le résumé
Loin de correspondre parfaitement à l’idéal de la démocratie directe, qui suppose l’absence même de toute forme de représentation politique, le référendum constitue, sous des formes très diverses et donc à des degrés très différents, l’institution susceptible de correspondre au mieux à cet idéal en ce qu’il permet « l’expression directe de la souveraineté nationale », c'est-à-dire la volonté souveraine du peuple. Dans cette mesure, la pratique référendaire devrait logiquement se développer dans tous les États modernes qui se targuent d’être des démocraties. C’est effectivement la tendance générale observée dans le monde, mais pas en France. Paradoxalement, la Ve République connaît la tendance inverse : le recours au référendum est devenu très rare au niveau national et demeure marginal au niveau local. Comprendre la désuétude actuelle du référendum implique dans un premier temps de rechercher comment il a été conçu et pratiqué par le général de Gaulle, d’abord en 1945, puis à partir de 1958, ainsi que l’évolution du rôle et de la popularité de l’autorité – le Président de la République – qui en détient l’initiative. De nombreuses réformes ont été proposées pour impulser une nouvelle pratique référendaire au niveau national et local. Cependant, aucune de celles qui ont abouti n’y est parvenue jusqu’à présent, faute d’une réflexion préalable suffisante sur les fonctions que le référendum peut assurer désormais. En effet, dans leur grande majorité, les représentants considèrent le référendum comme un « remède » à la « crise de la démocratie représentative » sans avoir véritablement identifié ses causes, ni défini exactement le rôle du référendum dans ce contexte. En outre, un élément nouveau doit nécessairement être pris en compte : l’essor de la justice constitutionnelle. Le contrôle juridictionnel des référendums est ainsi l’une des questions les plus délicates que pose le renouveau éventuel de sa pratique. En définitive, cette étude entend déterminer quelles sont les perspectives d’avenir du référendum et quelles fonctions celui-ci peut encore assurer en France. Carré de Malberg préconisait en 1931 d’introduire le référendum d'initiative populaire, tant au niveau législatif qu’au niveau constitutionnel, afin d’éviter que la souveraineté populaire ne dévie en souveraineté parlementaire. Plus récemment, il a également été proposé que l'initiative populaire soit limitée à un référendum consultatif. Cette procédure constituerait alors une forme de contre-pouvoir populaire permettant d’influer sur l’action des représentants en-dehors des seules échéances électorales. Une telle procédure a été introduite en 2015 au Pays-Bas et a permis aux électeurs d’émettre, l’année suivante, un avis défavorable sur l’accord d’association entre l’Ukraine et l’Union européenne.
|
|
Droit
/ 08-12-2017
Zouhal Adra
Voir le résumé
Voir le résumé
La notion de risque est doublement incertaine : elle contient une part irréductible d’aléa quant à sa concrétisation en dommage d’une part, elle n’est pas définie par la loi d’autre part. Pourtant, cette lacune est en contradiction, tant avec le recours exponentiel à la notion de risque en droit pénal, qu’il soit de fond ou de forme, qu’avec le principe de légalité des délits et des peines, qui implique que le législateur définisse avec clarté et précision les notions et concepts auxquels il fait appel, de sorte que la légitimité de son usage en droit pénal peut être mise en doute. La présence d’une notion aussi incertaine dans une matière qui met en cause les droits fondamentaux de la personne est susceptible de mettre en péril les impératifs de l’État de droit. Au demeurant, ce droit pénal de l’anticipation, qui vise à prévenir la survenance d’une atteinte possible mais incertaine à une valeur protégée, essuie de nombreuses critiques. L’objet de cette démonstration est donc de savoir si le législateur emploie à bon escient ou non la notion de risque en droit pénal. La réponse à cette problématique nécessitera au préalable, de s’assurer que le droit pénal est effectivement légitime à s’intéresser à la notion de risque. Ce n’est pas parce que le législateur consacre une notion que sa prise en compte est forcément légitime. Plus encore, il faut garder à l’esprit que risque et droit pénal sont par nature contradictoires : le risque est incertain, immatériel et relève de la prévention tandis que le droit pénal est le droit de la répression, de la matérialité et de la certitude. Une étude approfondie de leurs natures respectives permettra néanmoins de dépasser la contradiction, attestant alors de ce que le droit pénal est théoriquement légitime à réceptionner la notion de risque. Cette légitimité n’en reste pas moins précaire. Pour la garantir, il ne pourra s’agir que d’un certain risque, c’est-à-dire un risque pourvu d’une certaine qualité, car le législateur, s’il prétend recourir à la notion de risque en droit pénal pour assurer à la société une protection pénale anticipée, ne peut se départir des principes qui y sont applicables. À partir de l’étude des principes fondamentaux du droit pénal, de ses concepts juridiques et de ses sources supralégislatives, cette recherche se proposera alors d’élaborer une définition pénale de la notion de risque, contenant les critères théoriques d’un risque pénalement saisissable en toute légitimité. Leur confrontation, ensuite, avec le droit positif, permettra de révéler si l’exploitation de la notion de risque par le législateur en droit pénal, fait perdre ou non à ce dernier sa légitimité.
|
|