|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 12-01-2016
Alain Martin
Voir le résumé
Voir le résumé
L'efficacité des services de compression vidéo est de nos jours un enjeu essentiel, et est appelé à le devenir d'autant plus dans le futur, comme l'indique la croissance constante du trafic vidéo et la production de nouveaux formats tels que la vidéo à haute résolution, à gamme de couleur ou dynamique étendues, ou encore à fréquence d'images augmentée. Le standard MPEG HEVC est aujourd'hui un des schémas de compression les plus efficaces, toutefois, il devient nécessaire de proposer de nouvelles méthodes originales pour faire face aux nouveaux besoins de compression. En effet, les principes de bases des codecs modernes ont été conçu il y a plus de 30 ans : la réduction des redondances spatiales et temporelles du signal en utilisant des outils de prédiction, l'utilisation d'une transformée afin de diminuer d'avantage les corrélations du signal, une quantification afin de réduire l'information non perceptible, et enfin un codage entropique pour prendre en compte les redondances statistiques du signal. Dans cette thèse, nous explorons de nouvelles méthodes ayant pour but d'exploiter d'avantage les redondances du signal vidéo, notamment à travers des techniques multi-patchs. Dans un premier temps, nous présentons des méthodes multi-patchs basées LLE pour améliorer la prédiction Inter, qui sont ensuite combinées pour la prédiction Intra et Inter. Nous montrons leur efficacité comparé à H.264. La seconde contribution de cette thèse est un schéma d'amélioration en dehors de la boucle de codage, basé sur des méthodes de débruitage avec épitome. Des épitomes de bonne qualité sont transmis au décodeur en plus de la vidéo encodée, et nous pouvons alors utiliser coté décodeur des méthodes de débruitage multi-patchs qui s'appuient sur les patchs de bonne qualité contenu dans les épitomes, afin d'améliorer la qualité de la vidéo décodée. Nous montrons que le schéma est efficace en comparaison de SHVC. Enfin, nous proposons un autre schéma d'amélioration en dehors de la boucle de codage, qui s'appuie sur un partitionnement des patchs symétrique à l'encodeur et au décodeur. Coté encodeur, on peut alors apprendre des projections linéaires pour chaque partition entre les patchs codés/décodés et les patchs sources. Les projections linéaires sont alors envoyés au décodeur et appliquées aux patchs décodés afin d'en améliorer la qualité. Le schéma proposé est efficace comparé à HEVC, et prometteur pour des schémas scalables comme SHVC.
|
|
Informatique
/ 27-01-2022
Nedelcu Adina
Voir le résumé
Voir le résumé
La communication par voie numérique joue un rôle de plus en plus important dans notre vie. Les données échangées étant souvent sensibles ou privées, il faut veiller à ce qu'elles ne soient pas accessibles à des personnes non autorisées. Dans cette thèse, nous analysons ce problème dans plusieurs contextes et proposons une série de solutions. Nous considérons d'abord les réseaux de téléphonie mobile, où la compatibilité avec les demandes d'interception légale est une contrainte immuable. Nous proposons une nouvelle primitive appelée protocoles d'échange de clés interception légale. Notre approche permet d'établir un canal sécurisé et d'améliorer la confidentialité, tout en restant compatible avec l'interception légale. Ensuite, nous étudions la confidentialité du protocole de couche de transport version 1.3 (TLS), largement utilisé pour l'établissement de canaux sécurisés sur Internet. Nous proposons un modèle de confidentialité et montrons que TLS 1.3 préserve la confidentialité. Enfin, nous analysons les protocoles d'attestation profonde, en mettant l'accent sur la propriété de liaison. Nous proposons une approche formelle et cryptographique de ce sujet, ainsi qu'une nouvelle construction.
|
|
Informatique
/ 30-11-2022
Khayam Adam
Voir le résumé
Voir le résumé
L’étude de la sémantique des langages de programmation est un domaine de l’informatique visant à représenter formellement le comportement de programmes. L’état de l’art a beaucoup progressé au cours des quatre dernières décennies en proposant de plus en plus de cadres adaptés à la réalisation de ces études. S’il existe de nombreux styles, dont on connaît les caractéristiques positives et les limites, il reste encore beaucoup à faire en termes d’outils adaptés à la description et à l’étude de la sémantique des langages de programmation. Cette thèse s’inscrit dans ce contexte, en proposant une méthodologie pour pouvoir produire un objet représentant le comportement d’un langage de programmation, en fournissant tout ce qui est nécessaire pour pouvoir les étudier. La contribution de la thèse consiste à fournir une méthodologie pour écrire une sémantique concise et visuellement proche d’une spécification. Pour ce faire, nous utilisons un certain nombre de constructions algébriques qui, associées à notre approche purement fonctionnelle, conduisent à une formalisation claire, concise et facile à maintenir. Nous avons appliqué cette technique à deux études de cas, la modélisation de la spécification JavaScript, ECMAScript, et la représentation d’un modèle formel pour décrire la sémantique d’orchestration représentant le comportement des applications de l’internet des Objets. Ces travaux donnent une idée claire du potentiel et de l’expressivité de notre cadre formel, appelé sémantique squelettique. Ce manuscrit est à la fois une introduction à l’utilisation de la sémantique squelettique et son application aux langages de programmation, même quand ceux-ci ont une spécification complexe et de taille conséquente. C’est également une étude de la manière d’exploiter les caractéristiques d’un tel outil pour produire des formalisations qui peuvent être claires et lisibles par l’homme. En substance, il s’agit de faire d’une représentation mathématique d’un langage, qui s’adresse à une catégorie spécifique de chercheurs, un support précieux pour les programmeurs en vue d’implémentations réelles.
|
|
Signal, image, vision
/ 24-03-2022
Bruckert Alexandre
Voir le résumé
Voir le résumé
Quand nous regardons un film, nous ne traitons pas toute l'information visuelle émise par l'image tout le temps. À la place, nous dirigeons notre attention sur certaines zones de l'écran que nous considérons comme importantes, que ce soit à cause de leurs propriétés visuelles, ou de leur importance sémantique pour la narration du film. Depuis plus de cent ans, les réalisateurs de films ont appris à jouer avec l'attention visuelle de leur public, en utilisant un ensemble varié d'outils et de techniques. Dans cette thèse, nous nous proposons d'explorer les liens entre ces choix cinématographiques du réalisateur et la perception visuelle qu'en a le public. Bien qu'il existe de nombreux modèles de saillance visuelle, prédisant les zones d'attention visuelle d'observateurs sur des vidéos, nous montrons que les prédictions de ces modèles s'avèrent parfois fausses dans le contexte particulier de stimuli cinématographiques. Nous proposons donc un nouveau modèle de saillance visuelle, incluant des caractéristiques de haut niveau concernant les propriétés cinématographiques de l'extrait de film considéré. Enfin, nous proposons une étude de la congruence visuelle inter-observateurs dans ce contexte, ainsi que deux modèles visant à prédire l'intensité de cette congruence, sur des images et des extraits de films.
|
|
Informatique
/ 17-12-2019
Bourneuf Lucas
Voir le résumé
Voir le résumé
L'Analyse Power Graph est une technique de compression sans perte de graphe visant à réduire la complexité visuelle d'un graphe. Le processus consiste à détecter des motifs, les cliques et les bicliques, qui permettent d'établir des groupes de nœuds organisés hiérarchiquement, des groupes d'arcs, et finalement un graphe réduit à ces groupes. Cette thèse propose tout d'abord la formalisation de l'espace de recherche de l'Analyse Power Graph, en utilisant l'Analyse de Concepts Formels comme base théorique pour exprimer le processus de compression. Le traitement indépendant de deux motifs présente des difficultés et nous proposons une notion unificatrice, les concepts triplets, qui conduiront à un motif unique plus général pour la compression. L'Analyse Power Graph et la nouvelle approche ont été implémentés dans un formalisme logique de Programmation par Ensembles Réponses (ASP), et nous présentons quelques applications en bioinformatique pour les deux approches. La thèse se clôt sur la présentation d'un environnement de visualisation et de spécification de haut-niveau en théorie des graphes.
|
|
Informatique
/ 17-01-2014
Ziegler Stefan
Voir le résumé
Voir le résumé
Cette thèse étudie l'intégration de repères phonétiques dans la reconnaissance automatique de la parole (RAP) continue à grand vocabulaire. Les repères sont des événements à temps discret indiquant la présence d’événements phonétiques dans le signal de parole. Le but est de développer des détecteurs de repères qui sont motivés par la connaissance phonétique afin de modéliser quelques événements phonétiques plus précisément. La thèse présente deux approches de détection de repères, qui utilisent l'information extraite par segments et étudie deux méthodes différentes pour intégrer les repères dans le décodage, qui sont un élagage basé sur les repères et une approche reposant sur les combinaisons pondérées. Alors que les deux approches de détection de repères présentées améliorent les performance de reconnaissance de la parole comparées à l'approche de référence, elles ne surpassent pas les prédictions phonétiques standards par trame. Ces résultats indiquant que la RAP guidée par des repères nécessite de l'information phonétique très hétérogène pour être efficace, la thèse présente une troisième méthode d'intégration conçue pour intégrer un nombre arbitraire de flux de repères hétérogènes et asynchrones dans la RAP. Les résultats indiquent que cette méthode est en effet en mesure d'améliorer le système de référence, pourvu que les repères fournissent de l'information complémentaire aux modèles acoustiques standards.
|
|
Informatique
/ 23-11-2020
Louarn Amaury
Voir le résumé
Voir le résumé
La recherche dans le domaine de la cinématographie virtuelle s'est essentiellement focalisée sur des aspects précis de la cinématographie mais n'ont pas adressé les nombreuses interdépendances entre les entités d'une scène. En effet, alors que la majorité des approches prennent en compte le fait que les caméras et lumières sont contraintes par les acteurs, elles oublient que les acteurs sont aussi contraints par les caméras et des lumières. Dans cette thèse, nous adressons ces interdépendances en modélisant les relations partagées par les entités et la topologie de l'environnement. Pour ce faire, nous proposons un langage permettant de décrire formellement une scène avec des contraintes de haut niveau qui représentent les relations des entités, auxquelles sont associés des opérateurs formels permettant d'appliquer ces contraintes géométriquement. Notre seconde contribution est un système de mise en scène cinématographique qui génère des configurations de mises en scène dans un environnement virtuel à partir d'une description écrite dans notre langage formel. Notre troisième contribution est un système de placement de caméras en temps réel générant des rails de caméras dans un environnement virtuel qui sont ensuite utilisés pour guider la caméra en temps réel.
|
|
Informatique
/ 09-12-2021
Sadhukhan Suman
Voir le résumé
Voir le résumé
Les jeux de congestion sont un domaine de recherche bien étudié ; dans ce domaine, les jeux de congestion dans les réseaux permettent de représenter la congestion des réseaux de distribution, et d’étudier à quel point un modèle de réseau est bon ou mauvais en termes de coût total lorsque chaque joueur joue de façon égoïste, cherchant uniquement à optimiser son propre coût ; Nous considérons ces jeux de congestion du point de vue des méthodes formelles, cherchant à vérifier par exemple que, dans un réseaux fixé, il existe un profil de stratégies optimal qui satisfasse une propriété donnée. Nous définissons un modèle de jeux de congestion avec deux particularités : d’une part, le calcul du coût d’une transition dépend du nombre de joueurs utilisant simultanément une arête ; d’autre part, les joueurs choisissent leur chemin de façon dynamique en fonction des choix des autres joueurs. Nous montrons que dans ce modèle les équilibres de Nash existent toujours en montrant la convergence de la dynamique de meilleure réponse. Nous étudions ensuite le problème de vérification mentionné ci-dessus, résolvant le problème de l’existence d’un équilibre social, d’un équilibre de Nash ou d’un équilibre parfait en sous-jeux ayant un côut borné. Dans une deuxième partie, nous étudions les jeux de congestion paramétrés, dans lesquels le nombre de joueurs est un paramètre. Nous nous intéressons à l’évolution des équilibres de Nash en fonction du nombre de joueurs : notre objectif est de calculer efficacement l’ensemble des équilibres de Nash pour un nombre arbitrairement grand de joueurs, à partir des équilibres de Nash pour de petits nombres de joueurs. Nos premiers résultats portent sur les réseaux série-parall‘ele, sans les particularités ci-dessus. Nous conjecturons que ces résultats s’étendent à l’ensemble des graphes, ce qui donnerait lieu à un calcul efficace de tous les équilibres de Nash, quel que soit le nombre de joueurs.
|
|
Informatique
/ 05-09-2017
Aljarbouh Ayman
Voir le résumé
Voir le résumé
Cette thèse apporte quatre principales contributions : une méthode d'éliminateur de phénomènes de ''chattering'' d'automates hybrides, par calcul d'une dynamique régulière équivalente à l'aide d'une convexification de Filippov ; une méthode d'accélération de la simulation de certains comportements Zénon, dits géométriques, pour certains automates hybrides ; des preuves de préservation par les méthodes ci-dessus d'une sémantique des automates hybrides à base d'analyse non-standard ; développement de trois logiciels prototypes, l'un sous la forme d'une bibliothèque Simulink, le second sous la forme d'un environnement de simulation de composants FMI, et le troisième étant une implémentation de la méthode de régularisation dans le langage de modélisation de systèmes hybrides Acumen.
|
|
Signal, image, vision
/ 29-11-2019
Fraga dantas Cássio
Voir le résumé
Voir le résumé
En raison de la vertigineuse croissance des données disponibles, la complexité computationnelle des algorithmes traitant les problèmes inverses parcimonieux peut vite devenir un goulot d'étranglement. Dans cette thèse, nous explorons deux stratégies pour accélérer de tels algorithmes. D'abord, nous étudions l'utilisation de dictionnaires structurés rapides à manipuler. Une famille de dictionnaires écrits comme une somme de produits Kronecker est proposée. Ensuite, nous développons des tests d'élagage sûrs, capables d'identifier et éliminer des atomes inutiles (colonnes de la matrice dictionnaire ne correspondant pas au support de la solution), malgré l'utilisation de dictionnaires approchés.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|