| Imprimer |
| Apprentissage automatique sur données codées entropiquement (Learning from entropy-encoded data) Piau, Rémi - (2025-06-26) / Université de Rennes - Apprentissage automatique sur données codées entropiquement
| |||
Langue : Anglais Directeur(s) de thèse: Roumy, Aline Discipline : Signal, image, vision Ecole Doctorale : MATISSE Classification : Sciences de l'ingénieur Mots-clés : Compression, Apprentissage automatique, Codage entropique, Décodage partiel
| |||
Résumé : Apprendre à partir de données compressées présente plusieurs avantages. Tout d'abord, cela permet d'éviter le décodage complet. De plus, l'analyse est effectuée sur des données de taille réduite par rapport aux images entièrement décodées. Cependant, les approches existantes d’apprentissage sur données compressées réalisent généralement un décodage partiel en procédant à un décodage entropique, car le codage entropique détruit la structure des données, rendant ainsi l’apprentissage plus complexe. De là découle notre question de recherche : comment apprendre efficacement sur des données codées entropiquement ? Notre travail s’articule autour de plusieurs contributions. Tout d'abord, nous montrons qu’il est possible d’apprendre sur des images codées entropiquement à l’aide d’un réseau de neurones convolutif (CNN), et que les performances peuvent être prédites par l’entropie jointe du signal compressé. Nous proposons ensuite une nouvelle méthode d’apprentissage directement sur le flux compressé d’images JPEG, reposant sur un décodage partiel opérant sur des portions extraites du flux compressé. Troisièmement, nous introduisons une méthode de compression homomorphique adaptée au codage entropique. Enfin, nous ouvrons deux perspectives de recherche, pour lesquelles nous présentons des études préliminaires : l’apprentissage sur données codées entropiquement à l'aide de Transformers, et la génération automatique de descripteurs dans le domaine compressé. Abstract : Learning on encoded data allows for more efficient analysis as the learner can bypass the decoding step. Moreover, there are fewer data to process for an equivalent amount of information ingested by the learner. However, the existing techniques all learn from data that are partially decoded (i.e. after entropy decoding). Indeed, the frequency based entropy coding destroys encoded data structure making learning from entropy-encoded data hard. This leads us to the main question underlying this work: How to learn from entropy-encoded data? We tackle this question by proposing three research axis. First, we show that learning from entropy coded images with Convolutional Neural Networks (CNN) is possible. We also show that the accuracy degradation introduced by compression can be predicted by joint-entropy estimation. Second, we propose a novel method to learn directly in the bistream of a JPEG-encoded data. This method opens the way to partial decompression of targeted zones of JPEG bitstream without fully entropy decoding it. Third, we showcase a method that improves in-place homomorphic entropy coding by reducing the amount of data relocation needed after an operation in the coded domain. Finally, we open the discussion on two related research perspectives for which we propose a preliminary study: learning from entropy coded images with transformers and automated feature extraction in the coded domain. | |||