Imprimer |
Extraction de connaissances interprétables dans des séries temporelles (Extraction of interpretable knowledge in time series) Guillemé, Maël - (2019-12-16) / Universite de Rennes 1 - Extraction de connaissances interprétables dans des séries temporelles
| |||
Langue : Français Directeur(s) de thèse: Termier, Alexandre Discipline : Informatique Laboratoire : IRISA Ecole Doctorale : MATHSTIC Classification : Informatique Mots-clés : série chronologique, apprentissage automatique, raisonnement
| |||
Résumé : Energiency est une entreprise qui vend à des industriels une plate-forme pour leur permettre d’analyser leurs données de consommation d’énergie, représentées sous la forme de séries temporelles. Cette plate-forme intègre des modèles d’apprentissage automatique pour répondre aux besoins des clients. L’application de tels modèles sur des séries temporelles rencontre deux problèmes : d’une part certaines approches classiques d’apprentissage automatique ont été conçues pour des données tabulaires et doivent être adaptées aux séries temporelles, d’autre part les résultats de certaines approches sont difficilement compréhensibles par les utilisateurs finaux. Dans la première partie, nous adaptons une méthode de recherche d’occurrences de règles temporelles sur des séries temporelles issues de machines et d’infrastructures industrielles. Une règle temporelle capture des relations de succession entre des comportements dans les séries temporelles. Dans des séries industrielles, à cause de la présence de nombreux facteurs extérieurs, ces comportements réguliers peuvent présenter des perturbations. Les méthodes de recherche d’occurrences de règles temporelles actuelles utilisent une mesure de distance pour évaluer la similarité entre des sous-séries. Cependant, ces mesures ne sont pas adaptées pour évaluer la similarité de séries déformées tel que dans les séries temporelles industrielles. La première contribution de cette thèse est la proposition d’une méthode de recherche d’occurrences de règles temporelles capable de capturer cette variabilité dans des séries temporelles industrielles. Pour cela la méthode intègre l’utilisation de mesures de distance élastiques capables d’évaluer la similarité entre des séries temporelles légèrement déformées. Abstract : Energiency is a company that sells a platform to allow manufacturers to analyze their energy consumption data represented in the form of time series. This platform integrates machine learning models to meet customer needs. The application of such models to time series encounters two problems: on the one hand, some classical machine learning approaches have been designed for tabular data and must be adapted to time series, on the other hand, the results of some approaches are difficult for end users to understand. In the first part, we adapt a method to search for occurrences of temporal rules on time series from machines and industrial infrastructures. A temporal rule captures successional relationships between behaviors in time series . In industrial series, due to the presence of many external factors, these regular behaviours can be disruptive. Current methods for searching the occurrences of a rule use a distance measure to assess the similarity between sub-series. However, these measurements are not suitable for assessing the similarity of distorted series such as those in industrial settings. The first contribution of this thesis is the proposal of a method for searching for occurrences of temporal rules capable of capturing this variability in industrial time series. For this purpose, the method integrates the use of elastic distance measurements capable of assessing the similarity between slightly deformed time series. The second part of the thesis is devoted to the interpretability of time series classification methods, i.e. the ability of a classifier to return explanations for its results. These explanations must be understandable by a human. Classification is the task of associating a time series with a category. For an end user inclined to make decisions based on a classifier’s results, understanding the rationale behind those results is of great importance. Otherwise, it is like having blind confidence in the classifier. The second contribution of this thesis is an interpretable time series classifier that can directly provide explanations for its results. This classifier uses local information on time series to discriminate against them. The third and last contribution of this thesis, a method to explain a posteriori any result of any classifier. We carried out a user study to evaluate the interpretability of our method. |