A fully automated periodicity detection in time series

24/09/2019

R&D

Tous les articles

Sommaire

We recently presented a scientific paper during ECML PKDD Advanced Analytics and Learning on Temporal Data workshop part of the ECML-PKDD 2019 conference at Wurzburg, Germany.

Abstract

"A fully automated periodicity detection in time series" by Tom Puech, Matthieu Boussard, Anthony D’Amato, and Gaëtan Millerand.

To generate good models, you need the good features. For instance, knowing precisely the various periodicities of your temporal data is crucial. Does the time of day has a recurrent impact ? Does it exhibits another, fancier, periodicity ? This is precisely what this paper solves, by providing a new algorithm to automatically extract those features from your time series.

Download the file to read the full paper.

Vous pourriez également apprécier

IA de confiance
14/09/2022

Garder l'humain dans la boucle avec l'XAI

Quelle place l’explicabilité (XAI) occupe-t-elle aujourd’hui en Machine Learning et en Data Science ? Le challenge de ces dix dernières années en data science, a plutôt été de trouver la bonne “recette algorithmique” pour créer des modèles de ML toujours plus puissants, plus complexes et donc de moins en moins compréhensibles.

Lire l'article

R&D
12/07/2022

L'industrialisation de l'IA & le concept de MLOps

Le MLOps apparaît comme une nécessité pour pallier les difficultés lors du passage à l’échelle de l’IA au sein des entreprises : la reproductibilité, le versionning, l'intégration continue... C’était l’objet de l’une des conférence sur l'industrialisation de l'intelligence artificielle dans le cadre de l'Enjeu Day Industrie & Services 2022. Vous n’aviez pas pu y assister ? Retrouvez le replay.

Lire l'article

IA de confiance
10/05/2022

A guide of the most promising XAI libraries

Using Machine Learning to solve a problem is good, understanding how it does is better. Indeed, many AI-based systems are characterized by their obscure nature. When seeking an explanation, looking to understand how a given result was produced, exposing the system’s architecture or its parameters alone is rarely enough. Explaining that a CNN recognized a dog by detailing the Neural Network weights is, to say the least, obscure. Even for models deemed as glass-box such as decision trees, a proper explanation is never obvious.

Lire l'article