


Trask : une architecture de réseau neuronal puissante pour la prévision de séries chronologiques
Trask est un type d'architecture de réseau neuronal spécialement conçu pour les tâches de prévision de séries chronologiques. Il a été introduit par des chercheurs de Google en 2019 et a depuis été largement adopté dans le domaine de l'apprentissage automatique pour la prévision de séries chronologiques.
L'innovation clé de Trask est l'utilisation d'un nouveau mécanisme d'attention appelé mécanisme « d'auto-attention consciente du temps ». , ce qui permet au modèle de se concentrer de manière sélective sur différentes parties de la série temporelle d'entrée lors de l'élaboration de prédictions. Cela permet à Trask de capturer des dépendances temporelles complexes dans les données et de faire des prédictions plus précises que les autres architectures de réseaux neuronaux.
Trask utilise également une combinaison de réseaux neuronaux convolutifs et récurrents (CNN et RNN) pour traiter la série temporelle d'entrée, ce qui lui permet de capturer modèles à court et à long terme dans les données. Les CNN sont utilisés pour extraire les caractéristiques locales des données d'entrée, tandis que les RNN sont utilisés pour modéliser les dépendances temporelles entre les caractéristiques.
Dans l'ensemble, Trask est un outil puissant pour les tâches de prévision de séries chronologiques et il a été démontré qu'il permet d'atteindre l'état de des résultats de pointe sur un certain nombre d’ensembles de données de référence.



