Forecast model category

Modèles pénalisés multivariés

Les modèles de prévision pénalisés pénalisent les paramètres importants ou complexes afin de réduire le surajustement, d'améliorer la généralisation et de gérer de nombreux prédicteurs.
Filet élastique VARX
Le filet élastique est une méthode de régression qui combine de manière linéaire les méthodes du lasso et de la crête (voir ci-dessous). Fondamentalement, la méthode du réseau élastique trouve les coefficients de régression des crêtes, puis effectue un rétrécissement de type lasso des coefficients.
Lasso VARX
Lasso, Least Absolute Shrinkage and Selection Operator, est l'application la plus réussie de l'IA en économétrie. Lasso a été introduit afin d'améliorer la précision des prévisions et l'interprétabilité des modèles de régression en modifiant le processus d'ajustement des modèles afin de sélectionner uniquement un sous-ensemble des variables indépendantes fournies à utiliser dans le modèle final plutôt que de les utiliser toutes. Lasso force certains coefficients à être mis à zéro, choisissant ainsi un modèle plus simple qui n'inclut pas ces coefficients.
Lasso VECM
Les modèles de correction d'erreurs vectorielles sont utiles pour les ensembles de données présentant des relations à long terme (également appelées cointégration). Les VECM sont utiles pour estimer les effets à court et à long terme d'une série unique sur une autre. Le terme correction d'erreur fait référence au fait que l'écart de la dernière période par rapport à un équilibre à long terme, l'erreur, influence sa dynamique à court terme. Ces modèles estiment, outre les relations à long terme entre les variables, également directement la vitesse à laquelle une variable dépendante revient à l'équilibre après une modification d'autres variables. Cette version est associée au Lasso, au rétrécissement le plus faible absolu et à l'opérateur de sélection qui force certains coefficients à être mis à zéro, choisissant ainsi un modèle plus simple qui n'inclut pas ces coefficients.
Ridge Regression
Il s'agit d'une façon d'utiliser des modèles bayésiens dans un cadre VAR. Avant Lasso, la méthode la plus utilisée pour choisir les variables à inclure était la sélection par étapes. À cette époque, la régression de crête était la technique alternative la plus populaire utilisée pour améliorer la précision des prévisions. La régression de crête améliore l'erreur de prédiction en réduisant les grands coefficients de régression afin de réduire le surajustement, mais elle n'effectue pas de sélection de variables et ne contribue donc pas à rendre le modèle plus interprétable.

Explore more model categories