Lasso VARXLasso, Least Absolute Shrinkage and Selection Operator es la aplicación más exitosa de la IA dentro de la econometría. Lasso se introdujo para mejorar la precisión de las predicciones y la interpretabilidad de los modelos de regresión modificando el proceso de ajuste del modelo para seleccionar solo un subconjunto de las variables independientes proporcionadas para su uso en el modelo final, en lugar de utilizarlas todas. Lasso obliga a que ciertos coeficientes se establezcan en cero, y de hecho elige un modelo más simple que no incluya esos coeficientes.
Lasso VECMLos modelos vectoriales de corrección de errores son útiles para conjuntos de datos con relaciones a largo plazo (también denominadas cointegración). Los VECM son útiles para estimar los efectos a corto y largo plazo de una serie única sobre otra. El término corrección de errores se refiere al hecho de que la desviación del último período respecto de un equilibrio a largo plazo (el error) influye en su dinámica a corto plazo. Estos modelos estiman, además de las relaciones a largo plazo entre las variables, también de manera directa la velocidad a la que una variable dependiente vuelve al equilibrio después de un cambio en otras variables. Esta versión se combina con el operador de lazo, contracción mínima absoluta y selección, que obliga a establecer ciertos coeficientes en cero, con lo que se elige un modelo más simple que no incluye esos coeficientes.
Red elástica VARXLa red elástica es un método de regresión que combina linealmente los métodos de lazo y cresta (ver más abajo). Básicamente, el método de la red elástica encuentra los coeficientes de regresión de las crestas y, a continuación, reduce los coeficientes en forma de lazo.
Ridge RegressionEsta es una forma de usar modelos bayesianos en un marco VAR. Antes de Lasso, el método más utilizado para elegir qué variables incluir era la selección por etapas. En ese momento, la regresión de crestas era la técnica alternativa más popular utilizada para mejorar la precisión de las predicciones. La regresión de crestas mejora el error de predicción al reducir los grandes coeficientes de regresión para reducir el sobreajuste, pero no realiza la selección de variables y, por lo tanto, no ayuda a que el modelo sea más interpretable.