GRU

El modelo de unidades recurrentes cerradas (GRU) es un tipo de red neuronal recurrente. Como tal, es muy adecuado para datos secuenciales, como series temporales. La principal ventaja es la alta flexibilidad en comparación con los modelos lineales, ya que un modelo GRU puede identificar patrones no lineales en los datos, lo que le permite describirlos con mayor precisión. Es similar al LSTM, pero tiene menos parámetros, lo que reduce el riesgo de sobreajuste en conjuntos de datos más pequeños. El GRU se entrena a partir de datos que utilizan variantes del descenso en gradiente, como AdaGrad y ADAM.

El modelo multivariante de unidades recurrentes cerradas (GRU) es un modelo de aprendizaje automático que es un tipo de red neuronal recurrente. Indicio ofrece una selección de modelos de aprendizaje automático, siendo el más básico el modelo neuronal univariado. La generalización multivariante de ese modelo es el modelo de red neuronal artificial (ANN). El modelo GRU, al ser una red neuronal recurrente, es más consciente del tiempo, ya que permite que la información fluya entre los nodos de la misma capa, en la dirección de los rezagos de mayor a menor.

Series temporales multivariantes y redes neuronales

Para modelar un conjunto de kk series temporales Y1, ... ,Ykutilizando una red neuronal, el pk los valores retrasados se utilizan como entradas y la red neuronal se entrena para explicar la corriente p valores de la serie temporal incluida. Al igual que en el caso univariado, se puede crear una previsión utilizando yt, ... ,ytp+1 como entradas para predecir yt+1. Tenga en cuenta que ahora estamos escribiendo ytpara indicar el vector de k valores en el momento t, lo que significa que el modelo creará previsiones para todo variables incluidas. Luego, esto se puede repetir de manera recursiva utilizando como entrada los valores de solo pronóstico, creando un pronóstico de la longitud deseada. El modelo GRU se diferencia de una red neuronal general en que es recurrente, lo que implica que se adapta mejor al manejo de datos secuenciales, como las series temporales. La otra red neuronal recurrente disponible en Indicio es el modelo de memoria a largo plazo (LSTM), que es más complejo pero, al mismo tiempo, más propenso a sobreajustarse. GRU se desarrolló como una simplificación del modelo LSTM y se ha demostrado que tiene un rendimiento similar.

¿Cómo se ajusta Indice a un modelo GRU?

A medida que aumenta el número de entradas y salidas de un modelo, también aumenta el tamaño requerido de las capas ocultas y, con ello, la complejidad del modelo. Esto plantea un desafío, ya que un modelo complejo siempre corre el riesgo de sobreajustarse a los datos. Para solucionar este problema, los datos se dividen en un conjunto de trenes y un conjunto de validación.

El modelo se entrena con los datos de entrenamiento utilizando el descenso de gradiente estocástico (SGD). Solo se utilizan algunas de las observaciones en cada iteración, lo que significa que después de un número determinado de iteraciones, el algoritmo SGD habrá analizado todos los datos. Cada uno de estos conjuntos de iteraciones se denomina época. Después de cada época, el modelo se utiliza para crear una previsión en el conjunto de validación y se calcula el error de previsión fuera de la muestra. El modelo también forma parte del proceso de capacitación que produce pronósticos dentro de la muestra, que se denominan valores ajustados, a partir de los cuales se puede calcular el error de pronóstico dentro de la muestra.

Esto generará dos series de errores de pronóstico, dentro y fuera de la muestra por época. En Signo se utiliza lo que se denomina parada temprana, que significa que cuando la falta de precisión de la muestra comienza a empeorar a lo largo de varias épocas, el proceso de entrenamiento se detiene y se considera que el modelo ha terminado.

Explore more models

Within this category

More categories