Estadística en Microcomputadores/Modelos Autorregresivos

De Wikilibros, la colección de libros de texto de contenido libre.

8.4 MODELOS AUTORREGRESIVOS

8.4.1 Introducción

Los modelos de ajuste que vimos en la sección anterior obtenían el valor estimado de una serie en dado período como cierta función de valores experimentales de períodos anteriores. Dicha función, que en general puede llevarse al caso lineal, queda totalmente definida según el modelo empleado y los valores adoptados para sus parámetros.

El concepto de regresión, considerado en el capítulo 6, nos permite definir una relación lineal más general entre un dado valor de una serie de tiempo y sus predecesores:

xt = 01xt-1 + 02xt-2 + ...+ 0pxt-p + et

Esta relación constituye prácticamente una función de regresión, sólo que ahora las variables independientes son directamente valores anteriores de la misma serie X. Por dicha razón el modelo planteado se denomina autorregresivo, definiéndose sinteticamente como modelo AR(p), siendo p el número de valores previos considerados en la función. Este tipo de modelos de series de tiempo, que tienen un desarrollo teórico importante, tomaron relevancia práctica a partir de la utilización de computadores, que facilitan su resolución para obtener los valores de los coeficientes 0j mediante la minimización de la suma de errores cuadráticos et2. Extendiendo el enfoque de autorregresión a los términos de error se puede definir otro grupo de modelos, que estiman el valor de la variable X en un cierto período como una función lineal de los errores en su estimación para q períodos anteriores:

xt = + 01et-1 + 02et-2 +...+ 0qet-q + et

donde es el valor esperado de la serie y 01 a 0q coeficientes que también pueden estimarse mediante el método de cuadrados mínimos. Estos modelos se denominan usualmente de promedios móviles, aunque sean totalmente diferentes en su enfoque a los métodos de ajuste del mismo nombre, siendo identificados sintéticamente mediante la denominación MA(q) ("Moving Average").

Ambos modelos, el AR(p) y el MA(q), pueden combinarse para establecer un nuevo grupo de modelos autorregresivos, definidos por una función que integra las dos anteriores. Estos modelos se denominan ahora ARMA(p,q) y sus coeficientes se estiman también tratando de minimizar la suma de los errores cuadráticos et2.

En su forma general los modelos ARMA(p,q) presentan una estructura de modelización muy flexible para el análisis de series de tiempo. Ello se hace más notorio comparándolos con los modelos de ajuste que, aunque presentan diferentes estructuras posibles, ellas son siempre fijas, una vez adoptado un cierto modelo.

La aplicación de los modelos ARMA(p,q) no requiere, en general, valores p ó q grandes. Así, en series sin estacionalidad marcada se obtienen usualmente buenas estimaciones con a lo sumo modelos ARMA(2,2). En el caso de series que presentan una componente de estacionalidad se requiere un mayor número de términos en el modelo en función del período de estacionalidad.

Los modelos autorregresivos han sido desarrollados teóricamente para series con un comportamiento estacionario predominante. En consecuencia, no resultan adecuados cuando la serie considerada presenta una componente de tendencia definida, dificultad que se resuelve mediante el cálculo previo de las diferencias entre valores consecutivos de la serie de valores xt, obteniendo así una nueva serie de valores x't:

x't = xt - xt-1

Esta transformación, que ya vimos genéricamente en el capítulo 1, reduce o elimina las diferencias sistemáticas determinadas por la tendencia y puede ser aplicada previamente a la consideración de cualquier modelo de serie de tiempo.

Una vez contenida la nueva serie de valores x't se identifica la estructura del modelo ARMA más adecuada para ella y se estiman los valores de sus coeficientes. A partir de ello resulta directa la predicción de los valores de la serie original, estimando valores de la serie X' y efectuando la transformación inversa.

Cuando los efectos de la tendencia son más fuertes que los lineales puede resultar necesario efectuar una nueva transformación similar de los valores x't antes de aplicar el modelo autorregresivo.

Cuando se considera el proceso de diferenciación visto, el modelo autorregresivo se generaliza, denominándose ahora ARIMA(p,d,q) ("Autoregressive-Integrated-Moving Average"), siendo d el número de procesos de cálculo de diferencias involucrados.


8.4.2 Identificación de los modelos ARMA (o ARIMA)

La identificación del modelo ARMA(p,q) más adecuado para una cierta serie experimental constituye tal vez la actividad menos estructurada en la aplicación de este tipo de modelos. De todas maneras, la facilidad que da el uso de un computador hace que sea relativamente sencillo probar eventualmente varias alternativas de modelo y obtener los resultados de sus correspondientes evaluaciones.

Para la identificación resulta de ayuda significativa el conocimiento de los coeficientes de autocorrelación y de autocorrelación parcial. De acuerdo a los valores que ellos toman para la serie analizada pueden inferirse valores tentativos de p y de q.

En el caso de que la serie considerada presente una componente de tendencia definida resultará necesario efectuar, como vimos, su transformación, obteniendo las primeras, segundas, o eventualmente más diferencias. Una vez efectuado ello estaremos en condiciones de identificar el modelo más adecuado a los valores transformados de la serie original. Como ya vimos, en este caso el modelo considerado es de tipo ARIMA(p,d,q).

Por otra parte, en el caso de que la serie contenga una componente de estacionalidad marcada, será necesario en general agregar nuevos términos a las funciones de autorregresión, adicionales a los p y q identificados. Dichos términos abarcan usualmente el período de estacionalidad. Por ejemplo, en el caso de una serie de valores mensuales con estacionalidad anual puede ser necesario agregar un término 012xt-12 en la función de autorregresión.


8.4.3 Estimación de los coeficientes del modelo

Una vez identificado el modelo autorregresivo que se presupone adecuado para representar a la serie en análisis resulta necesario estimar los valores de sus coeficientes que producen un mejor ajuste con los valores experimentales. Para ello se debe aplicar algún proceso de minimización de los errores cuadráticos producidos entre los valores estimados por el modelo y los valores experimentales. De los diversos métodos disponibles para ello los más conocidos y considerados en las implementaciones computacionales son el de Filtrado Adaptativo y el de Box-Jenkins, que describimos sintéticamente a continuación.

a) Filtrado Adaptativo

El Filtrado Adaptativo es una técnica reletivamente sencilla de estimación de coeficientes de los modelos autorregresivos, frente a otras de mayor complejidad, como la de Box-Jenkins, ya que el proceso de minimización de los errores cuadráticos considerado en ella es de fácil implementación en un computador. La técnica parte de considerar un juego inicial de valores para los coeficientes de la función de autorregresión. Estos valores iniciales se obtienen mediante criterios diferentes, según el tipo de modelo identificado, AR(p), MA(q), o ARMA (p,q).

A partir de ello se inicia la aplicación de la función de autorregresión a la obtención de los valores estimados y los errores resultantes correspondientes a los valores conocidos de la serie involucrada. Después de cada estimación se ajustan los valores de los coeficientes de la función mediante un proceso adaptativo, que intenta reducir los errores de estimación que se van produciendo. Una vez recorrida toda la serie se puede repetir el proceso, hasta que la reducción lograda en la suma de errores cuadráticos no sea significativa.

Por ejemplo, en un modelo de tipo AR(p), un coeficiente 0j se ajusta a un nuevo valor 0'j, después de haber obtenido el error de estimación et correspondiente al período t de la serie, mediante la siguiente función adaptativa:

0'j = 0j + ktetxt-j

donde kt es un coeficiente de adaptación. Una característica interesante de la técnica, además de su sencillez de implementación, consiste en que los valores estimados de los coeficientes de la función de autorregresión obtenidos en base a un cierto juego de datos pueden irse modificando a medida que se conocen nuevos valores experimentales de la serie.

b) Método de Box-Jenkins

En este método los coeficientes del modelo autorregresivo se estiman mediante un algoritmo de minimización del error cuadrático medio, usando un criterio similar al que vimos en el caso del proceso de regresión no lineal. De acuerdo a ello se buscan aquellos valores 0j y 0j que hagan mínima la suma de errores cuadráticos et2:

n

(xt - xt(01,...,0p,01,...,0q) )2=Mínimo

t=1

Para resolver este problema de minimización el método de Box-Jenkins adopta algún procedimiento de optimización numérica, como el de Marquardt, utilizado también para la resolución del modelo no lineal de regresión (capítulo 6).

El método de Box-Jenkins tiene, con respecto al de Filtrado Adaptativo, la ventaja de estimar los valores de los coeficientes mediante un procedimiento más riguroso. Frente a ello el método es de ejecución más compleja y los coeficientes obtenidos no se actualizan con nuevos valores experimentales de la serie.