Econometria Aplicada Ii

  • Uploaded by: francisco_j_parra
  • 0
  • 0
  • February 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Econometria Aplicada Ii as PDF for free.

More details

  • Words: 64,280
  • Pages: 277
Loading documents preview...
FRANCISCO PARRA RODRÍGUEZ (Doctor en Economía. Universidad Nacional de Educación a Distancia)

ECONOMETRÍA APLICADA II

Econometria Aplicada II by Francisco Parra Rodríguez is licensed under a Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional License

1

ÍNDICE Parte II 1.

NÚMEROS INDICES..........................................................................................................................4 1.1. INTRODUCCIÓN........................................................................................................................4 1.2. NÚMEROS ÍNDICES SIMPLES.................................................................................................6 1.3. NÚMEROS ÍNDICES COMPLEJOS O SINTÉTICOS...............................................................7 1.4. ÍNDICES DE PRECIOS.............................................................................................................10 1.5. ENLACES Y CAMBIOS DE BASE..........................................................................................12 1.6. DEFLACCIÓN POR UN INDICE DE PRECIOS. ....................................................................14 1.7. INDICES DE VOLUMEN ENCADENADOS. .........................................................................16 1.8. ELABORACIÓN DE ÍNDICES COMPUESTOS .....................................................................19 1.9. PROBLEMAS ............................................................................................................................23 2. SERIES TEMPORALES....................................................................................................................27 2.1. INTRODUCCIÓN......................................................................................................................27 2.2. COMPONENTES DE UNA SERIE TEMPORAL ....................................................................31 2.3. ANÁLISIS DE LA TENDENCIA..............................................................................................33 2.3.1. Método de los semipromedios ............................................................................................35 2.3.2. Método de mínimos cuadrados...........................................................................................38 2.3.3. Médias móviles...................................................................................................................41 2.3.4. Alisado Exponencial Simple...............................................................................................44 2.3.5. Alisado Exponencial Doble ................................................................................................48 2.3.6. Método de Holt-Winters. ....................................................................................................49 2.4. ANÁLISIS DE LA ESTACIONALIDAD .................................................................................51 2.4.1. Método del porcentaje promedio ........................................................................................55 2.4.2. Método del porcentaje promedio móvil..............................................................................57 2.4.3. Desestacionalización con Estacionalidad Cambiante .........................................................62 2.4.4. Ajuste estacional a través de medias móviles con R..........................................................64 2.5. PROBLEMAS ............................................................................................................................68 3. ANÁLISIS UNIVARIANTE DE SERIES TEMPORALES ..............................................................71 3.1. INTRODUCCIÓN......................................................................................................................71 3.2. PROCESOS ESTÓCÁSTICOS..................................................................................................72 3.3. PROCESOS ESTACIONARIOS ...............................................................................................74 3.3.1. Operador de Retardos y Operador Diferencia ....................................................................78 3.4. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES..........................................79 3.4.1. Procesos estocásticos lineales discretos..............................................................................79 3.4.2. Modelos Autorregresivos (AR(p))......................................................................................80 3.4.2.1. Modelos autorregresivos de primer orden AR(1) .....................................................81 3.4.2.2. Modelos autorregresivos de segundo orden AR(2) ...................................................83 3.4.2.3. Modelos autorregresivos de orden p, AR(p) .............................................................85 3.4.3. Procesos de Media Móvil (MA(q)).....................................................................................88 3.4.3.1. Modelos de medias móviles de primer orden MA(1).................................................88 3.4.3.2. Modelos de medias móviles de segundo orden MA(2) ..............................................90 3.4.3.3. Modelos de medias móviles de orden q, MA(q) ........................................................92 3.4.3.4. Relación entre procesos AR y MA.............................................................................93 3.4.4. Procesos ARMA(p, q) ........................................................................................................95 3.4.4.1. Modelos ARMA(1, 1).................................................................................................95 3.4.4.2. Modelos ARIMA........................................................................................................98 3.4.5. Procesos Estacionales .........................................................................................................99 3.5. FASES PARA LA ELABORACIÓN DE MODELOS UNIVARIANTES..............................111 3.5.1. Fase de identificación .......................................................................................................111 3.5.2. Fase de estimación............................................................................................................113 3.5.3. Fase de validación ............................................................................................................114 3.5.4. Fase de predicción ............................................................................................................119 3.6. EJEMPLOS PRÁCTICOS .......................................................................................................122 3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas. ...........................................................................122 3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria ................................................134 3.7. PROBLEMAS ..........................................................................................................................141

2

4.

Cointegracion ...................................................................................................................................143 4.1. INTRODUCCIÓN....................................................................................................................143 4.2. PASEO ALEATORIO..............................................................................................................144 4.3. PRUEBA DE RAÍZ UNITARIA..............................................................................................147 4.4. COINTEGRACIÓN .................................................................................................................153 4.5. MECANISMO DE CORRECCIÓN DE ERRORES(MCE) ....................................................157 4.6. PROBLEMAS ..........................................................................................................................158 5. MODELOS VAR .............................................................................................................................161 5.1. INTRODUCCIÓN....................................................................................................................161 5.2. MODELOS VAR .....................................................................................................................162 5.2.1. Definición .........................................................................................................................162 5.2.2. Estimación ........................................................................................................................166 5.2.3. Predicción y Función de Respuesta al Impulso ................................................................168 5.3. VAR ESTRUCTURAL ............................................................................................................173 5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR CON R. ..........................................176 5.5. PROBLEMAS ..........................................................................................................................181 6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA ..............................................................183 6.1. INTRODUCCIÓN....................................................................................................................183 6.2. REGRESIÓN BAND SPECTRUM .........................................................................................184 6.3. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA CON PARAMETROS DEPENDIENTES DEL TIEMPO. .......................................................................................................191 6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA REGRESIÓN DEPENDIENTE DE LA FRECUENCIA.....................................................................................................................................197 6.1. PROBLEMAS ..........................................................................................................................202 7. FILTROS LINEALES......................................................................................................................204 7.1. INTRODUCCIÓN....................................................................................................................204 7.2. FILTROS ELEMENTALES ....................................................................................................205 7.3. FILTROS FIR...........................................................................................................................211 7.4. EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN ......................................................216 7.5. DESCOMPOSICIÓN DE SERIES DE TIEMPO MEDIANTE FILTROS LINEALES..........225 7.6. TIPOS DE FILTROS................................................................................................................230 7.7. DISEÑO DE FILTROS ............................................................................................................235 ANEXO I. SERIES DE FOURIER ..........................................................................................................244 BIBLIOGRAFÍA......................................................................................................................................270

3

1.

NÚMEROS INDICES

1.1.

INTRODUCCIÓN

El número índice es un valor expresado como porcentaje de una cifra que se toma como unidad base. Por ejemplo, cuando decimos que el índice de precios de consumo (base media de 1992=100) correspondiente al mes de diciembre de 1997 es 122,9, estamos señalando que los precios en diciembre de 1997 eran un 22,9 más elevados que los que estaban en vigor a lo largo de 1992.

Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como a cantidades (índice de producción industrial).

El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un número índice se puede construir de muchas formas distintas. La forma de cada índice en particular dependerá del uso que se le quiera dar.

Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como a cantidades (índice de producción industrial).

El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un número índice se puede construir de muchas formas distintas. La forma de cada índice en particular dependerá del uso que se le quiera dar. Los números índices se elaboran tanto con precios (p) como con cantidades (q). El año en que se inicia el cálculo de un número índice se denomina año base y se nombran por p0 o q0 según tratemos de precios o de cantidades, a los precios o las cantidades de los años sucesivos los indicamos por pt o qt.

4

Las comparaciones pueden ser de una única magnitud, en este caso hablaremos de índices simples, o de varias magnitudes índices complejos o sintéticos. Si trabajamos con diferentes magnitudes o tipos de mercancías utilizamos los subíndices (i) para referirnos a un tipo de mercancía, de modo que utilizamos los símbolos pit o qit para señalar el precio o la cantidad de la mercancía i en el período t.

Dentro de los índices complejos o sintéticos puede que todas las mercancías tengan la misma importancia, índices no ponderados y en caso contrario índices ponderados. Los números índices no ponderados son los más sencillos de calcular, pero deben de utilizarse con especial cuidado. Los números índices ponderados requieren que definamos previamente a su construcción los criterios de ponderación o de peso. Una vez definida una ponderación debe de respetarse en los sucesivos períodos. Las ventajas de los números índices son: •

Naturaleza adimensional, no tienen unidades y esto nos permite hacer comparaciones.



Sirven para simplificar la complejidad de ciertos conceptos o fenómenos económicos.

A la hora de elaborar un número índice hay que tener presente una serie de propiedades que el índice debe de cumplir. Dichas propiedades son:

a) Existencia: Todo número índice ha de tener un valor finito distinto de cero.

b) Identidad: Si se hacen coincidir el período base y el período actual el valor del índice tiene que ser igual a la unidad (o 100 si se elabora en porcentajes).

c) Inversión: El valor del índice ha de ser invertible al intercambiar los períodos entre sí. Es decir : I to =

1 el índice del año o calculado con la base del año t, ha de ser igual al inverso del I ot

índice del año t calculado en base del año o.

d) Proporcionalidad: Si en el período actual todas las magnitudes experimentan una variación proporcional, el número índice tiene que experimentar también dicha variación.

e) Homogeneidad: Un número índice no puede estar afectado por los cambios que se realicen en las unidades de medida.

5

1.2.

NÚMEROS ÍNDICES SIMPLES

Sirven para estudiar la evolución de una sola magnitud en relación a un periodo base y pueden ser: a) Fijos: el año base es siempre el mismo. Si xio y xit representan los valores de la magnitud en los periodos base y actual, respectivamente, el número índice simple se denota por I t0 , y viene dado por:

I 0t =

xit × 100 xi 0

Que como se indica suele expresarse en porcentajes, aunque también podría expresarse en tanto por uno y nos mide la variación que ha sufrido la magnitud entre los dos periodos considerados. b) En cadena: cuando el año base varía, es decir cuando el año base es el inmediatamente anterior.

I tt−1 =

xit × 100 xit −1

Para obtener un índice fijo a partir de un índice en cadena se utiliza la siguiente formula:

I tt−1 =

I 0t I 0t −1

Para el caso contrario se utiliza esta fórmula: t

I 0t = ∏ I ii−1 i =1

Los números índices más utilizados son los siguientes:



Precio relativo: es el cociente entre el precio de un bien en el periodo actual ( pit ) y el precio del mismo en el periodo base ( pi 0 )

p0t =

pit × 100 pI 0 6



Cantidad relativa: es el cociente entre la cantidad de un bien en el periodo actual ( q it ) y la cantidad del mismo en el periodo base ( q i 0 )

q 0t = •

qit × 100 qI 0

Valor relativo: es el cociente entre el valor de un bien de un bien en el periodo actual ( pit ⋅ q it ) y la cantidad del mismo en el periodo base ( pi 0 ⋅ q io )

v0t =

1.3.

pit ⋅ qit × 100 = p0t ⋅ q0t pi 0 ⋅ qit

NÚMEROS

ÍNDICES

COMPLEJOS

O

SINTÉTICOS

Son indicadores sintéticos que se elaboran a partir de dos o más series de datos con el objeto de estudiar su evolución conjunta y realizar comparaciones con otras series. Los números índices compuestos se clasifican en:

a. No ponderados: Cuando todas las variables tienen asignada la misma importancia. b. Ponderados: Cuando a cada variable se le asigna un peso o ponderación. Partimos de una serie de magnitudes simples x1 , x 2 ,...., x n , para las que conocemos su valor en el periodo base o de referencia, al que denotaremos por 0, y en el periodo actual t. A continuación calculamos los índices simples para cada magnitud, de modo que disponemos de la siguiente tabla:

7

Magnitudes

Valor periodo base

Valor periodo actual

Índices simples

Magnitud 1

X10

X1t

I1= X1t/ X10

Magnitud 2

X20

X2t

I2= X2t/ X20

.

.

.

.

.

.

.

.

Magnitud N

XN0

XNt

In= XNt/ XN0

Con la serie de los N índices simples podemos obtener los siguientes índices compuestos:

a) índice media aritmética de índices simples cuando operamos del siguiente modo :

N

Ii ∑ I1 + I 2 +...+ I N i =1 I= = N N

b) índice media geométrica de índices simples cuando operamos del siguiente modo :

N

I = N I1 . I 2 .... I N = N ∏ I i i =1

c) índice media armónica de índices simples cuando operamos del siguiente modo :

I=

N = 1 1 1 + +...+ I1 I 2 IN

N N

1

i =1

i

∑I

d) índice media agregativa de índices simples cuando operamos del siguiente modo :

N

x + x 2t + ... + x Nt I = it = x1o + x 2 o + ... + x No

∑x i =1 N

∑x i =1

8

it

io

Una ponderación wi es un valor de referencia para cada producto que determina su importancia relativa en el índice total. Al ser el ponderador un valor relativo lo normal es que se presente calculado en tanto por uno, por ciento ó por mil, expresando así el porcentaje que representa dicho producto en la cesta de productos que cubre el índice:

Wi =

pi 0qi 0 n

∑p q i0

i0

Una vez obtenidos los ponderadores (wi) se calculan el índice media aritmética ponderada de índices simples cuando operamos del siguiente modo :

N

I w + I w +...+ I N wN I= 1 1 2 2 = w1 + w2 +...+ wN

∑ I .w i

i

i =1 N

∑w

i

i =1

Ejemplo 1.1. En la tabla siguiente aparece la información que disponemos sobre una cesta de productos: 2000

2001

2002

Productos

Precio venta

Unidades

Precio venta

Unidades

Precio venta

Unidades

M1

1

3000

1,2

4000

1,4

5500

M2

1,5

4000

1,5

3000

1,6

4500

M3

2

2500

2

2500

2,4

2000

M4

4

2000

4,5

1500

4,5

2000

Calculamos los índices simples de precios para los productos de la cesta:

Productos

2000

2001

2002

M1

100

120,00

140,00

M2

100

100,00

106,67

M3

100

100,00

120,00

M4

100

112,50

112,50

Los índices simples para la cesta de productos serán:

9

Indices simples

2000

2001

2002

Media aritmética

100

108,13

119,79

Media geométrica

100

107,79

119,16

Media armónica

100

107,46

118,55

Media agregativa

100

108,13

119,79

El ponderador sería tanto por uno el valor del producto, es decir el precio por la cantidad vendida, en el total vendido:

2000

2001

2002

M1

0,13636364

0,2280285

0,26829268

M2

0,27272727

0,21377672

0,25087108

M3

0,22727273

0,23752969

0,16724739

M4

0,36363636

0,32066508

0,31358885

Y el índice media aritmetica ponderado resultarán ser los siguientes:

Indice ponderado

2000

2001

2002

Media aritmética

100

108,57

119,67

1.4.

ÍNDICES DE PRECIOS.

Los índices de precios se elaboran usualmente utilizando índices complejos ponderados siendo los más utilizados los denominados índices de Laspeyres, Paasche y Fisher.

a) Índice de Laspeyres

El índice de Laspeyres es una media aritmética ponderada de índices simples, cuyo criterio de ponderación es wi = p io ⋅ qio . La fórmula que define el índice de Laspeyres es la siguiente:

N

N

∑ I i wi Lp =

i =1 N

∑I i =1

∑p =

i

it

qio

i =1 N

∑p

(1.1.) io

qio

i=1

10

Se suele utilizar este índice a la hora de elaborar los índices de precios por cuestiones prácticas ya que únicamente requiere investigar en el año base el valor de los ponderadores, que es la parte mas costosa de la elaboración del índice, (téngase en cuenta que en el IPC se realiza una encuesta de presupuestos familiares en los años base que requiere una muestra de 20.000 hogares). Una vez determinados los ponderadores el índice de Laspeyres únicamente requiere que se investigue en los sucesivos períodos la evolución de los precios.

b) Índice de Paasche También es una media aritmética ponderada de los índices simples, pero utilizando como coeficiente ponderador wi = p io ⋅ q it ; por tanto su definición queda como:

N

N

∑ I i wi Pp =

i =1 N

∑I i =1

∑p =

i

it

qit

i =1 N

∑p

(1.2.) io

qit

i=1

La diferencia entre el índice Paasche y el índice Laspeyres es que exige calcular las ponderaciones para cada periodo corriente “t”, haciendo su cálculo estadístico más laborioso, y presentando el inconveniente de que sólo permite comparar la evolución del precio de cada año con el año base, dado que las ponderaciones varían de período en período. Ambas razones han determinado que este índice sea más inusual que el anterior.

c) Índice de Fisher.

El índice de Fisher es la media geométrica de los índices de Laspeyres y Paasche, es decir :

Ep = Lp. Pp

(1.4)

Como los índices de precios de consideran un año determinado para calcular el ponderador bien sea a partir de q0 .p0 , o de qt .p0, utilizan la denominación de año base para referirse al año “0” a partir del que se calcula el ponderador wi.

11

Ejemplo 1.2.

Utilizando los datos de la tabla del ejemplo 1.1, vamos a calcular el indice de precios de Lasperyres (1.1), de Paasche (1.2) y de Fisher (1.3), para el año 2001.

N

N

∑I w Lp =

i =1 N

i

∑I i =1

∑p

i

= i

Pp =

∑I i =1

io

qio

∑p =

i

qio

=

1,2 × 3000 + 1,5 × 4000 + 2 × 2500 + 4,5 × 2000 = 1,0727 1 × 3000 + 1,5 × 4000 + 2 × 2500 + 4 × 2000

N

∑ I i wi i =1 N

∑p i =1

N

it

i =1 N

i =1 N

∑p i =1

it

qit

io

qit

==

1,2 × 4000 + 1,5 × 3000 + 2 × 2500 + 4,5 × 15000 = 1,0795 1 × 4000 + 1,5 × 3000 + 2 × 2500 + 4 × 1500

Ep = Lp.Pp = 1,0727 × 1,0795 = 1,0761

1.5.

ENLACES Y CAMBIOS DE BASE.

Uno de los problemas que tienen los índices ponderados como el índice de Laspeyres es que pierden representatividad a medida que los datos se alejan del periodo base. Téngase presente que, por ejemplo, el IPC que el INE calculó en 1991 utilizó los ponderadores obtenidos en la Encuesta de Presupuestos Familiares de 1983 que, a su vez, reflejaba la estructura media de consumo de los españoles en aquel año. El tiempo transcurrido entre 1983 y 1991 era lo suficientemente dilatado para que se hubieran producido cambios en los hábitos de consumo y en consecuencia el INE procedió a elaborar una nueva Encuesta de Presupuesto Familiares (la de 1992), cuya estructura de consumo ó cesta de compra es la que actualmente se utiliza como base para obtener el IPC.

La decisión que tomó el INE de realizar un nuevo IPC con la estructura de consumo resultante de la Encuesta de Presupuestos Familiares de 1992 es lo que provoca el Cambio de Base del IPC. Al ser los ponderadores distintos los utilizados entre 1983 y 1991 y los actuales, los índices de precios son esencialmente distintos, y por lo tanto no se pueden comparar a priori entre sí. El procedimiento a través del cual hacemos comparables números índices obtenidos con bases distintas es lo que se denomina Enlace. El enlace de índices se basa en la propiedad de inversión de los números índices.

Supongamos que queremos efectuar un cambio de base desde un índice construido con base 1983, a otro en base 1982.

12

t t Sea I 83 el índice construido en base 1983 e I 92 el índice construido con la base1992, entonces:

I 83t . I 9292 I 83t I = = 92 I 8392 I 83 I 9292 t 92

En el caso del IPC español el INE publica el valor del cociente

92 I 83 que denomina coeficiente 92 I 92

legal de enlace. El valor del coeficiente legal de enlace el la serie del IPC base 92 y el construido con la base 1983 en el índice general de España es 0,545261 y en el índice general de Castilla y León es 0,559529.

Cuando se dispone de los coeficientes legales de enlace, como ocurre en el caso del IPC, la operativa aritmética se simplifica bastante, ya que enlazar la serie con base de 1983 a la serie de base 1992 únicamente requiere el que multipliquemos la primera por el coeficiente legal de enlace (en caso contrario habría que dividir).

El enlace del IPC base del IPC 2001, es similar aunque hay que tener presente que entre este IPC y los anteriores hay una novedades metodológicas que no se resuelven aplicando los coeficientes legales de enlace, este es el caso de la introducción de las rebajas en el calculo del IPC.

El coeficiente de enlace legal se obtiene como cociente entre el índice de diciembre de 2001, en base 2001 y, el índice para el mismo período en base 1992.

Las series enlazadas se calculan multiplicando cada uno de los índices en base 1992 por este coeficiente. Con estas series se pueden obtener las tasas de variación mensual publicadas, pero no sucede lo mismo con las tasas de variación anual del año 2002, ya que por ellas se utilizan los índices del año 2001, en base 2001.

Los coeficientes de enlace se han obtenido de forma independiente para cada una de las series de índices que tienen continuidad en la nueva base, lo cual implica que cualquier índice agregado de una serie enlazada no es el resultado de la media ponderada de los índices elementales que lo componen.

13

Por último, es preciso puntualizar que, si bien el nuevo Sistema tiene como base la media de los índices del año 2001 en base 2001 igual a 100, los índices que se publicaron en ese año eran índices calculados en base 1992 y, por tanto, las series enlazadas pueden no tener media 100 en el año 2001.

Ejemplo 1.3.

A continuación vamos ha realizar un ejercicio de enlace de diferentes bases del índice de precios percibidos por los agricultores. Por un lado, la seriee 1985-1990 del Índice de Precios Percibidos por la Agricultores en Castilla y León, base 1985; y por otro la serie 1990-1995 de dicho índice en base 1990. El enlace de la serie 1985-1990 a la base 1990 se realiza conforme a la regla antes expuesta: 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995

Base 1985 100 109,83 102,29 103,26 111,05 106,34

Base 1990

100 99,84 95,85 99,84 110,18 113,36

Base 1985 100 109,83 102,29 103,26 111,05 106,34 106,17 101,93 106,17 117,17 120,55

1.6.

DEFLACCIÓN

Base 1990 94,04 103,28 96,19 97,10 104,43 100,00 99,84 95,85 99,84 110,18 113,36

POR

UN

INDICE

DE

PRECIOS. La utilidad más importante que tienen los índices de precios, aparte de describir el comportamiento de los precios durante un período concreto, es la de deflactar series cronológicas o temporales valoradas en moneda (euros, dolares, etc..). Deflactar es eliminar el componente de subida de precios que es inherente a toda serie temporal que viene referida a un valor monetario (ventas de una empresa, los salarios que cobran los trabajadores, los depósitos y créditos bancarios, el PIB, etc...). Las ventas de una empresa, por ejemplo, se incrementan de un año a otro (ó de un mes a otro), bien por haber aumentado el número de pedidos que realizan los clientes o bien por que la empresa o el mercado haya decidido una subida en los precios de los artículos pedidos. Si se valoramos el número de pedidos del año actual utilizando los precios vigentes el ejercicio pasado, dispondremos de un elemento comparativo con respecto al

14

ejercicio anterior que nos señalaría de manera inequívoca si nuestro volumen de negocio se ha incrementado con independencia de lo ocurrido con los precios

En consecuencia, cuando obtenemos el valor de la serie utilizando como referencia para su valoración el precio que rige en un período determinado (un año en concreto), realizamos una valoración a precios constantes en tanto que dicha serie valorada a los precios vigentes en cada período nos da su valor a “precios corrientes”.

Elaborar un indice simple sobre una serie deflactada es obtener un indice de valor ó indice de valor unitario.

En la práctica, para pasar de una serie en moneda corriente a moneda constante se realiza dividiendo la primera por un índice de precios adecuado. Este procedimiento recibe el nombre de deflactación y al índice de precios elegido se le denomina deflactor.

No obstante, hay que señalar que, cuando utilizamos como deflactor un índice de precios de Laspeyres (1.1.):

vt Σpit . qit Σpit.qit = = Σpio.qio lp Σpit . qio Σpit.qio Σpio . qio No pasamos exactamente valores corrientes a constante, cosa que si ocurre con el índice de precios de Paasche (1.2.):

vt Σpit . qit = = Σpio. qio Σpit . qit lp Σpio . qit Entonces el índice que realmente permite transformar los valores nominales en valores reales es el índice de precios de Paasche. Sin embargo, los resultados de la deflación por este índice de precios sólo es válida en el supuesto de que los bienes, y sus cantidades, incluidos en el índice sean los mismos que en la serie de valores. Esta limitación, junto con el hecho de que en pocas situaciones se dispone de un índice de precios de Paasche, debido a su complicada elaboración, hace que en la práctica se utilice un índice de precios de Laspeyres.

15

Ejemplo 1.4. En la tabla siguiente se ha deflactado la serie de salarios ordinarios en la construcción de Cantabria por trabajador en el periodo 2002 a 2006 utilizando el Índice General de Precios al Consumo de Cantabria de 2002 a 2006 (media trimestral) en base 2006:

Año

Trimestre

Coste salarial ordinario

IPC

2002 2002 2002 2002 2003 2003 2003 2003 2004 2004 2004 2004 2005 2005 2005 2005 2006 2006 2006 2006 2007 2007 2007

1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3

1105,61 1163,12 1197,78 1203,04 1180,87 1216,98 1200,49 1226,42 1215,01 1265,44 1247,24 1280,62 1288,86 1301,36 1295,75 1320,46 1359,89 1368,91 1386,91 1362,92 1355,71 1389,98 1428,71

87,04 88,84 88,80 90,16 90,05 91,06 90,96 92,44 91,77 93,79 93,66 95,30 94,52 96,58 96,89 98,43 98,31 100,43 100,31 100,94 100,52 102,66 102,76

1.7.

Coste salarial en euros del 2006 1270,30 1309,25 1348,92 1334,33 1311,40 1336,41 1319,81 1326,78 1323,91 1349,28 1331,68 1343,79 1363,55 1347,48 1337,41 1341,50 1383,21 1363,00 1382,57 1350,25 1348,71 1353,99 1390,35

Indice de Valor del Coste Salarial 100,00 103,07 106,19 105,04 103,24 105,20 103,90 104,45 104,22 106,22 104,83 105,79 107,34 106,08 105,28 105,61 108,89 107,30 108,84 106,29 106,17 106,59 109,45

INDICES DE VOLUMEN ENCADENADOS.

Tradicionalmente, en los índices compuestos se comparan directamente dos puntos en el tiempo, el periodo actual (t) y el periodo base (0). Las diferencias entre los distintos índices surgen a la hora de agregar los índices simples o elementales. En los índices de tipo Laspeyres se considera la utilización de ponderaciones del periodo base, mientras que los índices de tipo Paasche utilizan las ponderaciones del periodo actual. En ambos casos, si se produce un cambio importante en la composición de las unidades elementales entre los periodos base y actual, la relevancia de ambos índices se ve reducida.

16

Los índices encadenados consideran que el paso del período 0 al t puede fragmentarse considerando los incrementos parciales, esto es, que el encadenamiento de los índices (i.e. de las variaciones) evaluados con la frecuencia de muestreo máxima posible constituye una valoración más apropiada del cambio realizado desde 0 hasta t. Intuitivamente, se intenta reducir el envejecimiento de la base.

La forma de resolver este problema consiste en efectuar las comparaciones entre períodos que disten lo menos posible (por ejemplo, un período) mediante “eslabones”:

I sA/ s −1 = ∑ w j i s / s −1 j

A partir de los eslabones, la variación entre los periodos 0 y t se encadena: t

CI tA/ 0 = ∏ I sA/ s −1 s =1

Un índice así construido carece de periodo base o de ponderaciones, ya que van cambiando a lo largo de los distintos periodos. No obstante, se designa un periodo llamado de referencia, al que arbitrariamente se le asigna el valor 100.

Ejemplo 1.5 En la siguiente tabla se ofrece un ejemplo con datos hipotéticos de dos productos (A y B) y tres años (0, 1 y 2):

2000

2001

2002

PRODUCTO

PRECIO

CANTIDAD

p0.q0

PRECIO

CANTIDAD

p1.q1

PRECIO

CANTIDAD

p2.q2

A

3

5

15

2

9

18

1

9

9

B

4

7

28

5

7

35

6

11

66

TOTAL

43

53

Primero, se calculan los eslabones:

17

75

2000

2001

2002

PRODUCTO

PRECIO

CANTIDAD

p0.q0

PRECIO

CANTIDAD

P0.q1

PRECIO

CANTIDAD

P1.q2

A

3

5

15

2

9

27

1

9

18

B

4

7

28

5

7

28

6

11

55

TOTAL

43

55

73

Eslabón

100

127,9

137,7

127,9 =

p 0 q1 55 = × 100 p 0 q 0 43

137,7 =

p1 q 2 73 = × 100 p1 q1 53

El índice encadenado se obtiene multiplicando cada eslabón anual en forma de índice por la cadena acumulada hasta el año precedente. La cadena así obtenida es un número índice por lo que su conversión en términos monetarios se realiza multiplicándola por el valor a precios corrientes observado en un año particular, llamado “de referencia”. En la siguiente tabla se considera el año 0 como periodo de referencia: 2000

2001

2002

PRODUCTO

PRECIO

CANTIDAD

p0.q0

PRECIO

CANTIDAD

P0.q1

PRECIO

CANTIDAD

P1.q2

A

3

5

15

2

9

27

1

9

18

B

4

7

28

5

7

28

6

11

55

TOTAL

43

55

73

Eslabón

100

127,9

132,7

Índice encadenado

100

127,9

176,2

Valoración monetaria

43

55

76

127,9 =

127,9 × 100 100

176,2 =

137,7 × 127,9 100

Debe señalarse que, a diferencia de lo que ocurría con la valoración a precios constantes en la que el año de referencia y base coinciden, en el sistema de valoración a precios del año anterior no son equivalentes. Así, el año de referencia es el que define la escala del índice encadenado (haciéndolo 100), mientras que la base temporal es móvil, existiendo tantas bases como pares de

18

años consecutivos por lo que, en conjunto, la valoración encadenada carece de base fija (base móvil).

La aplicación de esta metodología genera una pérdida de aditividad en las medidas encadenadas de volumen (excepto en los datos correspondientes a los años de referencia y al inmediatamente posterior). La pérdida de aditividad significa, por ejemplo, que la suma de los componentes del Producto Interior Bruto (PIB) no coincide con éste (excepto en los datos correspondientes a los años de referencia y al inmediatamente posterior). De forma general, una variable valorada mediante medidas encadenadas de volumen no coincide con la suma de sus elementos constituyentes igualmente evaluados a través de medidas encadenadas de volumen. La pérdida de aditividad es una consecuencia directa de las propiedades matemáticas del sistema de valoración, por lo que las discrepancias no reflejan deterioro alguno de calidad en el proceso de medida.

1.8.

ELABORACIÓN DE ÍNDICES COMPUESTOS

La fórmula básica para la construcción de los indicadores líderes compuestos es la siguiente:

donde

wi es el ponderador s i es el método de normalización ci es el indicador simple Cuando se elabora un indicador compuesto es necesario que las series individuales presenten la misma amplitud cíclica relativa, pues de lo contrario, las series con mayor amplitud cíclica dominarían el comportamiento del indicador compuesto, impidiendo así que se revele la información contenida en otras series de menor amplitud. Para lograrlo, se normalizan las series componentes restándoles la media y dividiéndolas por el promedio de las desviaciones de la media en valor absoluto, conforme la siguiente fórmula:

19

Otros métodos de normalización serían: z-score:

Min-max:

Cuando se trabaja con balances de respuestas (encuestas de opiniones empresariales), es conveniente utilizar índices de difusión:

IDt =

xt + 100 2

donde IDt es el índice de difusión y xt es el balance de respuestas correspondiente.

La diferencia entre un balance de respuestas y un índice de difusión es que el primero está centrado en cero, con un valor máximo de 100 y un mínimo de -100, mientras que el segundo está centrado en 50, con un valor máximo de 100 y un valor mínimo de cero. El uso de índices de difusión resulta más cómodo que el uso de balances, ya que en tal transformación, las series sólo toman valores positivos, lo que facilita el uso de logaritmos y descomposiciones multiplicativas de las series temporales.

Cuando el índice de difusión es mayor que 50, significa que los entrevistados están optimistas respecto a la evolución de la variable objetivo. Si es menor que 50, los entrevistados se encuentran pesimistas.

La ponderación se puede obtener de datos base de la Contabilidad Nacional Anual, por ejemplo, si se quiere construir un indicador de producción industrial, se puede agregar a partir de los índices subsectoriales y el VAB o empleo de cada subsector.

A continuación se exponen dos metodologías estadísticas de obtención de ponderadores: el método de Granger y Newbold (1986) y los componentes principales.

20

a. El método de Granger y Newbold Para la construcción del indicador sintético se estima la siguiente ecuación, utilizando la serie anual de la macromagnitud de referencia y el conjunto de variables seleccionadas anualizadas:

(

)

(

)

(

)

YT = α1 a1 + b1 X T1 + α 2 a2 + b2 X T2 + ... + α k ak + bk X tk + µT = ZT + µT donde: YT es el valor de la variable a trimestralizar en el año T.

X Tj es el valor del indicador aproximativo, en el año T, proyectada hasta el último trimestre del año actual a través de modelos ARIMA, siendo k el número de indicadores aproximativos utilizados aj es el término independiente de la regresión entre Y y Xj. bj es el coeficiente de la regresión entre Y e Xj.

α j es el peso asignado a la estimación a través de la variable j

ZT

es el indicador sintético

µT es el error del modelo en el año T. El peso de cada variable en el indicador sintético se establece de forma inversamente proporcional al error de su regresión con Y, σ j , tal que:

αj =

σ −j 1 k

∑σ

−1 h

h =1

Una vez obtenido el indicador Z, se obtiene la serie estimada del valor trimestral de la variable y

(

)

(

)

(

yt = α1 a1 + b1 xt1 + α 2 a2 + b2 xt2 + ... + α k ak + bk xtk

)

b. Estimación del modelo con Componentes Principales

La metodología de componentes principales se realiza en dos fases. En primer lugar se realiza una estimación de los componentes principales de los indicadores estratégicos relacionados con la variable Y, y en segundo lugar se realiza una regresión entre Y y el valor anualizado de los factores resultantes de la fase anterior.

21

Así pues, siendo X1, X2,….Xm los distintos indicadores que hemos seleccionado como variables relacionadas con Y, este método nos va extraer las diferentes funciones lineales (Zs) que existen entre ellas:

Z 1 = a11 X 1 + a12 X 2 + ....a1n X n Z 2 = a 21 X 1 + a 22 X 2 + ....a 2 n X n .... Z m = a m1 X 1 + a m 2 X 2 + ....a mn X n Este método extrae las funciones lineales (Zs) seleccionando las así de tal modo que las varianzas de las Zs sean maximizadas. De este modo, los componentes extraídos son las combinaciones lineales de los indicadores que tienen mayor varianza, siendo Z1 el componente con mayor varianza explicada, seguido del Z2 que contiene la segunda mayor varianza explicada pero sin estar correlacionado con Z1 y así sucesivamente, de modo que la suma de la varianza de todos los componentes explique el total de las variaciones de las Xn y, a su vez, estén incorrelacionadas entre ellas.

Uno de los problemas de esta metodología radica en la determinación del número de componentes que deben ser tomados en cuenta para la fase número dos. La práctica más extendida es que sólo serán tomados aquellos componentes cuyos autovalores (raíces características) superen la unidad.

En la segunda fase del modelo de componentes principales, se expresa la relación entre el Y trimestral y los componentes principales (CP) extraídos del conjunto de indicadores originales.

YT = α + βCPT + µ T Obteniéndose la estimación trimestral de Y a partir de:

yt = α + βCPt + µ t

22

1.9.

PROBLEMAS

1.1 Partiendo de las siguientes observaciones de tres precios: Año

A 1 2 3 4 5

B

C

3 4 4,5 5 6

2 3,5 3 2,5 3

4 3,5 2 1,5 1

Se pide: a) Calcular el índice simple de cada precio tomando como referencia en año 1 b) Calcula un indice compuesto media aritmética, armónica y geométrica. c) Calcula un indice compuesto ponderado utilizando como ponderadores 0.60, 0.30 y 0.10 para el precio A, B y C respectivamente.

1.2 Partiendo de las siguientes observaciones de precios y cantidades de los artículos de la tabla: Precios Año

A 1 2 3

B 6 7 8

Cantidades C

A

1 1,5 0,75

2 3,5 4

B 50 40 30

C 500 450 600

100 120 110

a) Obtener los índices de precios de Paache, Laspeyres y Fisher tomando como referencia en periodo 1. b)

Obtener los índices de cantidades de Paache, Laspeyres y Fisher tomando como referencia en periodo 1.

1.3 En un contrato de alquiler está establecido que la renta anual se tiene que revisar de acuerdo al crecimiento anual del IPC, teniendo en cuenta que el año 2010 se pagaba de 700 euros de alquiler, calcule la actualización de dicha renta en 2011, 2012 y 2013, utilizando los datos de la tabla siguiente:

2010 2011 2012 2013

IPC(Base 2005) 120 122 125,5 125

23

1.4 En la tabla siguiente se recogen los incrementos de salarios mensuales medios de una industría durante el periodo 2010-2013, utilizando el IPC que se recoge en el cuadro anterior calcule:

Año 2010 2011 2012 2013

Salario medio por trabajador y mes 1200 1210 1150 1000

a) Los indices de precios con base 2010 b) Los salarios en valores constantes del 2010 c) Calcule un indice que refleje la evolución del poder adquisitivo de esos salarios durante el periodo.

1.5 En el 2013 se ha procedido a un cambio de base en dicho IPC, teniendo presente que el IPC de 2014 con la base 2013 es 101,35, indique como ha variado el poder adquisitivo del un salario medio de 1150 euros por trabajador y mes pagado en 2012.

1.6 Se dispone de los siguientes datos de precios y cantidades producidas: A Años

p 0 1 2 3

B q

6 8 10 12

p 50 60 70 80

q 3 4 7 9

35 45 50 60

Obtenga los eslabones y los índices de volumen de Laspeyres encadenados, año de referencia 0 y 1.

24

SOLUCIONES 1.1 a) Año

A B 1 100 2 133,333333 3 150 4 166,666667 5 200

C 100 175 150 125 150

100 87,5 50 37,5 25

1 2 3 4 5

Aritmética Armónica 100 100 131,944444 121,73913 116,666667 90 109,722222 73,7704918 125 58,0645161

Geometrica 100 126,861044 104,004191 92,1007875 90,8560296

1 2 3 4 5

Ponderado 100 141,25 140 141,25 167,5

b) Año

c) Año

1.2 a) Paache 100 147,849462 113

Laspeyres Fisher 100 100 145 146,4178 117,5 115,228035

b) Paache 100 94,8275862 96,1702128

Laspeyres Fisher 100 100 93 93,9093473 100 98,0664126

1.3 Renta 2010 700 2011 711,666667 2012 732,083333 2013 729,166667

25

1.4 a)

2010 2011 2012 2013

Indice de precios (Base 2010) 100 101,666667 104,583333 104,166667

2010 2011 2012 2013

Salarios a valores constantes 1200 1190,16393 1099,60159 960

2010 2011 2012 2013

Indice de Valor 100 99,1803279 91,6334661 80

Año

b)

Año

c) Año

1.5. 1139,22

1.6. Años

Eslabon

Indice encadenado

0 100 1 122,222222 122,222222 2 115,151515 140,740741 3 116,190476 133,795094

26

2.

SERIES TEMPORALES

2.1.

INTRODUCCIÓN

El presente epígrafe pretende ser una breve introducción al estudio de las series temporales, las cuales poseen una gran importancia en el campo de la Economía dada la abundancia de este tipo de observaciones; de hecho, las series temporales constituyen la mayor parte del material estadístico con el que trabajan los economistas.

Pero, ¿qué es una serie temporal? Por definición, una serie temporal es una sucesión de observaciones de una variable realizadas a intervalos regulares de tiempo. Según realicemos la medida de la variable considerada podemos distinguir distintos tipos de series temporales: −

Discretas o Continuas, en base al intervalo de tiempo considerado para su medición.



Flujo o Stock. En Economía, se dice que una serie de datos es de tipo flujo si está referida a un período determinado de tiempo (un día, un mes, un año, etc.). Por su parte, se dice que una serie de datos es de tipo stock si está referida a una fecha determinada (por ejemplo, el 31 de Diciembre de cada año). Un ejemplo de datos de tipo flujo serían las ventas de una empresa ya que éstas tendrán un valor distinto si se obtiene el dato al cabo de una semana, un mes ó un año; por su parte, la cotización de cierre de las acciones de esa misma empresa sería una variable de tipo stock, ya que sólo puede ser registrado a una fecha y hora determinadas. Obsérvese que existen relación entre ambos tipos de variables, pues la cotización al cierre de las acciones no es más que el precio de cierre del día anterior más, o menos, el flujo de precios de la sesión considerada.



Dependiendo de la unidad de medida, podemos encontrar series temporales en pesetas o en diversas magnitudes físicas (kilogramos, litros, millas, etc.)



En base a la periodicidad de los datos, podemos distinguir series temporales de datos diarios, semanales, mensuales, trimestrales, anuales, etc.

27

Antes de profundizar en el análisis de las series temporales es necesario señalar que, para llevarlo a cabo, hay que tener en cuenta los siguientes supuestos: −

Se considera que existe una cierta estabilidad en la estructura del fenómeno estudiado. Para que se cumpla este supuesto será necesario estudiar períodos lo más homogéneos posibles.



Los datos deben ser homogéneos en el tiempo, o, lo que es lo mismo, se debe mantener la definición y la medición de la magnitud objeto de estudio. Este supuesto no se da en muchas de las series económicas, ya que es frecuente que las estadísticas se perfeccionen con el paso del tiempo, produciéndose saltos en la serie debidos a un cambio en la medición de la magnitud estudiada. Un caso particularmente frecuente es el cambio de base en los índices de precios, de producción, etc. Tales cambios de base implican cambios en los productos y las ponderaciones que entran en la elaboración del índice que repercuten considerablemente en la comparabilidad de la serie en el tiempo.

El objetivo fundamental del estudio de las series temporales es el conocimiento del comportamiento de una variable a través del tiempo para, a partir de dicho conocimiento, y bajo el supuesto de que no van a producirse cambios estructurales, poder realizar predicciones, es decir, determinar qué valor tomará la variable objeto de estudio en uno o más períodos de tiempo situados en el futuro, mediante la aplicación de un determinado modelo calculado previamente.

Dado que en la mayor parte de los problemas económicos, los agentes se enfrentan a una toma de decisiones bajo un contexto de incertidumbre, la predicción de una variable reviste una importancia notoria pues supone, para el agente que la realiza, una reducción de la incertidumbre y, por ende, una mejora de sus resultados.

Las técnicas de predicción basadas en series temporales se pueden agrupar en dos grandes bloques: −

Métodos cualitativos, en los que el pasado no proporciona una información directa sobre el fenómeno considerado, como ocurre con la aparición de nuevos productos en el mercado. Así, por ejemplo, si se pretende efectuar un estudio del comportamiento de

28

una acción en Bolsa, y la sociedad acaba de salir a cotizar al mercado, no se puede acudir a la información del pasado ya que ésta no existe. −

Métodos cuantitativos, en los que se extrae toda la información posible contenida en los datos y, en base al patrón de conducta seguida en el pasado, realizar predicciones sobre el futuro.

Indudablemente, la calidad de las previsiones realizadas dependerán, en buena medida, del proceso generador de la serie: así, si la variable observada sigue algún tipo de esquema o patrón de comportamiento más o menos fijo (serie determinista) seguramente obtengamos predicciones más o menos fiables, con un grado de error bajo. Por el contrario, si la serie no sigue ningún patrón de comportamiento específico (serie aleatoria), seguramente nuestras predicciones carecerán de validez por completo.

Generalmente, en el caso de las series económicas no existen variables deterministas o aleatorias puras, sino que contienen ambos tipos de elementos. El objeto de los métodos de previsión cuantitativos es conocer los componentes subyacentes de una serie y su forma de integración, con objeto de realizar de su evolución futura.

Dentro de los métodos de predicción cuantitativos, se pueden distinguir dos grandes enfoques alternativos: −

Por un lado, el análisis univariante de series temporales mediante el cual se intenta realizar previsiones de valores futuros de una variable, utilizando como información la contenida en los valores pasados de la propia serie temporal. Dentro de esta metodología se incluyen los métodos de descomposición y la familia de modelos ARIMA univariantes que veremos más adelante.



El otro gran bloque dentro de los métodos cuantitativos estaría integrado por el análisis multivariante o de tipo causal, denominado así porque en la explicación de la variable o variables objeto de estudio intervienen otras adicionales de ella o ellas mismas.

En el tratamiento de series temporales que vamos a abordar, únicamente se considerará la información presente y pasada de la variable investigada. Si la variable investigada es Y y se dispone de los valores que toma dicha variable desde el momento 1 hasta T, el conjunto de información disponible vendrá dado por:

29

Y1, Y2, Y3, …, YT-1, YT

Dada esa información, la predicción de la variable Y para el período T+1 la podemos expresar como:

YˆT +1 / T Con esta notación queremos indicar que la predicción para el periodo T+1 se hace condicionada a la información disponible en el momento T. El acento circunflejo sobre la Y nos indica que esa predicción se ha obtenido a partir de un modelo estimado. Conviene también hacer notar que T+1 significa que se está haciendo la predicción para un período hacia delante, es decir, con la información disponible en t hacemos una predicción para el período siguiente.

Análogamente, la predicción para el período T+2 y para el período T+m, con la información disponible en T, vendrá dada, respectivamente, por:

YˆT + 2 / T ; YˆT + m / T que serán predicciones de 2 y m períodos hacia adelante.

Si, genéricamente, para el período t se efectúa una predicción con la información disponible en t–1, y a la que designamos por Yˆt / t −1 , para el período t podemos hacer una comparación de este valor con el que realmente observemos (Yt). La diferencia entre ambos valores será el error de predicción de un período hacia adelante y vendrá dado por:

et / t −1 = Yt − Yˆt / t −1 Cuando un fenómeno es determinista y se conoce la ley que lo determina, las predicciones son exactas, verificándose que et / t −1 = 0 . Por el contrario, si el fenómeno es poco sistemático o el modelo es inadecuado, entonces los errores de predicción que se vayan obteniendo serán grandes.

Para cuantificar globalmente los errores de predicción se utilizan los siguientes estadísticos: la Raíz del Error Cuadrático Medio (RECM) y el Error Absoluto Medio (EAM).

30

En el caso de que se disponga de T observaciones y se hayan hecho predicciones a partir de la observación 2, las fórmulas para la obtención de la raíz del Error Cuadrático Medio y el Error Absoluto Medio son las siguientes:

T



T

t =2

RECM =

T

EAM =

t

=

T −1



∑ (Y − Yˆ

et2/ t −1

t =2

t / t −1 )

2

T −1

T

∑ Y − Yˆ

et / t −1

t =2

T −1

t

=

t =2

t / t −1

T −1

De forma análoga se pueden aplicar la RECM y el EAM en predicciones de 2, 3, …, m períodos hacia adelante.

En el análisis de series temporales se aplican, en general, métodos alternativos a unos mismos datos, seleccionando aquel modelo o aquel método que, en la predicción de períodos presentes y pasados, arroja errores de predicción menores, es decir, arroja una RECM o un EAM menor.

2.2.

COMPONENTES DE UNA SERIE TEMPORAL

Tradicionalmente, en los métodos de descomposición de series temporales, se parte de la idea de que la serie temporal se puede descomponer en todos o algunos de los siguientes componentes: −

Tendencia (T), que representa la evolución de la serie en el largo plazo



Fluctuación cíclica (C), que refleja las fluctuaciones de carácter periódico, pero no necesariamente regular, a medio plazo en torno a la tendencia. Este componente es frecuente hallarlo en las series económicas, y se debe a los cambios en la actividad económica.

Para la obtención de la tendencia es necesario disponer de una serie larga y de un número de ciclos completo, para que ésta no se vea influida por la fase del ciclo en que finaliza la serie, por lo que, a veces, resulta difícil separar ambos componentes. En estos casos resulta útil englobar ambos componentes en uno solo, denominado ciclotendencia o tendencia generalizada.

31



Variación Estacional (S): recoge aquellos comportamientos de tipo regular y repetitivo que se dan a lo largo de un período de tiempo, generalmente igual o inferior a un año, y que son producidos por factores tales como las variaciones climatológicas, las vacaciones, las fiestas, etc.



Movimientos Irregulares (I), que pueden ser aleatorios, la cual recoge los pequeños efectos accidentales, o erráticos, como resultado de hechos no previsibles, pero identificables a posteriori (huelgas, catástrofes, etc.)

En este punto, cabe señalar que en una serie concreta no tienen por qué darse los cuatro componentes. Así, por ejemplo, una serie con periodicidad anual carece de estacionalidad.

La asociación de estos cuatro componentes en una serie temporal, Y, puede responder a distintos esquemas; así, puede ser de tipo aditivo:

Y=T+C+S+I

También puede tener una forma multiplicativa:

Y=TCSI

O bien ser una combinación de ambos, por ejemplo:

Y=TCS+I

Una forma sencilla para ver como están asociadas las componentes de una serie temporal es representar gráficamente la serie que estamos analizando. Si al realizar la representación gráfica se observa que las fluctuaciones son más o menos regulares a lo largo de la serie, sin verse afectadas por la tendencia (véase Figura. 2.1), se puede emplear el esquema aditivo.

32

Figura 2.1. Esquema aditivo

Si, por el contrario, se observa que la magnitud de las fluctuaciones varía con la tendencia, siendo más altas cuando ésta es creciente y más bajas cuando es decreciente (véase Figura 2.2), se debe adoptar entonces el esquema multiplicativo.

Figura 2.2. Esquema multiplicativo.

2.3.

ANÁLISIS DE LA TENDENCIA

Como decíamos en el apartado anterior, la tendencia es el componente de la serie temporal que representa la evolución a largo plazo de la serie. La tendencia se asocia al movimiento uniforme

33

o regular observado en la serie durante un período de tiempo extenso. La tendencia es la información más relevante de la serie temporal ya que nos informa de si dentro de cinco, diez o quince años tendrá un nivel mayor, menor o similar al que la serie tiene hoy día.

El análisis de la tendencia se realiza fundamentalmente con dos objetivos: por un lado, para conocer cuáles son las pautas de comportamiento a lo largo del tiempo, de la variable objeto de estudio, y por otro, para predecir sus valores futuros.

Las tendencias suelen representarse mediante funciones de tiempo continuas y diferenciables. Las funciones de tendencia más utilizadas son:

1. Lineal. 2. Polinómica. 3. Exponencial. 4. Modelo autorregresivo 5. Función 6. Curva de Gompertz 7. Modelo logarítmico recíproco

Si una serie temporal Xt se ajusta a una tendencia lineal, la función de tiempo que se plantea es la siguiente: Xt =α+βt t= 1, 2, …, n Una tendencia polinómica de grado p se ajustará a una función del siguiente tipo: f(t) = α+β1 + β2t2 + …+βptp Si la tendencia sigue una ley exponencial, entonces la función de ajuste será: f(t) = aert donde a y r son constantes.

Un modelo autorregresivo ajusta la tendencia de la forma siguiente: Xt =γ0+γ1xt-1 + ut

siendo γ>0

34

La curva logística se representa mediante la función:

T (t ) =

T 1 − be − rt

donde t, b y r son constantes positivas.

La curva de Gompertz responde a la siguiente ecuación: f (t) = T·be-rt donde T, r, b son parámetros positivos.

Finalmente, el modelo logarítmico recíproco, viene definido por la relación:

f(t) = a + b 1/t

B<0

Para calcular las funciones de tendencia, lo habitual es linealizar las formas de las funciones no lineales y proceder a su estimación como si fuera una función de tendencia lineal.

Una vez establecido un modelo teórico para la tendencia, se debe proceder a la determinación o cálculo de los parámetros que desconocemos mediante diversos procedimientos estadísticos, que pasamos a describir a continuación.

2.3.1. Método de los semipromedios El método de los semipromedios es la forma más rápida de estimar una línea de tendencia recta. El método requiere dividir la serie de datos en dos mitades y calcular el promedio de cada mitad que se centra en el punto medio. La recta que una ambas medias (o semipromedios) será la línea de tendencia estimada.

Ejemplo 2.1.

Utilizando la serie cronológica de ventas de gasolina en Castilla y Leon: años 1985-1994. (Miles de Tm.) sobre la que vamos a realizar un ajuste de una tendencia basada en el método de semipromedios:

35

AÑOS

Tm.

1985

441.300

1986

441.200

1987

466.700

1988

496.700

1989

527.809

1990

536.445

1991

548.302

1992

599.525

1993

613.849

1994

610.370

Dividimos la serie en dos mitades, cada una de cinco años, y calculamos los promedios de cada mitad. Los promedios los centramos en las observaciones centrales, las correspondientes a 1987 y 1992:

Promedio centrado en 1987 =

441.300 + 441.200 + 466.700 + 496.700 + 527.809 = 474.742 5

Promedio centrado en 1992 =

536.445 + 548.302 + 599.525 + 613.849 + 610.370 = 581698 . 5

La ecuación de la línea de tendencia será: Yt* = a + bt

donde Yt* es el valor de la tendencia estimada de las ventas de gasolina. El valor de a se obtiene al hacer t=0, y se hace corresponder con el valor del primer promedio:

a = Y0* = 474.472 El coeficiente de la pendiente de la recta b representaría el incremento anual de la tendencia, y se calcula a partir de los dos promedios:

36

b=

581.698 − 474.742 = 21391 . 5

Nótese que al ser cinco los años que hay de diferencia entre 1992 y 1987, años en los que hemos centrado los promedios, el denominador que utilizamos para calcular el incremento anual es igual a 5. La ecuación Yt*=474.742+21391t nos sirve para obtener la tendencia una vez conocidos los valores t o del regresor, que ha de tener necesariamente valor cero en 1987. Los valores de Xt se elaboran a partir de una sucesión de puntuaciones consecutivas que van desde un mínimo de -2 de 1985 hasta un máximo de 7 en 1994:

Tm.

Semipromedio

t

Tendencia

1985

441300

-2

431959

1986

441200

-1

453351

1987

466700

0

474742

1988

496700

1

496133

1989

527809

2

517524

1990

536445

3

538916

1991

548302

4

560307

1992

599525

5

581698

1993

613849

6

603089

1994

610370

7

624481

474742

581698

La tendencia se representa en la figura 2.3:

37

Tendencia de las ventas de gasolina 650.000

600.000

550.000

500.000

Tm. Tendencia

450.000

400.000 1985

1986

1987

1988

1989

1990

1991

1992

1993

1994

Figura 2.3.

2.3.2. Método de mínimos cuadrados El método de mínimos cuadrados es el que más se utiliza para ajustar tendencias. Este método da los mismos resultados que el método anterior cuando es utilizado para obtener tendencias lineales. Si realizamos sencillas transformaciones aritméticas de los datos puede también ser utilizado para representar funciones de tendencias no lineales.

Estimar una tendencia lineal por el método de MCO equivale a estimar la siguiente función: Yt* = a + bt

(2.1.)

utilizando como variable explicativa un vector de números secuenciales {1,2,3,…,n} representativos del periodo.

38

Si se quiere obtener una tendencia exponencial, debemos linealizar la función lo que requiere su transformación en logaritmos: Y = bert

(2.2.)

Entonces:

ln Yt = ln b + rt

Una vez estimada la tendencia lineal por mínimos cuadrados, calculamos la exponencial del logaritmo para devolver la tendencia a la escala de los datos originales.

Ejemplo 2.2

En la siguiente tabla en la que se muestra la evolución de las ventas de gasolina en Castilla y León Años 1985-1994. (Miles de tm.). Con los datos transformados para estimar por MCO una tendencia lineal y una tendencia exponencial. Tm.(Y)

Logaritmo (Y)

X

Tendencia exponencial

Tendencia

1985

441300

13.00

1

12.98

435719

1986

441200

13.00

2

13.03

454039

1987

466700

13.05

3

13.07

473130

1988

496700

13.12

4

13.11

493024

1989

527809

13.18

5

13.15

513754

1990

536445

13.19

6

13.19

535355

1991

548302

13.21

7

13.23

557865

1992

599525

13.30

8

13.27

581322

1993

613849

13.33

9

13.31

605764

1994

610370

13.32

10

13.36

631235

Ambas tendencias se representan en la figura 2.4:

39

Tendencia de las ventas de gasolina 650.000

600.000

550.000

500.000

Tm. Tendencia T.Exponencial

450.000

400.000 1985

1986

1987

1988

1989

1990

1991

1992

1993

1994

Figura 2.4.

Para analizar la calidad del ajuste realizado hay que considerar los estadísticos de la regresión mínimo cuadrada1 :

Estadísticas de la regresión

Coeficiente de correlación múltiple 0,984248834 Coeficiente de determinación R2 2

0,968745767

R ajustado

0,964838988

Error típico

0,023756892

Observaciones

10

En el ejercicio que hemos realizado la magnitud del coeficiente de determinación (R2=0,9687) sería indicativo de un aceptable ajuste.

La estimación MCO da lugar a los coeficientes b y m que figuran en la tabla siguiente:

Coeficientes

Error típico

Estadístico t

Probabilidad

Intercepción

12.9435651

0.016229

797.55546

6.8409E-21

12.9061409

12.98098942

Variable X 1

0.04118681

0.0026155

15.746915

2.6424E-07

0.03515534

0.047218276

1

Inferior 95% Superior 95%

El capítulo 8.4 dedicado a la regresión minimo-cuadrada estudia los fundamentos de dicha técnica y los estadísticos que se mencionan.

40

La intercepción en el origen es el coeficiente a, y la “Variable X 1” es el coeficiente b. La tabla da el abanico de valores más probables para ambos coeficientes al nivel de confianza del 95%, estos valores son los que figuran en las casillas Inferior y Superior. En el caso del coeficiente a, el ajuste mínimo-cuadrado da como resultado que lo más probable es que se encuentre entre el intervalo que va desde el valor 12,91 hasta el 12,98, siendo su valor medio 12,94; en tanto que el coeficiente b estará en el intervalo que va desde 0,035 hasta 0,047, resultando ser su valor medio 0,041. Se rechaza en ambos casos la hipóteis nula H 0 : β = 0 a un α = 0,05 , por lo que consideramos que los coeficientes estimados son estadísticamente significativos.

En el ejemplo la función lineal estimada (2.1) sería: Yt* = 12,94 + 0,041t

La estimación de la tendencia en forma exponencial (2.2) quedaría: Yt = 242801,6.e0,041t

2.3.3. Médias móviles En el análisis de series temporales, el método de medias móviles tiene diversas aplicaciones: así, este método puede sernos útil si queremos calcular la tendencia de una serie temporal sin tener que ajustarnos a una función previa, ofreciendo así una visión suavizada o alisada de una serie, ya que promediando varios valores se elimina parte de los movimientos irregulares de la serie; también puede servirnos para realizar predicciones cuando la tendencia de la serie tiene una media constante.

Veamos qué es una media móvil: se trata, sencillamente de una media aritmética que se caracteriza porque toma un valor para cada momento del tiempo y porque en su cálculo no entran todas las observaciones de la muestra disponible.

Entre los distintos tipos de medias móviles que se pueden construir nos vamos a referir a dos tipos: medias móviles centradas y medias móviles asimétricas. El primer tipo se utiliza para la

41

representación de la tendencia, mientras que el segundo lo aplicaremos para la predicción en modelos con media constante.

Las medias móviles centradas se caracterizan porque el número de observaciones que entran en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:

MM ( 2n + 1) t =

n Y + Yt − n +1 + ... + Yt + ... + Yt + n −1 + Yt + n 1 Yt +i = t −n ∑ 2n + 1 i = − n 2n + 1

Como puede observarse, el subíndice asignado a la media móvil, t, es el mismo que el de la observación central, Yt. Obsérvese también que, por construcción, no se pueden calcular las medias móviles correspondientes a las n primeras y a las n últimas observaciones.

Por su parte, en el caso de las medias móviles asimétricas se asigna cada media móvil al período correspondiente a la observación más adelantada de todas las que intervienen en su cálculo. Así la media móvil asimétrica de n puntos asociada a la observación t tendrá la siguiente expresión:

MMA( n ) t =

Y + Yt − n + 2 + ... + Yt −1 + Yt 1 t Yt +i = t −n +1 ∑ n i =t − n +1 n

Este tipo de medias móviles se emplea en la predicción de series cuya tendencia muestra una media constante en el tiempo, utilizándose la siguiente ecuación:

MMA( n ) T +1 =

Y 1 T +1 Y Yt = MMA( n ) T + T +1 − T −n +1 ∑ n i =T − n + 2 n n

Es decir, para predecir el valor de la serie en el período siguiente se suma a la media móvil, la media aritmética de los n últimos períodos, siendo n la longitud de la media móvil.

La utilización de medias móviles implica la elección arbitraria de su longitud u orden, es decir, del número de observaciones que intervienen en el cálculo de cada media móvil. Cuanto mayor sea la longitud, mejor se eliminarán las irregularidades de la serie, ya que al intervenir más observaciones en su cálculo se compensarán las fluctuaciones de este tipo, pero por el contrario, el coste informativo será mayor. Por el contrario, cuando la longitud es pequeña, la media móvil

42

refleja con mayor rapidez los cambios que puedan producirse en la evolución de la serie. Es conveniente, pues, sopesar estos factores al decidir la longitud de la media móvil. Ejemplo 2.3

Veamos a continuación un ejemplo, utilizando de nuevo la serie de ventas de gasolina, optamos por calcular una media móvil trienal que ofrece los siguientes resultados: Tm.

Media móvil trienal

1985

441300

1986

441200

449733

1987

466700

468200

1988

496700

497070

1989

527809

520318

1990

536445

537519

1991

548302

561424

1992

599525

587225

1993

613849

607915

1994

610370

El valor de la media móvil trienal asignado a 1986 se calcula así:

449733 =

441300 + 441200 + 466700 3

A su vez, el valor de la media móvil trienal asignado a 1987 se calcula así:

468200 =

441200 + 466700 + 496700 3

Tendencia en medias móviles trienales de las ventas de gasolina 650.000 600.000 550.000 Tm. Media movil trienal

500.000 450.000 400.000 1985

1986

1987

1988

1989

1990

Figura 2.5.

43

1991

1992

1993

1994

Como se aprecia en la figura 2.5., el inconveniente que tiene la media móvil es que perdemos información de la tendencia en los ejercicios inicial y final. En este sentido, volvemos a resaltar que las medias móviles, comparadas con métodos basados en ajustes aritméticos, tienen un coste informativo.

2.3.4. Alisado Exponencial Simple

El método del alisado exponencial simple consiste, al igual que en el caso de las medias móviles, en una transformación de la variable original. Si una variable Y es sometida a un proceso de alisado exponencial simple se obtiene como resultado la variable alisada St. Teóricamente, la variable alisada St se obtendría según la expresión: St = (1 – w) Yt + (1 – w) wYt-1+ (1-w) w2 Yt-2 + (1 – w) w3 Yt-3 + …

(2.3.)

donde w es un parámetro que toma valores comprendidos entre 0 y 1, y los puntos suspensivos indican que el número de términos de la variable alisada puede ser infinito. La expresión anterior en realidad no es más que una media aritmética ponderada2 de infinitos valores de Y.

Se denomina alisada ya que suaviza o alisa las oscilaciones que tiene la serie, al obtenerse como una media ponderada de distintos valores. Por otra parte, el calificativo de exponencial se debe a que la ponderación o peso de las observaciones decrece exponencialmente a medida que nos alejamos del momento actual t. Esto quiere decir que las observaciones que están alejadas tienen muy poca incidencia en el valor que toma St. Finalmente, el calificativo de simple se aplica para distinguirla de otros casos en que, como veremos más adelante, una variable se somete a una doble operación de alisado.

Una vez que se han visto estos aspectos conceptuales, vamos a proceder a la obtención operativa de la variable alisada, ya que la expresión no es directamente aplicable, por contener infinitos términos. Retardando un período en la expresión anterior se tiene que:

2

Para que pueda aceptarse que es una media aritmética ponderada debe verificarse que las ponderaciones, sumen 1. La demostración, que excede las pretensiones de este texto, se basa en el cálculo de la suma de infinitos términos de una progresión geométrica convergente.

44

St-1 = (1 – w) Yt-1 + (1 – w) wYt-2 + (1-w) w2 Yt-3 + …

Multiplicando ambos miembros por w se obtiene: wSt-1 = (1 – w) wYt-1 + (1 – w) w2 Yt-2 + (1 – w) w3 Yt-3 + …

(2.4.)

Restando (2.4) de (2.3) miembro a miembro y ordenando los términos se tiene que:

St = (1 - w) Yt + wSt-1

O también:

St = αYt + (1 - α) St-1

(2.5.)

donde α = 1 – w.

Ahora ya sólo nos falta calcular los valores de α y S0, parámetros a partir de los cuales resulta sencillo hallar los valores de la variable alisada de forma manera recursiva, tal que:

S1 = αY1 + (1 - α) S0 S2 = αY2 + (1 - α) S1 S3 = αY3 + (1 - α) S2 ………………………

Al asignar un valor a α hay que tener en cuenta que un valor pequeño de α significa que estamos dando mucho peso a las observaciones pasadas a través del término St-1. Por el contrario, cuando α es grande se da más importancia a la observación actual de la variable Y. En general, parece

que un valor de α igual a 0.2 es apropiado en la mayor parte de los casos. Alternativamente, se puede seleccionar aquel valor de α para el que se obtenga una Raíz del Error Cuadrático Medio menor en la predicción del período muestral.

Respecto a la asignación de valor a S0 se suelen hacer estos supuestos: cuando la serie tiene muchas oscilaciones se toma S = Y1; por el contrario, cuando la serie tiene una cierta estabilidad se hace S0 = Y .

45

Ejemplo 2.4

La macro de análisis estadístico de EXCEL incluye un procedimiento para realizar el suavizado exponencial (2.5):

46

En el menú de la macro hay que indicar el rango donde están los datos, el coeficiente α = 0,20 , y la celda en donde se grabará la salida de resultados, elegimos que nos realice el gráfico y nos calcule los errores típicos (RECM).

47

2.3.5. Alisado Exponencial Doble

Una variante más avanzada del método anterior es el Alisado Exponencial Doble, también conocido como método de Brown. Básicamente, lo que se hace mediante este método es someter a la variable a una doble operación de alisado: en la primera operación se alisa directamente la variable objeto de estudio, mientras que en la segunda operación se procede a alisar la variable alisada previamente obtenida. Así pues, las fórmulas del Alisado Exponencial Doble son las siguientes:

Primer alisado: S’t = αYt + (1–α) S’t-1 Segundo alisado: S’’t = αS’t + (1–α) S’’t-1 Obsérvese que en los dos alisados se utiliza el mismo coeficiente α. A partir de las dos variables alisadas se estiman los coeficientes de la recta para utilizarlos en la predicción.

Las fórmulas que permiten pasar de los coeficientes de alisado a los coeficientes de la recta son las siguientes:

b0t = 2 S t' − S t'' b1t =

α 1−α

( S t' − S t'' )

Finalmente, si con la información disponible en t, deseamos realizar una predicción de la variable para el momento t+m, aplicaremos la siguiente fórmula:

Yˆt + m = b0t + b1t m Asimismo, al igual que en el caso del Alisado Exponencial Simple, para poder obtener St' y St’’ es necesario conocer los valores iniciales, que en este caso serían dos, S0’ y S0’’. Para determinarlos se utilizan las siguientes relaciones que permiten obtener b0t y b1t, aunque en sentido inverso.

Realizando un ajuste de la recta por mínimos cuadrados con toda la información disponible se obtendrán las estimaciones bˆ0 t y bˆ1t .

48

Haciendo que:

b00 = bˆ0t y b10 = bˆ1t

y tomando t = 0, se obtiene:

S 0' = b00 − b10

1−α

S 0'' = b00 − 2b10

α

1−α

α

A partir de estos valores se inicia la recursión ya señalada.

En lo que respecta al valor de α, es válido lo que se dijo en el caso del Alisado Exponencial Simple, siendo aconsejable tomar α = 0.2 o, alternativamente, seleccionar aquel valor de α que haga mínima la RECM cuando realicemos predicciones.

2.3.6. Método de Holt-Winters. El método de Holt-Winters es una técnica de suavizado que utiliza un conjunto de estimaciones recursivas a partir de la serie histórica. Estas estimaciones utilizan una constantes de nivel, α , una constante de tendencia, β , y una constante estacional multiplicativa, γ . Las estimaciones recursivas se basan en las siguientes ecuaciones:

Y Yˆt = α (Yˆt −1 − Tt −1 ) + (1 − α ) t , (0 < α < 1) Ft − 2 Tt = βTt −1 + (1 − β )(Yˆt − Yˆt −1 ), (0 < β < 1) Ft = γFt − s + (1 − γ )

(2.6.)

Yt , (0 < γ < 1) Yˆ t

donde s=4 en el caso de datos trimestrales y s=12 en el caso de los datos mensuales.

Yˆt sería el

nivel suavizado de la serie, Tt la tendencia suavizada de la serie y Ft el ajuste estacional suavizado de la serie.

49

Ejemplo 2.5

Utilizando el programa R se va a desarrollar un alisado exponencial doble, para lo cual hay que invocar la función “HoltWinters”, que tiene la siguiente estructura: HoltWinters(x, alpha = NULL, beta = NULL, gamma = NULL, seasonal = c("additive", "multiplicative"), start.periods = 2, l.start = NULL, b.start = NULL, s.start = NULL, optim.start = c(alpha = 0.3, beta = 0.1, gamma = 0.1), optim.control = list())

Hay que tener presente que “x” es el conjunto de datos, alpha, beta y gamma, son las constantes α , β , y γ de (2.6). Si se desea la función elege los coeficientes α , β , y γ optimos, en la opción “optim.start”, hay que indicar los valores de partida, la function intenta encontral el valor optimo minimizando el RECM en la opción por defecto. Si no se le indican los valores de partida los encuera a través de una simple descomposición temporal de la serie utilizando medias móviles.

Utilizando la base de datos co2 que se obtiene en R, relativa a concentraciones atomosféricas de CO2 en partes por millón (ppm), realizamos un suavizado por el metodo de Holt-Winter en R: > m <- HoltWinters(co2) > m Holt-Winters exponential smoothing with trend and additive seasonal component. Call: HoltWinters(x = co2) Smoothing parameters: alpha: 0.5126484 beta : 0.009497669 gamma: 0.4728868 Coefficients: [,1] a 364.7616237 b 0.1247438 s1 0.2215275 s2 0.9552801 s3 1.5984744 s4 2.8758029 s5 3.2820088 s6 2.4406990 s7 0.8969433 s8 -1.3796428 s9 -3.4112376 s10 -3.2570163 s11 -1.9134850 s12 -0.5844250

50

Realizamos una representación gráfica de los resultados con: > plot(fitted(m)

2.4.

ANÁLISIS DE LA ESTACIONALIDAD

En este apartado pasamos a examinar el análisis de la estacionalidad de las series temporales, entendiéndose por tal, aquellos ciclos regulares cuya duración es inferior al año. Las variaciones o ciclos estacionales son muy frecuentes en las series temporales, sea cual sea su naturaleza, y pueden presentar un esquema horario, diario, semanal, mensual, trimestral o incluso semestral, no siendo necesario que tengan alguna relación con las estaciones del año. Lo verdaderamente importante de los ciclos estacionales es su temporalidad o repetición regular.

Algunos ejemplos de ciclos estacionales serían: −

El aumento de viajeros en los autobuses urbanos en determinadas horas del día.



Las ventas diarias de un supermercado que suelen presentar entre semana un esquema bastante regular.

51



El movimiento de viajeros en los establecimientos hoteleros que se concentra en determinados meses del año.



El consumo de energía eléctrica que suele ser mayor los meses de invierno.

El motivo principal que induce a estudiar los ciclos estacionales es que, de no tenerse en cuenta estas variaciones, se obtienen bastantes distorsiones a la hora de analizar la evolución de las series, actuando muchas veces el factor estacional como una máscara que impide captar adecuadamente la evolución del fenómeno objeto de estudio. Un ejemplo de estas distorsiones ocurre, por ejemplo, cuando se compara el consumo de electricidad en el primer y segundo trimestre del año, ya que el ciclo estacional al delimitar un aumento del consumo en los meses de invierno, impide una interpretación correcta sobre el uso subyacente de la energía de dicho período.

Por ello, será conveniente eliminar el influjo de los ciclos estacionales en la serie, a fin de poder realizar comparaciones entre dos estaciones sucesivas y predecir correctamente el comportamiento futuro de la variable.

Para ello, existen diferentes procedimientos: utilización de filtros lineales, X11-ARIMA, SEATS (Signal Extraction in ARIMA Time Series), etc., cuya solución requiere de un cálculo matemático relativamente complejo; aquí únicamente estudiaremos los procedimientos de desestacionalización más sencillos: el método de porcentaje promedio y el método del porcentaje promedio móvil.

Asimismo, cabe señalar que, con carácter previo a la desestacionalización, a menudo hay que realizar una serie de ajustes en la serie temporal para tener en cuenta hechos o eventos que pueden afectar al ciclo estacional que tratamos de analizar. Estos eventos que suelen ser festividades, interrupciones del trabajo debido a huelgas, paros, regulaciones de empleo, etc., no siempre son eliminados por los promedios dentro del mes o trimestre en que se producen, de ahí que sea necesario corregir previamente los datos iniciales. Una forma de compensar estas variaciones es multiplicar la serie de datos origínales por la siguiente razón:

Número de días efectivos de un mes en un promedio de años (ó en un calendario laboral) Número de días efectivos del mes dado

52

en la que la definición de los días efectivos dependerá de la serie cronológica que nos interesa y de los motivos por los que realizamos el ajuste.

Finalmente, para saber si una serie temporal presenta variaciones estacionales de relevancia, se suele hacer un análisis de la varianza del componente estacional-irregular de la serie, utilizando como factor de variación la referencia temporal de la serie (semanal, mensual, trimestral, etc.…). Dicho análisis proporciona como estadístico la F de Snedecor, cuyo valor comparado con el que figura en las tablas del Anexo, nos permite determinar si tiene significación el factor temporal para explicar la varianza de la serie; de admitirse dicha posibilidad, quedaría demostrado que los movimientos estacionales de la serie son lo suficientemente determinantes como para proceder a su desestacionalización posterior.

Ejemplo 2.6

Veamos a continuación un ejemplo: vamos a realizar un test de presencia de estacionalidad a la serie mensual de ventas de gasolina en Castilla y León durante el período 1985-1994.

Años Meses

1985

1986

1987

1988

1989

1990

1991

1992

1993

1994

1

26000

29100

28400

31000

35689

37229

32745

37621

35299

40157

2

24800

24200

27600

32400

32566

35146

28720

37208

39508

39203

3

29400

34900

33700

38700

45225

40100

42681

43175

45681

51174

4

35400

33400

40600

39700

35800

46117

44134

49106

55183

48357

5

31900

35200

34300

36500

44900

42894

43489

46905

46689

47538

6

31000

34700

39100

39900

42808

42972

42395

47682

50162

52353

7

56500

47300

50100

49700

54817

54729

57811

62712

66180

58967

8

74400

56900

60700

66100

67900

67200

70278

77667

75607

74335

9

35700

40200

40800

45300

46800

46200

50466

53616

53087

52880

10

34400

36700

38700

40200

40485

43940

46597

49400

49777

49722

11

28900

30300

33600

36100

36760

39572

40813

43204

44232

42519

12

32900

38300

39100

41100

44059

40346

48174

51229

52444

53165

TOTAL

441300

441200

466700

496700

527809

536445

548302

599525

613849

610370

Para ello, obtenemos la componente estacional-irregular de la serie como diferencia entre la serie original y una tendencia que calculamos mediante una media móvil centrada de 12 términos.

53

Años Meses

1985

1986

1987

1988

1989

1990

1991

1992

1993

1994

1

0

-7992

-9617

-9067

-7695

-7370

-11358

-10774

-15852

-10918

2

0

-11433

-10733

-8117

-10968

-9395

-15639

-11802

-11472

-11766

3

0

-1108

-4683

-2192

1566

-4391

-2034

-6098

-5255

223

4

0

-2800

2050

-1317

-7883

1338

-802

-401

4216

-2590

5

0

-1117

-4525

-4725

1163

-2119

-1551

-2800

-4364

-3266

6

-5775

-2067

208

-1492

-1176

-1732

-3297

-2279

-992

1489

7

19467

10592

10992

7918

10705

10399

11713

12945

14621

0

8

37417

19908

21192

24304

23573

23405

23472

27708

24074

0

9

-1742

3308

875

2960

2900

2190

3619

3449

1096

0

10

-2875

-792

-1150

-1815

-4275

96

-665

-1274

-1645

0

11

-8650

-7117

-6433

-6615

-7833

-4322

-6733

-7451

-7261

0

12

-4958

517

-1000

-1857

-548

-3500

188

366

768

0

Para realizar un test de presencia de estacionalidad utilizamos la técnica de Análisis de Varianza de un factor, utilizando como factor la agrupación por meses de los datos de ventas de gasolina.

El análisis de varianza ofrece en este caso los siguientes resultados:

Análisis de la varianza de la serie de ventas de gasolina en CYL

Origen

de

las Suma

de Grados de Promedio de

Valor crítico

variaciones

cuadrados

libertad

cuadrados

F

Probabilidad

Entre grupos

7788660568

11

708060052

161.680764 1.2494E-51

Dentro de los grupos

367867165

84

4379371.01

Total

8156527733

95

para F

1.90453875

Como se puede apreciar, el valor de la F es lo suficientemente grande para admitir la hipótesis

H 0 de que el factor temporal mensual explica una parte de la varianza que tiene toda la serie. Como vemos en dicha salida también aparece el valor crítico de la F por debajo del cual rechazamos la hipótesis H0 .

54

2.4.1. Método del porcentaje promedio El método del porcentaje promedio es un procedimiento rápido y simple para elaborar un índice estacional. El primer paso consiste en expresar la información de cada mes (o trimestre) como un promedio para el año; en un segundo paso se obtienen porcentajes de los promedios anuales; y, finalmente, en un tercer paso, dichos porcentajes se promedian en cada mes, obteniéndose como resultado el índice estacional.

Ejemplo 2.7.

Para ilustrar el método del porcentaje promedio utilizamos el anterior ejemplo de las ventas mensuales de gasolina en Castilla y León para el período 1985-1994. •

En primer lugar obtenemos el promedio mensual de las ventas anuales:

Años Meses 1985

1986

1987

1988

1989

1990

1991

1992

1993

1994

1

26000

29100

28400

31000

35689

37229

32745

37621

35299

40157

2

24800

24200

27600

32400

32566

35146

28720

37208

39508

39203

3

29400

34900

33700

38700

45225

40100

42681

43175

45681

51174

4

35400

33400

40600

39700

35800

46117

44134

49106

55183

48357

5

31900

35200

34300

36500

44900

42894

43489

46905

46689

47538

6

31000

34700

39100

39900

42808

42972

42395

47682

50162

52353

7

56500

47300

50100

49700

54817

54729

57811

62712

66180

58967

8

74400

56900

60700

66100

67900

67200

70278

77667

75607

74335

9

35700

40200

40800

45300

46800

46200

50466

53616

53087

52880

10

34400

36700

38700

40200

40485

43940

46597

49400

49777

49722

11

28900

30300

33600

36100

36760

39572

40813

43204

44232

42519

12

32900

38300

39100

41100

44059

40346

48174

51229

52444

53165

TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370 MEDIA 36775



36767

38892

41392

43984

44704

45692

49960

51154

50864

Después calculamos en cada año el porcentaje del promedio, que es la relación que se da entre las ventas de cada mes y su promedio anual.

55

Años Meses

1985

1986

1987

1988

1989

1990

1991

1992

1993

1994

1

70.70%

79.15%

73.02%

74.89%

81.14%

83.28%

71.66%

75.30%

69.01%

78.95%

2

67.44%

65.82%

70.97%

78.28%

74.04%

78.62%

62.86%

74.47%

77.23%

77.07%

3

79.95%

94.92%

86.65%

93.50%

102.82%

89.70%

93.41%

86.42%

89.30%

100.61%

4

96.26%

90.84%

104.39%

95.91%

81.39%

103.16%

96.59%

98.29%

107.88%

95.07%

5

86.74%

95.74%

88.19%

88.18%

102.08%

95.95%

95.18%

93.88%

91.27%

93.46%

6

84.30%

94.38%

100.54%

96.40%

97.33%

96.13%

92.78%

95.44%

98.06%

102.93%

7

153.64%

128.65%

128.82%

120.07%

124.63%

122.43%

126.52%

125.52%

129.37%

115.93%

8

202.31%

154.76%

156.07%

159.69%

154.37%

150.32%

153.81%

155.46%

147.80%

146.14%

9

97.08%

109.34%

104.91%

109.44%

106.40%

103.35%

110.45%

107.32%

103.78%

103.96%

10

93.54%

99.82%

99.51%

97.12%

92.04%

98.29%

101.98%

98.88%

97.31%

97.75%

11

78.59%

82.41%

86.39%

87.22%

83.58%

88.52%

89.32%

86.48%

86.47%

83.59%

12

89.46%

104.17%

100.54%

99.30%

100.17%

90.25%

105.43%

102.54%

102.52%

104.52%



El índice estacional sería el promedio para cada mes de los diez datos anuales:

Índice

Años

Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 estacional 1

71%

79%

73%

75%

81%

83%

72%

75%

69%

79%

76%

2

67%

66%

71%

78%

74%

79%

63%

74%

77%

77%

73%

3

80%

95%

87%

93%

103% 90%

93%

86%

89%

101% 92%

4

96%

91%

104% 96%

81%

103% 97%

98%

108% 95%

97%

5

87%

96%

88%

102% 96%

95%

94%

91%

93%

93%

6

84%

94%

101% 96%

97%

93%

95%

98%

103% 96%

7

154% 129% 129% 120% 125% 122% 127% 126% 129% 116% 128%

8

202% 155% 156% 160% 154% 150% 154% 155% 148% 146% 158%

9

97%

109% 105% 109% 106% 103% 110% 107% 104% 104% 106%

10

94%

100% 100% 97%

92%

98%

102% 99%

97%

98%

98%

11

79%

82%

84%

89%

89%

86%

84%

85%

12

89%

104% 101% 99%

86%

88%

87%

96%

100% 90%

86%

105% 103% 103% 105% 100% 1200%

El índice nos señala que en el período estudiado las ventas de enero han estado un 75.71% por debajo de las ventas mensuales promedio de cada año, y que en el mes de agosto el nivel de ventas fue un 158.07% superior al nivel de venta mensuales promedio anual. Dado que el valor medio mensual del índice ha de ser igual a 100, la suma de los 12 datos de que consta el índice mensual debe ser igual a 1200.

56



Para obtener una serie de las ventas ajustadas estacionalmente, esto es, descontando el efecto que provoca el ciclo estacional, se dividiría las ventas de cada mes por el correspondiente índice estacional y se multiplicaría por 100:

Años Meses 1985

1986 1987 1988 1989 1990 1991 1992 1993 1994

1

34341 38436 37511 40945 47139 49173 43250 49690 46624 53040

2

34122 33297 37975 44579 44807 48357 39516 51194 54359 53939

3

32051 38047 36739 42190 49303 43716 46530 47069 49801 55789

4

36503 34440 41865 40937 36915 47554 45509 50636 56902 49863

5

34276 37822 36854 39218 48244 46089 46728 50398 50166 51078

6

32350 36211 40803 41637 44672 44843 44241 49758 52346 54633

7

44293 37081 39276 38963 42974 42905 45321 49163 51882 46227

8

47066 35996 38400 41816 42954 42512 44459 49133 47830 47025

9

33806 38067 38636 42897 44317 43749 47789 50772 50271 50075

10

35237 37593 39642 41178 41470 45009 47731 50602 50988 50932

11

33898 35540 39411 42343 43117 46415 47871 50675 51881 49872

12

32936 38342 39143 41145 44107 40390 48227 51285 52502 53223

2.4.2. Método del porcentaje promedio móvil El método del porcentaje del promedio móvil es uno de los métodos más usados para la medición de la variación estacional. Su cálculo es también bastante sencillo: en primer lugar se obtiene un promedio móvil de 12 meses de la serie de datos originales (o de 4 trimestres si se utilizan los datos trimestrales) tal que:

L/2

∑Y

MM ( L) t +0.5 =

t +i ( − L / 2 ) +1

L

, t=

L L L , + 1,..., N − 2 2 2

Luego se recurre a un promedio móvil de 2 meses para centrar convenientemente el promedio anterior, al que se le denomina promedio móvil centrado de doce meses; es decir:

MM ( L x 2) t =

MM ( L) t −0.5 + MM ( L) t +0.5 L L L , t = + 1, + 2,..., N − 2 2 2 2

57

Finalmente se obtiene el índice dividiendo los datos originales por el promedio móvil centrado, MM(L x 2)t:

EI t =

Yt MM ( L x 2) t

es decir, una estimación conjunta del componente estacional y del componente irregular. A los valores obtenidos mediante la expresión anterior se los denomina índices brutos de variación estacional.

Si disponemos de información para K años completos, el número total de observaciones es N y la longitud del período estacional es L, se verificará que K·L = N. Bajo estos supuestos, para cada estación se dispone de K–1 índices brutos de variación estacional, ya que se pierden L/2 datos al principio y L/2 datos al final, es decir, se pierde un dato en cada estación.

Para cada estación se puede calcular una media de todos los índices brutos disponibles. Así, para la estación h, la media se obtendrá sumando todos los índices brutos de variación estacional correspondientes a esa estación y dividiendo por K–1, que es el número de datos disponibles en cada caso; es decir:

E h* =

∑ EI

t

K −1

, h = 1,2,..., L

Al haber realizado un promedio de K–1 datos, el componente irregular queda eliminado si K es suficientemente grande. En todo caso, al promediar siempre se atenuará el efecto del componente irregular. Por ello, el resultado obtenido es un índice de variación estacional en el que se supone que el componente irregular ha desaparecido completamente.

Sin embargo, estos índices no van a ser los definitivos, ya que se trata de índices no normalizados. Si existe estacionalidad, ésta no debe afectar al nivel de la serie, por lo que es razonable exigir a los coeficientes de estacionalidad el requisito de que su media sea 1, ó, alternativamente, que su suma sea L. Cuando los índices de estacionalidad cumplen este requisito se dice que están normalizados. Los índices de variación estacional normalizados se pueden calcular fácilmente aplicando una proporción. Así, si utilizamos el símbolo Eˆ h para designar el índice de variación estacional de la estación h, su expresión vendrá dada por

58

Eˆ h =ˆ E h*

L L

∑E

* h

h =1

Finalmente, la serie desestacionalizada se obtendrá dividiendo cada valor de la serie original por el índice de variación estacional correspondiente. Así, en el caso de que el período t pertenezca a la estación h, entonces el valor de la serie desestacionalizada, al que designaremos por Dt, vendrá dado por:

Dt =

Yt Eˆ h

Ejemplo 2.8.

Veamos a continuación un ejemplo, utilizando de nuevo la serie de ventas de gasolina de Castilla y León para obtener dicho índice estacional.

Años

Meses

Ventas

1985

1

26000

2

24800

3

29400

4

35400

5

31900

6

31000

36775

7

56500

37033

8

74400

36983

9

35700

37442

10

34400

37275

11

28900

37550

12

32900

37858

1

29100

37092

2

24200

35633

3

34900

36008

4

33400

36200

5

35200

36317

1986

Media móvil 12 meses

El primer promedio móvil se centra en el 6º mes (Junio), lo que implica dejar sin valores seis meses al final de la serie.

59

El segundo promedio, que es una media móvil de dos meses, se realiza para centrar convenientemente el promedio móvil anterior, el primer valor que aparece es el valor promedio de 36775 y 37033, y se centra en el 7º mes (Julio), quedando así ambos extremos de la serie resultante con seis meses de ausencia de datos:

Años

Meses

Ventas

1985

1

26000

2

24800

3

29400

4

35400

5

31900

6

31000

36775

7

56500

37033

36904

8

74400

36983

37008

9

35700

37442

37213

10

34400

37275

37358

11

28900

37550

37413

12

32900

37858

37704

1

29100

37092

37475

2

24200

35633

36363

3

34900

36008

35821

4

33400

36200

36104

5

35200

36317

36258

1986

Media móvil 12 meses Promedio móvil centrado

Finalmente se calcula el índice dividiendo los datos originales por el promedio móvil centrado y multiplicando por cien:

60

Años

Meses

Ventas

Media

móvil Promedio

12 meses 1985

1986

Índice

móvil centrado estacional

1

26000

2

24800

3

29400

4

35400

5

31900

6

31000

36775

7

56500

37033

36904

153.10%

8

74400

36983

37008

201.04%

9

35700

37442

37213

95.94%

10

34400

37275

37358

92.08%

11

28900

37550

37413

77.25%

12

32900

37858

37704

87.26%

1

29100

37092

37475

77.65%

2

24200

35633

36363

66.55%

3

34900

36008

35821

97.43%

4

33400

36200

36104

92.51%

5

35200

36317

36258

97.08%

La serie desestacionalizada de las ventas de gasolina en Castilla y León sería el promedio móvil centrado de 12 meses:

Desestacionalización de las ventas de gasolina por media móvil de 12 meses. 80000 70000 60000 50000 40000 30000 Ventas Media movil 12 meses

20000 10000

Figura 2.6.

61

Mar.

Ago.

Oct.

Dic.

May.

Jul.

Feb.

Abr.

Sep.

Nov.

Jun.

90 Ene.

Ago.

Mar.

Oct.

May

Dic.

Jul.

Feb.

Sep.

Abr.

Jun.

Nov.

86 Ene.

0

Los coeficientes de estacionalidad calculados en el epígrafe anterior pueden ser utilizados para realizar predicciones de la variable. Para ello, vamos a considerar el supuesto de que disponemos de una muestra de tamaño T y deseamos realizar predicciones para los L períodos siguientes (por ejemplo, si los datos son trimestrales y la muestra comprende años completos, se trataría de predecir los valores que toma la variable en los trimestres del primer año postmuestral).

Bajo el supuesto de estacionalidad estable, el predictor vendrá dado por la siguiente expresión: Yˆt + h / T = TˆT + h Eˆ h , h = 1, 2, …, L

donde TˆT + h es la predicción obtenida de la tendencia mediante el ajuste de una función a los datos desestacionalizados.

2.4.3. Desestacionalización con Estacionalidad Cambiante

Hasta ahora hemos considerado el supuesto de que los coeficientes de estacionalidad eran estables, es decir, que se repetían año tras año. Sin embargo, en muchas ocasiones este supuesto no es realista, pudiendo ocurrir que estos coeficientes estén afectados por una tendencia.

Bajo el supuesto de estacionalidad cambiante, las fases para la aplicación del método de la razón a la media móvil son las siguientes:

1. Obtención de unas medias móviles de orden estacional. 2. Obtención de unas medias móviles centradas. 3. Obtención de los índices brutos de variación estacional. 4. Obtención de los índices de variación estacional sin normalizar.

Las tres primeras fases son las mismas que se aplicaban bajo el supuesto de estacionalidad estable. Una vez obtenidos los índices brutos de variación estacional, se debe proceder a la representación de este indicador para cada estación por separado. A la vista de esta

62

representación se tomará la decisión de cuál es la función matemática adecuada para representar la tendencia de la estacionalidad.

Recuérdese que los índices brutos de variación estacional son una estimación conjunta del componente estacional y del componente irregular. Por ello, al realizar el ajuste de modelos que recojan la tendencia de la estacionalidad, lo que estamos haciendo en realidad es separar estos dos componentes. Así, adoptando el supuesto de que están integrados de forma aditiva, se tendrá la siguiente descomposición: EI t = E t* + I t , h = 1, 2, …, L

donde Et* son los valores estimados al ajustar una función del tiempo en la que la variable dependiente es EI. En la mayor parte de las ocasiones es adecuado el ajuste de una recta para tal finalidad. Si éste es el caso resulta: E t* = aˆ h 0 + aˆ h1 r , h = 1, 2, …, L

donde r es el año en que se encuentra el período t. Teniendo en cuenta que al calcular los índices brutos de variación estacional se pierden L/2 datos al principio y L/2 al final y suponiendo que se dispone de información sobre K años completos, entonces r variará, según los casos, entre 2 y K o entre 1 y K–1.

Después de realizado el ajuste se procederá a la predicción de los coeficientes de estacionalidad de cada uno de los años que integran la muestra. De esta forma se obtienen unos índices de variación estacional sin normalizar, aunque distintos para cada año.

Seguidamente, la obtención de los índices de variación estacional normalizados se realizará haciendo una ligera modificación en la fórmula ya estudiada. Concretamente, la fórmula a aplicar será la siguiente:

Eˆ t =ˆ E t*

L

∑E

* m

, m = 1, 2, …, r

m

Como puede verse en la fórmula anterior, la normalización se realiza año a año. Por ello, el factor de normalización es igual a L dividido por la suma de los índices de variación estacional correspondientes al mismo año (r) en que se encuentra el período t.

63

Finalmente, la serie desestacionalizada, al igual que antes, se obtiene dividiendo la serie original por el índice de variación estacional correspondiente, es decir,

Dt =

Yt Eˆ

t

Obsérvese que, bajo el supuesto de estacionalidad cambiante, a cada dato de la variable le corresponde un índice de variación estacional distinto, a diferencia de lo que ocurría bajo el supuesto de estacionalidad constante, donde el índice de variación estacional permanecía fijo dentro de cada estación.

Bajo el supuesto de estacionalidad cambiante, el predictor vendrá dado por la siguiente expresión: Yˆt + h / T = TˆT + h Eˆ h , h = 1, 2, …, L

donde TˆT + h es la predicción obtenida de la tendencia mediante el ajuste de una función a los datos desestacionalizados y E es la predicción de la estacionalidad para el período T+h, obtenida a partir de un ajuste y su posterior normalización.

2.4.4. Ajuste estacional a través de medias móviles con R. La función R “decompose”, obtiene las series de tendencia, estacionalidad e irregular de una serie temporal a través de medias móviles, además permite obtener los componentes en base a un esquema aditivo ó multiplicativo.

Es una función generica de R, lo que significa que no requiere de la instalación de ninguna librería, su uso es el siguiente:

decompose(x, type = c("additive", "multiplicative"), filter = NULL)

El modelo aditivo que usa la función es:

64

Y[t] = T[t] + S[t] + e[t]

Y el multiplicativo: Y[t] = T[t] * S[t] * e[t]

La función calcula el componente de tendencia utilizando medias móviles, (si filter = NULL, se utilizan medias móviles simétricas), los índices de estacionalidad son promedios de los indices de estacionalidad que se obtienen al desestacionalizar la serie por el modelo elegido, por último, el componente irregular se obtiene eliminando la tendencia y estacionalidad de la serie temporal.

La función requiere que los datos tengan forma de serie temporal, “ts” es la función genérica de R para que los datos tengan forma de serie temporal. Su sintasis es la siguiente: ts(data = NA, start = 1, end = numeric(), frequency = 1, deltat = 1, ts.eps = getOption("ts.eps"), class = , names = )

De esta sintasis hay que tener presentes los siguiente argumentos: data

Vector, “data frame” o matriz de datos

start

Referencia de la primera observacion, es un vector con dos valores numericos, el primero relativo al año y el segundo relativo al trimestre y mes de inicio (1 para el primer trimestre y 1 para enero en series de datos mensuales)

end

Referencia de la ultima observación

frequency

Número de observaciones por año (4 en series trimestrales, 12 en series anuales)

Un ejemplo de elaboración de un objeto “ts” es el siguiente: > ts(1:10, frequency = 4, start = c(1959, 2)) # 2nd Quarter of 1959 Qtr1 Qtr2 Qtr3 Qtr4 1959 1 2 3 1960 4 5 6 7 1961 8 9 10

A continuación se realiza un sencillo ejercicio de utilización de la función “descomponse”: > x <- c(-50, 175, 149, 214, 247, 237, 225, 329, 729, 809, 530, 489, 540, 457, 195, 176, 337, 239, 128, 102, 232, 429, 3,98, 43, -141, -77, -13, 125, 361, -45, 184) > x <- ts(x, start = c(1951, 1), end = c(1958, 4), frequency = 4) > m <- decompose(x) > m

65

$x 1951 1952 1953 1954 1955 1956 1957 1958

Qtr1 Qtr2 Qtr3 Qtr4 -50 175 149 214 247 237 225 329 729 809 530 489 540 457 195 176 337 239 128 102 232 429 3 98 43 -141 -77 -13 125 361 -45 184

$seasonal Qtr1 62.45982 62.45982 62.45982 62.45982 62.45982 62.45982 62.45982 62.45982

1951 1952 1953 1954 1955 1956 1957 1958

Qtr2 86.17411 86.17411 86.17411 86.17411 86.17411 86.17411 86.17411 86.17411

Qtr3 -88.37946 -88.37946 -88.37946 -88.37946 -88.37946 -88.37946 -88.37946 -88.37946

Qtr4 -60.25446 -60.25446 -60.25446 -60.25446 -60.25446 -60.25446 -60.25446 -60.25446

$trend 1951 1952 1953 1954 1955 1956 1957 1958

Qtr1 NA 221.250 561.125 462.125 228.375 207.125 -9.250 103.000

Qtr2 NA 245.125 619.250 381.125 210.750 191.000 -33.125 131.625

Qtr3 159.125 319.750 615.625 316.625 188.375 166.875 -36.750 NA

Qtr4 204.000 451.500 548.000 264.000 199.000 72.000 36.250 NA

$random 1951 1952 1953 1954 1955 1956 1957 1958

Qtr1 Qtr2 NA NA -36.709821 -94.299107 105.415179 103.575893 15.415179 -10.299107 46.165179 -57.924107 -37.584821 151.825893 -10.209821 -194.049107 -40.459821 143.200893

$figure [1] 62.45982

Qtr3 78.254464 -6.370536 2.754464 -33.245536 28.004464 -75.495536 48.129464 NA

Qtr4 70.254464 -62.245536 1.254464 -27.745536 -36.745536 86.254464 11.004464 NA

86.17411 -88.37946 -60.25446

$type [1] "additive" attr(,"class") [1] "decomposed.ts"

Para realizar una representación gráfica: > plot(m)

66

Una función técnicamente más elaborada para descomponer series temporales en R es la función “stl”, cuya referencia bibliográfica es Cleveland, R.B. , Cleveland W. S., McRae J. E, y Terpenning I. (1990 El ejercicio anterior realizado con la función “stl”. > s <- stl(x,"per") > plot (s)

67

2.5.

PROBLEMAS

2.1.- En la tabla siguiente se recogen las ventas de una empresa en millones de euros

Trimestres/Años 2006 3 3 4 4

Primero Segundo Tercero Cuarto

2007 4 6 7 6

2008 3 6 7 6

2009 6 7 10 4

Se pide:

a) Obtener una tendencia lineal por el método de semipromedios b) Obtener una tendencia lineal ajustando una recta de MCO c) Obtener una tendencia lineal utilizando medias móviles de tres periodos centrada. 2.2.- Con los datos de la tabla siguiente realice un suavizado exponencial simple con α = 0.4 y calcule el del Error Cuadrático Medio y el Error Absoluto Medio.

t

Y 0 1 2 3 4 5 6 7 8

58 54 60 55 62 62 65 63 70

2.3.- Utilizando los datos del problema 2.1.-, realice una desestacionalización por el método del porcentaje promedio y porcentaje promedio móvil, y obtenga el índice estacional.

2.4.- Descomponga en la serie co2 que incluye la librería genérica R utilizando el modelo multiplicativo y presente los resultados gráficos.

SOLUCIONES

2.1.Solución:

68

2010 7 9 11 7

a) V*=4,6+0,28t , t=(-4,-3,…..,15) b) V*=3,06+0,28t , t=(1,2,…..20) c) Año 1.2006 2.2006 3.2006 4.2006 1.2007 2.2007 3.2007 4.2007 1.2008 2.2008 3.2008 4.2008 1.2009 2.2009 3.2009 4.2009 1.2010 2.2010 3.2010 4.2010

Tendencia Estacional e Irregular

3,625 4,125 4,875 5,5 5,625 5,5 5,5 5,5 5,875 6,375 6,875 7 6,875 7,25 7,625 8,125

1,103 1 0,821 1,091 1,244 1,091 0,545 1,091 1,191 0,941 0,873 1,000 1,455 0,552 0,918 1,108

2.2.Pronostico 58,000 55,600 58,240 56,296 59,718 61,087 63,435 63,174

EAM=1,370 RECM=1,505

69

2.3.Serie desestacionalizada por el método de porcentaje promedio Trimestres/Años 2006 2007 2008 Primero 3,9363179 5,2484238 3,9363179 Segundo 2,9484662 5,8969325 5,8969325 Tercero 3,1208187 5,4614327 5,4614327 Cuarto 4,2613335 6,3920003 6,3920003

2009 7,8726357 6,8797546 7,8020467 4,2613335

2010 9,1847417 8,8453987 8,5822513 7,4573337

Serie desestacionalizada e índice estacional por el método de porcentaje promedio móvil

Año 1.2006 2.2006 3.2006 4.2006 1.2007 2.2007 3.2007 4.2007 1.2008 2.2008 3.2008 4.2008 1.2009 2.2009 3.2009 4.2009 1.2010 2.2010 3.2010 4.2010

Serie Índice Desestacionalizada estacional

3,625 4,125 4,875 5,5 5,625 5,5 5,5 5,5 5,875 6,375 6,875 7 6,875 7,25 7,625 8,125

90,6% 103,1% 121,9% 91,7% 80,4% 91,7% 183,3% 91,7% 83,9% 106,3% 114,6% 100,0% 68,8% 181,3% 108,9% 90,3%

2.4.- A realizar por el alumno.

70

3.

ANÁLISIS UNIVARIANTE TEMPORALES

3.1.

DE

SERIES

INTRODUCCIÓN

La publicación de la obra Time Series Analysis: Forecasting and Control por G. E. P. Box y G. M. Jenkins en 1976 estableció un punto de inflexión en las técnicas cuantitativas de predicción en Economía. La metodología propuesta por estos autores, también conocida como metodología ARIMA, trata de realizar previsiones acerca de los valores futuros de una variable, utilizando únicamente como información la contenida en los valores pasados de la propia serie temporal. Este enfoque supone una alternativa a la construcción de modelos uniecuacionales o de ecuaciones simultáneas, pues supone admitir que las series temporales poseen un carácter estocástico, lo que implica que deben analizarse sus propiedades probabilísticas para que éstas “hablen por sí mismas”.

El análisis univariante de series temporales presenta como ventaja frente a otros métodos de predicción el no depender de los problemas de información asociados a las variables endógenas o exógenas. Como hemos visto en capítulos anteriores, los modelos económicos que hemos estimado hasta el momento requerían un conjunto de variables exógenas que se utilizaban para explicar el comportamiento de una variable endógena. Sin embargo, en muchas ocasiones no se dispone de observaciones para alguna de las variables exógenas, ya sea porque no es posible medir la variable (por ejemplo, las expectativas de los agentes) o porque la muestra de datos de que disponemos para representar dicha variable presenta errores de medida (cuyas consecuencias se vieron en el capítulo 4). Este problema desaparece cuando se trata de modelizar una variable endógena mediante un modelo de tipo univariante como el propuesto por Box y Jenkins, ya que se hace depender a dicha variable tan sólo de su propio pasado y un conjunto de perturbaciones aleatorias, pero no de otras variables, caracterizando así las series económicas en su dimensión temporal.

En el presente capítulo vamos a definir y caracterizar una amplia familia de estructuras estocásticas lineales así como la metodología a seguir para seleccionar aquel modelo univariante que resulte más adecuado para representar la estructura estocástica de la variable económica que estemos analizando.

71

3.2.

PROCESOS ESTÓCÁSTICOS

Podemos definir un proceso estocástico como un conjunto de variables aleatorias asociadas a distintos instantes del tiempo. Así, en cada período o momento temporal se dispone de una variable que tendrá su correspondiente distribución de probabilidad; por ejemplo, si consideramos el proceso Yt, para t = 1, tendremos una variable aleatoria, Y1, que tomará diferentes valores con diferentes probabilidades.

La relación existente, por tanto, entre una serie temporal y el proceso estocástico que la genera es análoga a la que existe entre una muestra y la población de la que procede, de tal forma que podemos considerar una serie temporal como una muestra o realización de un proceso estocástico, formada por una sola observación de cada una de las variables que componen el proceso. La tarea del investigador será, por tanto, inferir la forma del proceso estocástico a partir de las series temporales que genera.

Un proceso estocástico, Yt, se suele describir mediante las siguientes características: esperanza matemática, varianza, autocovarianzas y coeficientes de autocorrelación.

La esperanza matemática de Yt se traduce en la sucesión de las esperanzas matemáticas de las variables que componen el proceso, a lo largo del tiempo tal que: E(Yt) = µt,

t = 1,2,3...

Por su parte, la varianza de un proceso aleatorio es una sucesión de varianzas, una por cada variable del proceso: Var (Yt) = E(Yt – µt)2,

t = 1,2,3...

Las autocovarianzas, por su parte, son las covarianzas entre cada par de variables del proceso tales que:

γk = Cov(Yt,Yt+k) = E[(Yt - µt)(Yt+k - µt+k)] = γt,t+k ,

72

t = 1,2,3...

Finalmente, los coeficientes de autocorrelación son los coeficientes de correlación lineal entre cada par de variables que componen el proceso:

ρ t ,t + k =

γ t ,t + k Var (Yt )·Var (Yt + k )

, t = 1,2,3..., con − 1 ≤ ρ t ,t + k ≤ 1

Por último, a partir de los coeficientes de autocorrelación, vamos a definir dos funciones que nos serán muy útiles a lo largo del presente capítulo: −

Por un lado, la función de autocorrelación simple (fas) o correlograma, la cual es la representación gráfica de los coeficientes de autocorrelación en función de los distintos retardos o desfases entre las variables.



La función de autocorrelación parcial (fap), que mide la correlación existente entre dos variables del proceso en distintos períodos de tiempo, pero una vez eliminados los efectos sobre las mismas de los períodos intermedios. Por ejemplo, puede que exista cierta correlación entre Yt e Yt-2 debido a que ambas variables estén correlacionadas con Yt-1.

Dado que en la práctica se dispone de una muestra de un proceso estocástico, Y1, ...YT, se pueden obtener los coeficientes de autocorrelación simple y parcial muestral y utilizarlos como estimadores de los parámetros de la función de autocorrelación simple y parcial teórica. Así, la función de autocorrelación simple (fas) puede estimarse a partir de las autocovarianzas del proceso tal que:

ρˆ k =

γˆ k γˆ 0

Siendo:

T

∑ (Y γˆ0 =

t

t =1

T

73

− Y )2

T

T

∑ (Yt − Y )(Yt +k − Y )

γˆk =

t = k +1

∑ (Y

=

T −k

t = k +1

t+k

− Y )(Yt − Y )

T −k

La estimación de los parámetros de la función de autocorrelación parcial (fap) resulta algo más compleja, por lo que se verá en epígrafes posteriores.

3.3.

PROCESOS ESTACIONARIOS

Se dice que un proceso estocástico es estacionario en sentido estricto si todas las variables aleatorias que componen el proceso están idénticamente distribuidas, independientemente del momento del tiempo en que se estudie el proceso. Es decir, la función de distribución de probabilidad de cualquier conjunto de k variables (siendo k un número finito) del proceso debe mantenerse estable (inalterable) al desplazar las variables s períodos de tiempo tal que, si P(Yt+1, Yt+2, …, Yt+k ) es la función de distribución acumulada de probabilidad, entonces: P(Yt+1, Yt+2, …, Yt+k ) = P(Yt+1+s, Yt+2+s, …, Yt+k+s ), ∀t, k, s

Sin embargo, la versión estricta de la estacionariedad de un proceso suele ser excesivamente restrictiva para las necesidades prácticas de un economista. Es por ello que generalmente nos conformaremos con un concepto menos exigente, el de estacionariedad en sentido débil o de segundo orden la cual se da cuando la media del proceso es constante e independiente del

tiempo, la varianza es finita y constante, y el valor de la covarianza entre dos periodos depende únicamente de la distancia o desfase entre ellos, sin importar el momento del tiempo en el cual se calculan. Dicho de otro modo, todos los momentos de primer y segundo orden de un proceso estocástico que sea estacionario en sentido débil deben ser invariantes en el tiempo.

La contrastación empírica de algunas de estas condiciones puede realizarse fácilmente mirando el gráfico de la serie temporal. Así, una serie temporal que exhiba una marcada tendencia creciente tendrá una media también creciente en el tiempo por lo que lo más probable es que el proceso estocástico que ha generado dicha serie temporal no sea estacionario en media; del mismo modo, una serie temporal que muestre fluctuaciones de amplitud desigual en el tiempo seguramente no procederá de un proceso estocástico estacionario en varianza. La diferencia

74

entre ambos tipos de series queda patente en los gráficos que se muestran en las figuras 3.1. y 3.2.

Serie no estacionaria en media

Serie no estacionaria en media y varianza

Figura. 3.1. Ejemplo de series no estacionarias.

Serie estacionaria en media y varianza

Serie estacionaria en media pero no en varianza

Figura. 3.2. Ejemplo de series estacionarias.

Sin embargo, en la práctica el aspecto visual de la serie no siempre será una herramienta suficiente para decidir si ésta es estacionaria o no, debiendo recurrir al diagrama desviación típica – media, esto es, a la representación gráfica de la media (eje de abscisas) contra la

desviación típica (eje de ordenadas), calculadas sobre subdivisiones de la serie en grupos del mismo tamaño. En función de la configuración que adopte dicho gráfico decidiremos si la serie es estacionaria o no, tal y como puede apreciarse en los gráficos de la figura 3.3.

75

Serie estacionaria en media y varianza

Serie no estacionaria en varianza

Serie no estacionaria en media

Serie no estacionaria en media ni en varianza

Figura. 3.3. Gráfico media-desviación típica.

Pero, ¿por qué resulta importante para el investigador que el proceso analizado sea estacionario? La razón fundamental es que los modelos de predicción de series temporales que veremos a continuación están diseñados para ser utilizados con procesos de este tipo. Si las características del proceso cambian a lo largo del tiempo, resultará difícil representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal sencillo, no pudiéndose por tanto realizar previsiones fiables para la variable en estudio.

Sin embargo, por regla general, las series económicas no son series que procedan de procesos estacionarios, sino que suelen tener una tendencia, ya sea creciente o decreciente, y variabilidad no constante. Dicha limitación en la práctica no es tan importante porque las series no estacionarias se pueden transformar en otras aproximadamente estacionarias después de aplicar diferencias a la serie en una ó más etapas. Por ello, cuando estemos analizando una serie económica que no sea estacionaria en media deberemos trabajar con la serie en diferencias, especificando y estimando un modelo para la misma. Si además observamos que la serie

76

presenta no estacionariedad en varianza, deberemos transformarla tomando logaritmos antes de aplicar diferencias en la serie3.

Posteriormente la predicción que realicemos con las series transformadas habrá que traducirla a una predicción para la serie original, en cuyo análisis estaba interesado inicialmente el investigador, deshaciendo las diferencias y aplicando antilogaritmos según convenga.

Por último, antes de continuar avanzando, debemos hacer mención a un tipo de proceso estacionario particular: es el denominado ruido blanco, un proceso estocástico en el que las variables aleatorias que lo forman no están correlacionadas entre sí, siendo su esperanza matemática igual a cero y su varianza constante e igual a σ2.

En particular, supondremos que los errores de los procesos que veremos a continuación son ruidos blancos gaussianos, formados por una sucesión de variables aleatorias con distribución

Normal, esperanza cero, varianza constante e incorrelacionadas serialmente entre sí. Es decir:

εt es ruido blanco gaussiano si εt ∼ N(0,σ2), para cualquier t, tal que Cov(εt,εt’) = 0, ∀ t≠t' Seguramente el lector recuerde de anteriores capítulos que, en el modelo de regresión lineal clásico, se supuso implícitamente que el término de error incluido en el mismo respondía a las características de un ruido blanco gaussiano.

En la figura 3.4. se muestra la representación de un ruido blanco, en la que se puede apreciar claramente la estacionariedad de este proceso:

Figura. 3.4. Representación de un ruido blanco. 3

La aplicación de logaritmos a la serie para hacerla estacionaria en varianza es lo que se conoce como transformación Box-Cox. Para más detalles, véase Venables y Ripley (2002).

77

3.3.1. Operador de Retardos y Operador Diferencia Antes de seguir avanzando, debemos mencionar dos operadores que utilizaremos frecuentemente a lo largo del capítulo. Por un lado, se define el operador de retardos, que denotaremos por B, como aquel operador que al ser aplicado a la serie la transforma de tal forma que:

BYt = Yt-1

Es decir, el resultado de aplicar el operador B corresponde a retardar las observaciones un período.

Aplicada dos veces sobre la variable Yt tendremos que: B(BYt) = B2Yt = Yt-2

y, en general, podemos decir que el operador Bk aplicado sobre una variable en el periodo t, la retarda k períodos tal que: BkYt = Yt-k

Por su parte, el operador diferencia, el cual denotaremos por ∆, aplicado a una serie la transformará de tal forma que:

∆Yt = Yt – Yt-1 = (1 – B) Yt

Si aplicamos el operador diferencia dos veces a la serie tendremos que: ∆2Yt =∆(∆Yt) = ∆(Yt – Yt-1) = ∆Yt – ∆Yt-1 = Yt – 2Yt-1 +Yt-2 = (1–B)2Yt

Y en general, podemos escribir: ∆kYt = (1 – B) kYt

78

Por lo que resulta evidente que la relación existente entre el operador diferencia y el operador retardo es: ∆k = (1 – B) k

3.4.

MODELIZACIÓN

UNIVARIANTE

DE

SERIES

TEMPORALES La representación formal de los procesos aleatorios que generan series reales se puede realizar mediante modelos lineales de series temporales. Considerando que una determinada serie temporal ha sido generada por un proceso estocástico, en este epígrafe pasamos a describir los posibles modelos teóricos que permiten explicar el comportamiento de la misma y, por tanto, el de su proceso generador.

Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie de datos económicos se clasifican en tres tipos: modelos autorregresivos, modelos de medias móviles y modelos mixtos, los cuales pasamos a ver a continuación.

3.4.1. Procesos estocásticos lineales discretos Se dice que un proceso estocástico discreto es lineal si se puede expresar de la forma: ∞

Yt = µ + ε τ + ψ 1ε τ −1 + ψ 2ε τ − 2 + ... + ψ k ε τ − k + ... = µ + ε τ + ∑ψ ι ε τ −ι

(3.1)

ι =1

con µ, ψ1 , ψ2 , ...,parámetros (normalmente desconocidos) y ετ , ετ −1, ετ −2 , ..., un ruido blanco de media 0 y varianza σ 2 .Con frecuencia, ετ ,se denomina innovación porque se corresponde con el error de predicción un periodo hacia delante que cometemos si utilizamos la predicción adecuada. Es decir, es la parte de Yt no predecible aunque se utilice óptimamente toda la información pasada, Yt-1, Yt-2, …. ¿Por qué el análisis de series temporales se ha centrado en este tipo de procesos? La principal justificación es el Teorema de la descomposición de Wold (1938): Un proceso estocástico discreto, estacionario en covarianza, se puede representar unívocamente como la suma de dos procesos mutuamente incorrelacionados, Yt = Dt + Wt , siendo Dt

un proceso puramente

determinista y Wt un proceso puramente no determinista, que se puede escribir como un media móvil infinita (3.1).

79

Restringiremos el estudio a los procesos lineales discretos que dependan de pocos parámetros conocidos como procesos autorregresivos de medias móviles de órdenes p y q, abreviadamente ARMA(p,q), que se definen:

Yt = δ + φ1Yt −1 + φ 2Yt − 2 + ... + φ p Yt − p + ε t + θ1ε t −1 + θ 2 ε t − 2 + ... + θ q ε t − q , ε t ≈ RB (0, σ 2 ) Estos procesos se pueden escribir de otras dos formas: •

En la forma media móvil, es decir, en función únicamente de la innovación,

Yt = ε t + θ1ε t −1 + θ 2 ε t − 2 + ... •

En la forma autorregresiva, es decir, en función del pasado de la variable y la innovación actual,

Yt = δ + φ1Yt −1 + φ 2Yt − 2 + ... En principio, consideramos únicamente los procesos ARMA que posean las propiedades de estacionariedad y ergodicidad, que garantizan la resolución del problema de estimación al disponer de estimadores consistentes. Esta hipótesis implica que los parámetros de la forma media móvil cumplen la condición lim s →∞ ψ s = 0 . Además, introducimos la hipótesis de invertibilidad con objeto de que el modelo sea útil para predecir, y que implica la condición

lim s →∞ ϕ s = 0 en la forma autorregresiva. Pasamos a mostrar las propiedades que caracterizan a los distintos procesos ARMA. Dentro de esta clase general de modelos encontramos dos casos particulares, los procesos autorregresivos (cuando q=0) y los procesos médias móviles (si p=0).

3.4.2. Modelos Autorregresivos (AR(p)) Los procesos autorregresivos son aquellos que representan los valores de una variable durante un instante del tiempo en función de sus valores precedentes. Así, un proceso autorregresivo de orden p, AR(p), tendrá la siguiente forma: Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt

donde δ es un término constante y εt es un ruido blanco, que representa los errores del ajuste y otorga el carácter aleatorio al proceso.

80

Asimismo, haciendo uso del operador de retardos que veíamos anteriormente, el proceso también puede expresarse como: Yt = δ + φ1BYt + φ2B2Yt + ...+ φpBpYt + εt

O también: (1 – φ1B – φ2B2 – ...– φpBp)Yt = δ + εt

φp(L)Yt = δ + εt Veamos a continuación las características particulares de dos procesos autorregresivos elementales, el de orden 1 ó AR(1) y el de orden 2, ó AR(2). Posteriormente, los resultados obtenidos se generalizarán al caso de un proceso autorregresivo de orden p, AR(p).

3.4.2.1. Modelos autorregresivos de primer orden AR(1) Sea el proceso autorregresivo de primer orden: Yt = δ + φ1Yt-1 + εt

Si el proceso es estacionario en media y varianza entonces se verificará que E(Yt) = E(Yt-1) y Var (Yt) = Var(Yt-1), ∀t de tal forma que:

E (Yt ) = E (Yt −1 ) = µ ⇒ µ = δ + φ1 µ ⇒ µ =

δ

(3.2)

1 − φ1

Var (Yt ) = Var (Yt −1 ) = γ 0 ⇒ γ 0 = φ12γ 0 + σ ε2 ⇒ γ 0 =

σ ε2 1 − φ12

La condición a cumplir para que µ y γ0 sean positivas y finitas es que |φ1| < 1 . En ese caso el proceso será estacionario en media y varianza. Del mismo modo, si el proceso es estacionario, también se verificará para las covarianzas que:

81

Cov(Yt −1 , Yt ) = Cov (Yt , Yt +1 ) = γ 1 , ∀t Cov(Yt −1 , Yt ) = E [(Yt −1 − µ )(Yt − µ )] = E ( y t −1 y t )

(3.3)

Donde las variables en minúscula expresan que los datos están expresados en desviaciones respecto a la media. Despejando en la expresión (3.2) el valor de δ y sustituyéndolo en la ecuación del proceso queda que: Yt = δ + φ1Yt −1 + ε t = µ (1 − φ1 ) + φ1Yt −1 + ε t Yt − µ = φ1 (Yt −1 − µ ) + ε t ⇒ y t = φ1 y t −1 + ε t

Sustituyendo el valor de yt en (3.3) tenemos que: γ 1 = E ( y t −1 y t ) = E ( y t −1 (φ1 y t −1 + ε t )) = φ1 E ( y t2−1 ) + E ( y t −1ε t ) = φ1γ 0

El resultado anterior puede generalizarse si tomamos esperanzas entre yt e yt-k obteniéndose que, en general: γ k = φ1k γ 0

A partir de los resultados anteriores podemos obtener la estimación de los coeficientes de la función de autocorrelación simple (fas) para un proceso autorregresivo de orden 1 mediante las siguientes expresiones: ρ0 = 1 γ ρ1 = 1 = φ1 γ0 γ ρ 2 = 2 = φ12 γ0 LLL

ρk =

γk = φ1k γ0

Del resultado anterior se deduce que los valores de la función de autocorrelación son las sucesivas potencias del parámetro φ1. La condición |φ1|<1 garantiza que los sucesivos valores ρk

82

convergerán a cero, si bien la función puede presentar dos aspectos distintos, dependiendo del signo de φ1 como puede observarse en la figura 3.5.

φ1 >0

φ1 <0

Figura 3.5. Función de autocorrelación simple para un proceso AR(1)

La condición |φ1|<1 para que el proceso AR(1) sea estacionario es equivalente a la condición de que la raíz del operador polinomial φ(Β) = 0 debe caer fuera del círculo unidad, es decir:

1 − φ1 B = 0 ⇒ B > 1 ⇒

1

φ1

> 1 ⇒ φ1 < 1

3.4.2.2. Modelos autorregresivos de segundo orden AR(2) La expresión para un proceso autorregresivo de orden dos es la siguiente: Yt = δ + φ1Yt-1 + φ2Yt-2 + εt

Del mismo modo que antes, si el proceso es estacionario en media y varianza tenemos que E(Yt) = E(Yt-1)= E(Yt-2) y Var(Yt) = Var(Yt-1) = Var(Yt-2), ∀t.

Así, en el caso de la media tenemos que:

E (Yt ) = E (Yt −1 ) = µ ⇒ µ = δ + φ1 µ + φ 2 µ ⇒ µ =

δ 1 − φ1 − φ 2

Debiéndose verificar, para que la media sea finita, que φ1+φ2 ≠ 1. En el caso de la varianza tenemos que:

83

Var(Yt ) = Var(Yt −1 ) = Var(Yt −2 ) = γ 0 ⇒ γ 0 = φ12 γ 0 + φ 22 γ 0 + σ ε2 ⇒ γ 0 =

σ ε2 1 − φ12 − φ22

Finalmente, para las covarianzas se verificará que: Cov (Yt −1 , Yt ) = Cov (Yt , Yt +1 ) = γ 1 , ∀t γ 1 = Cov (Yt −1 , Yt ) = E [(Yt −1 − µ )(Yt − µ )] = E ( y t −1 y t ) = E [ y t −1 (φ1 y t −1 + φ2 y t − 2 + ε t )] = φ1γ 0 + φ2 γ 1 γ 2 = Cov (Yt −2 , Yt ) = E [(Yt − 2 − µ )(Yt − µ )] = E ( y t − 2 y t ) = E [ y t − 2 (φ1 y t −1 + φ2 y t − 2 + ε t )] = φ1γ 1 + φ2γ 0 ...

γ k = Cov (Yt − k , Yt ) = E [(Yt − k − µ )(Yt − µ )] = E ( y t − k y t ) = E [ y t −k (φ1 y t −1 + φ2 y t −2 + ε t )] = φ1γ k −1 + φ2γ k − 2 ( k > 0)

De donde podemos derivar las expresiones para los coeficientes de la función de autocorrelación simple:

ρ0 = 1 γ φ γ + φ2γ 1 φ ρ1 = 1 = 1 0 = φ1 + φ 2 ρ 1 → ρ1 = 1 γ0 γ0 1 − φ2 ρ2 =

φ2 γ2 = φ1 ρ 1 + φ 2 → ρ 2 = 1 + φ 2 γ0 1 − φ2

LLL

ρk =

γk = φ1 ρ k −1 + φ 2 ρ k − 2 , k > 0 γ0

La condición de estacionariedad utilizando la notación en retardos es que las raíces del polinomio de retardos, al igual que en el caso del proceso AR(1), estén fuera del círculo unidad de tal forma que verifiquen: 1 − φ1 B + φ2 B 2 = 0

84

Asimismo, si el parámetro φ2 fuera negativo, la resolución de las raíces del polinomio podría generar raíces imaginarias; en tal caso, Yt presentará ciclos de periodo T que vendrán dados por la expresión:

cos

φ1 2π = T 2 − φ2

Al igual que en el caso anterior, la función de autocorrelación simple converge a cero si bien ahora puede presentar cuatro aspectos distintos en función de los signos de φ1 y φ2, como puede apreciarse en la figura 3.6.

φ1>0, φ2>0

φ1<0, φ2>0

φ1>0, φ2<0

φ1<0, φ2<0

Figura 3.6. Función de autocorrelación simple para un AR(2)

3.4.2.3. Modelos autorregresivos de orden p, AR(p) A partir de los resultados obtenidos para los procesos AR(1) y AR(2), podemos generalizar las expresiones obtenidas para un proceso de orden p.

Sea el proceso autorregresivo de orden p:

85

Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt

Si el proceso es estacionario en media y varianza entonces E(Yt) = E(Yt-1) = ... = E(Yt-p) y Var(Yt) = Var(Yt-1) =...= Var(Yt-p), ∀t, y por tanto:

µ=

δ 1 − φ1 − φ 2 − ... − φ p

Por lo que para que la media sea finita, deberá verificarse que φ1 + φ 2 + ... + φ p ≠ 1

Del mismo modo, generalizando los resultados obtenidos para los coeficientes de la función de autocorrelación simple se tiene que:

γ 1 = φ1γ 0 + φ 2 γ 1 + ... + φ p γ p −1 γ 2 = φ1γ 1 + φ 2 γ 0 + ... + φ p γ p − 2 .............................. ..............

γ k = φ1γ k −1 + φ 2 γ k − 2 + ... + φ p γ 0

El sistema de ecuaciones obtenido se conoce como ecuaciones de Yule-Walker y relaciona las p primeras autocovarianzas con los parámetros del proceso.

Dichas ecuaciones también se pueden expresar en términos de los coeficientes de autocorrelación dividiendo por γ0 ambos miembros tal que:

ρ 1 = φ1 ρ 0 + φ 2 ρ 1 + ... + φ p ρ p −1 ρ 2 = φ1 ρ 1 + φ 2 ρ 0 + ... + φ p ρ p − 2 .............................. ..............

ρ k = φ1 ρ p −1 + φ 2 ρ p − 2 + ... + φ p ρ 0 Si se resuelve sucesivamente el sistema de ecuaciones de Yule-Walker bajo la hipótesis de que la serie es un AR(1), AR(2), AR(3), etc., y se toma el último coeficiente de cada uno de los procesos se obtiene lo que se conoce como función de autocorrelación parcial (fap); dicha función mide el coeficiente de correlación entre observaciones separadas k períodos, eliminando el efecto de los valores intermedios.

86

Dado que p es el orden del proceso autorregresivo, resulta evidente que los coeficientes de autocorrelación parcial serán distintos de cero para retardos iguales o inferiores a p. Así, para un proceso AR(1) tendríamos una función de autocorrelación parcial como la que se muestra en la figura 3.7.

φ1 >0

φ1 <0

Figura 3.7. Función de autocorrelación parcial para un AR(1)

Del mismo modo, la función de autocorrelación parcial para un proceso AR(2) tendrá la siguiente forma (fig. 3.8.):

φ1>0, φ2>0

φ1<0, φ2>0

φ1>0, φ2<0

φ1<0, φ2<0

Figura 3.8. Función de autocorrelación parcial para un AR(2)

87

Finalmente, y de forma análoga a los resultados obtenidos en los procesos AR(1) y AR(2), para que un proceso autorregresivo de orden p sea estacionario, las raíces del polinomio de retardos del proceso, 1 − φ1 B + φ2 B 2 + ... + φ p B p = 0 , deberán ser menores a la unidad en valor absoluto.

3.4.3. Procesos de Media Móvil (MA(q)) En los procesos de media móvil de orden q, cada observación Yt es generada por una media ponderada de perturbaciones aleatorias, con un retardo de q períodos tal que: Yt = δ + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q

donde εt es un ruido blanco. Pasamos a ver a continuación las características particulares de dos procesos de medias móviles básicos, el de orden 1 ó MA(1), y el de orden 2 ó MA(2). Posteriormente, los resultados obtenidos se generalizarán, como ya hicimos en el caso de los procesos autorregresivos, al caso de un proceso de medias móviles de orden q, MA(q).

3.4.3.1. Modelos de medias móviles de primer orden MA(1)

Veamos el caso particular de un proceso de media móvil de orden 1 ó MA(1). Formalmente su expresión sería: Yt = δ + εt – θ1εt-1

siendo su media E(Yt) = δ, y su varianza Var (Yt) = Var(εt) + θ12 Var(εt-1) = σ ε2 (1+ θ12 ) = γ0

En el caso de las covarianzas tenemos que: γ 1 = E [(Yt −1 − δ )(Yt − δ )] = E [(ε t −1 − θ1ε t −2 )(ε t − θ1ε t −1 )] = −θσ ε2 γ 2 = E [(Yt −2 − δ )(Yt − δ )] = E [(ε t −2 − θ1ε t −3 )(ε t − θ1ε t −1 )] = 0 L

γ k = 0, ∀k > 1

88

El resultado obtenido pone de manifiesto que los procesos de media móvil poseen memoria de sólo un período, ya que cualquier valor de Yt está correlacionado con Yt-1 e Yt+1 pero con ningún otro valor de la serie.

A partir de las expresiones anteriores, y de modo análogo a como procedíamos en el caso de los modelos AR, podemos obtener los coeficientes de la función de autocorrelación simple: ρ0 = 1 − θ1 γ ρ1 = 1 = γ 0 1 + θ12 γ ρ k = k = 0, ∀k > 1 γ0

De todos estos resultados se desprende que un proceso MA(1) siempre es estacionario con independencia del valor de θ1. La representación gráfica de la función de autocorrelación simple viene determinada por el signo de θ1, tal y como puede apreciarse en la figura 3.9.

θ1 > 0

θ1 < 0

Figura 3.9. Función de autocorrelación simple para un MA(1)

89

3.4.3.2. Modelos de medias móviles de segundo orden MA(2)

Veamos ahora el caso de un proceso MA(2). Dicho proceso viene definido por la siguiente ecuación: Yt = δ + εt – θ1εt-1 – θ2εt-2

con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ θ12 Var(εt-1)+ θ 22 Var(εt-2)= σ ε2 (1+ θ12 + θ 22 )=γ0

Las covarianzas del proceso son: γ 1 = E [(Yt −1 − δ )(Yt − δ )] = E [(ε t −1 − θ1ε t − 2 − θ 2 ε t −3 )(ε t − θ 1ε t −1 − θ 2 ε t − 2 )] = ( −θ1 + θ1θ 2 )σ ε2 γ 2 = E [(Yt − 2 − δ )(Yt − δ )] = E [(ε t − 2 − θ 1ε t −3 − θ 2 ε t − 4 )(ε t − θ 1ε t −1 − θ 2 ε t − 2 )] = −θ 2 σ ε2

L

γ k = 0, ∀k > 2

Expresión de la que podemos obtener los coeficientes de la función de autocorrelación simple: ρ0 = 1 γ − θ 1 + θ 1θ 2 ρ1 = 1 = γ 0 1 + θ12 + θ 22 γ − θ2 ρ2 = 2 = γ 0 1 + θ 12 + θ 22 L

ρk =

γk = 0, ∀k > 2 γ0

De los resultados obtenidos para el modelo MA(2) también se desprende que siempre es estacionario con independencia del valor de sus parámetros, siendo su memoria en este caso de dos períodos.

90

La representación gráfica de la función de autocorrelación simple, la cual depende del signo de

θ1 y θ2, es la que se muestra en la figura 3.10.

θ1 >0, θ2 >0

θ1 <0, θ2 >0

θ1 >0, θ2 <0

θ1 <0, θ2 <0

Figura 3.10. Función de autocorrelación simple para un MA(2)

91

3.4.3.3. Modelos de medias móviles de orden q, MA(q)

Una vez analizados los resultados obtenidos para los procesos de media móvil de orden 1 y 2, ya podemos obtener una generalización de las expresiones anteriores para un proceso de media móvil de orden q cualquiera.

Sea el proceso MA(q): Yt = δ + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q

con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ θ12 Var(εt-1)+ θ 22 Var(εt-2)+…+ θ q2 Var(εt-q)= σ ε2 (1+ θ12 + θ 22 +…+ θ q2 ) = γ0

Por su parte, las covarianzas de un proceso MA(q) son: γ 1 = E [(Yt −1 − δ )(Yt − δ )] = ( −θ1 + θ1θ 2 + θ 2θ 3 + ... + θ q −1θ q )σ ε2 γ 2 = E [(Yt − 2 − δ )(Yt − δ )] = ( −θ 2 + θ1θ 3 + θ 2θ 4 + ... + θ q − 2θ q )σ ε2 L

γ q = −θ q σ ε2 L

γ k = 0, ∀k > q

Los coeficientes de la función de autocorrelación simple pueden ser obtenidos a partir de las expresiones anteriores de autocovarianzas, no siguiendo los mismos una expresión regular. En cualquier caso, cualquier proceso MA de orden finito es estacionario.

92

3.4.3.4. Relación entre procesos AR y MA

Cualquier proceso MA(q) puede expresarse como un AR de orden infinito. Así, por ejemplo, si consideramos un modelo MA(1) cuya expresión es, como sabemos: Yt = δ + εt – θ1εt-1

(3.4)

Por analogía, podemos escribir: Yt-1 = δ + εt-1 – θ1εt-2 Yt-2 = δ + εt-2 – θ1εt-3 …………………………

Despejando en (3.4) el valor de εt y sustituyendo de forma recursiva los valores de εt-1 y εt-2, tenemos que: ε t = Yt − δ + θ1ε t −1 = Yt − δ + θ1 (Yt −1 − δ + θ1ε t − 2 ) = Yt − δ + θ1Yt −1 − θ1δ + θ12 ε t − 2 = Yt − δ + θ1Yt −1 − θ1δ + θ 12 (Yt − 2 − δ + θ1ε t −3 ) = Yt − δ + θ1Yt −1 − θ1δ + θ12Yt − 2 − θ12δ + θ13ε t −3

(

)

⇒ Yt = δ 1 + θ1 + θ12 − θ1Yt −1 − θ12Yt − 2 − θ13ε t −3 + ε t

Si continuamos sustituyendo εt-3 y siguientes, el procedimiento continuará hasta el infinito, lo que permite expresar a Yt como función de todos sus valores pasados más una constante y un término de error. El resultado anterior tendrá sentido sólo si |θ1|< 1 (o su equivalente en términos de raíces de polinomio de retardos, 1 − θ1 B = 0 ⇒ B > 1 ) ya que, de otro modo, el efecto del pasado sería más importante para explicar el comportamiento actual.

Del mismo modo, puede comprobarse que en el caso de un modelo MA(2), la condición que debe verificarse es |θ1+θ2|< 1 ó, en términos de raíces del polinomio de retardos, 1–θ1B–θ2B2=0 ⇒ B >1, y en general, para cualquier modelo MA(q), la condición es 1–θ1B–θ2B2–...–θqBq = 0

⇒ B >1

93

Si se verifica esta condición, denominada condición de invertibilidad, entonces es posible expresar un proceso MA(q) como un proceso AR de orden infinito, lo que implica que un proceso de media móvil consta de infinitos coeficientes de autocorrelación parcial distintos de cero, si bien a partir de q comenzarán a decaer rápidamente. Así, la función de autocorrelación parcial de un proceso de media móvil se comportará de manera análoga a como lo hace la función de autocorrelación simple de un proceso autorregresivo, como puede apreciarse en la figura 3.11. para un proceso MA(1) y en la figura 3.12. para un proceso MA(2).

θ1 >0

θ1 <0

Figura 3.11. Función de autocorrelación parcial para un MA(1)

θ1 >0, θ2 >0

θ1 <0, θ2 >0

θ1 >0, θ2 <0

θ1 <0, θ2 <0

Figura 3.12. Función de autocorrelación parcial para un MA(2)

94

3.4.4. Procesos ARMA(p, q) Los procesos ARMA (p, q) son, como su nombre indica, un modelo mixto que posee una parte autorregresiva y otra de media móvil, donde p es el orden de la parte autorregresiva y q, el de la media móvil. La expresión genérica de este tipo de procesos es: Yt = δ + φ1Yt-1 + φ2Yt-2 + ... + φpYt-p + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q

En este tipo de modelos deben verificar las dos condiciones que hemos visto hasta el momento: por un lado, la condición de estacionariedad, debiéndose cumplir que las raíces del polinomio de retardos de la parte autorregresiva, φ(Β) = 0, estén fuera del círculo unidad; y por otro, la condición de invertibilidad, debiéndose verificar que las raíces del polinomio de retardos de la parte MA, θ(L) = 0, estén fuera del círculo unidad.

3.4.4.1. Modelos ARMA(1, 1)

Veamos las características particulares de un modelo ARMA (1,1). La ecuación que define este tipo de proceso es: Yt = δ + φ1Yt-1 + εt – θ1εt-1

el cual presenta las siguientes características:

Media: µ =

δ 1 − φ1

< ∞, φ1 ≠ 1

Varianza: γ 0 = E (δ + φ1Yt −1 + ε t − θ 1ε t −1 )2 = φ12 γ 0 + σ ε2 + θ12σ ε2 − 2φ1σ ε2

⇒γ0 =

σ ε2 (1 + θ 12 − 2φ1σ ε2 ) , con φ1 < 1 1 − φ12

Por su parte, las autocovarianzas del proceso serán:

95

γ 1 = E [Yt −1Yt ] = φ1γ 0 − θ1σ ε2 γ 2 = E [Yt −2Yt ] = φ1γ 1 L

γ k = E [Yt − k Yt ] = φ1γ k −1 , ∀k ≥ 2

A continuación se presentan en las figuras 3.13. y 3.14. las funciones de autocorrelación simple y parcial de un proceso ARMA (p, q).

φ1>0, θ1<0, |φ1| = |θ1|

φ1<0, θ1>0, |φ1| = |θ1|

φ1>0, θ1>0, |φ1| > |θ1|

φ1>0, θ1>0, |φ1| < |θ1|

φ1<0, θ1<0, |φ1| > |θ1|

φ1<0, θ1<0, |φ1| < |θ1|

Figura 3.13. Funciones de autocorrelación simple para un ARMA(1,1)

96

φ1>0, θ1<0, |φ1| = |θ1|

φ1<0, θ1>0, |φ1| = |θ1|

φ1>0, θ1>0, |φ1| > |θ1|

φ1>0, θ1>0, |φ1| < |θ1|

φ1<0, θ1<0, |φ1| > |θ1|

φ1<0, θ1<0, |φ1| < |θ1|

Figura 3.14. Funciones de autocorrelación parcial para un ARMA(1,1)

97

El simple examen de los gráficos anteriores pone de manifiesto que no resulta nada sencillo en la práctica identificar un proceso ARMA (1, 1) a través de sus funciones de autocorrelación simple y parcial, ya que es fácil confundir dichas funciones con las de otros procesos univariantes. Por ello, normalmente el investigador seguramente especifique y estime inicialmente un modelo más sencillo, como por ejemplo un AR(2); posteriormente el análisis de los residuos obtenidos en dicha estimación pondrá de manifiesto la presencia de otras estructuras. Si, por ejemplo, el investigador detecta en las funciones de autocorrelación simple y parcial de los residuos obtenidos una estructura de MA(1) será necesario incorporar dicha estructura especificando un modelo ARMA (2, 1), el cual sin duda tendrá una mayor capacidad explicativa.

3.4.4.2. Modelos ARIMA

Si la serie Yt no fuera estacionaria y tomando d diferencias logramos que lo sea tal que ωt=∆dYt sí es estacionaria, entonces diremos que Yt sigue un proceso autorregresivo integrado de media móvil de orden (p, d, q) y se denominará ARIMA (p,d,q) o, lo que es lo mismo, que ωt sigue un

proceso estacionario de tipo ARMA (p, q) tal que: ω t = δ + φ1ω t −1 + φ 2 ω t − 2 + ... + φ p ω t − p + ε t − θ 1ε t −1 − θ 2 ε t − 2 − ... − θ q ε t − q

O también, expresando el proceso en notación de polinomios de retardos: (1 − φ1 B − φ2 B 2 − ... − φ p B p )ωt = δ + (1 − θ1 B − θ 2 B 2 − ... − θ q B q )ε t

φ ( B )ωt = δ + θ ( B )ε t

El modelo ARIMA(p, d, q) puede ser considerado como el modelo estocástico lineal general, del cual derivan el resto de procesos que hemos visto. Así, si p = d = 0, estaremos ante un modelo ARIMA(0, 0, q) equivalente a un modelo MA(q); si q = 0 tendríamos un modelo ARIMA (p, d, 0) ó ARI(p,d) (es decir, un modelo autorregresivo en el que se han tomado d diferencias para hacer estacionaria a la serie analizada).

98

3.4.5. Procesos Estacionales Cuando trabajamos con series temporales cuya frecuencia de medida es inferior al año (mensuales, trimestral, cuatrimestrales), es frecuente encontrarse con patrones estacionales, es decir, ciclos u oscilaciones estrictamente periódicos, siendo dicho período igual o inferior al año. Por ejemplo, si una serie trimestral presenta estacionalidad diremos que su periodo estacional será igual a cuatro cuando en dicha serie se aprecian similitudes en su comportamiento cada cuatro trimestres.

La presencia de este componente se explica por la existencia de las estaciones y su impacto sobre la actividad económica (por ejemplo, en la producción agropecuaria o en el turismo), las costumbres (fin de año, Semana Santa) o los procesos físicos (temperatura, pluviosidad, etc.).

Otra manera para detectar un comportamiento estacional consiste en analizar las funciones de autocorrelación simple y parcial de la serie de la que se sospecha que presenta un comportamiento de tipo estacional. Si al representar dichas funciones se aprecian valores muy altos, significativamente distintos de cero, para los retardos estacionales podremos concluir que la serie presenta un componente estacional el cual debe presentar un carácter estacionario, es decir, debemos exigir que el componente estacional se mantenga constante a lo largo del tiempo.

Nuevamente, el análisis de las funciones de autocorrelación simple y parcial en los retardos estacionales nos dirá si el componente estacional de la serie es estacionario o no. Así, si observamos que la función de autocorrelación simple presenta un lento decaimiento en los valores correspondientes a los retardos estacionales y el valor del primer retardo estacional es próximo a uno tanto en la función de autocorrelación simple como parcial, es muy probable que el comportamiento estacional de la serie no presente un carácter estacionario, por lo que será necesario tomar diferencias de tipo estacional.

En caso de que la serie Yt presente un comportamiento estacional no estacionario, habrá que tomar diferencias entre aquellas observaciones separadas por el periodo que presenta el

99

comportamiento estacional, aplicando para ello el operador diferencia estacional, ∆s, que se define como: ∆sYt = Yt – Yt-s = (1–Bs) Yt

donde s es el periodo estacional de la serie.

La detección del comportamiento estacional de la serie y su carácter estacionario es importante ya que, tal y como Box y Jenkins plantearon, es posible incorporar a un modelo ARIMA (p, d, q) las correlaciones existentes entre pares de observaciones separadas por periodos estacionales

suponiendo que el término de error de un modelo ARIMA para la parte estacional está correlacionado serialmente.

Así, podemos especificar el siguiente modelo para la parte estacional detectada en la serie: (1 − Φ 1 B s − Φ 2 B 2 s − ... − Φ P B Ps )(1 − B s ) D Yt = (1 − Θ1 B s − Θ 2 B 2 s − ... − ΘQ B Qs )·u t

(3.5)

Que se denomina ARIMA(P, D, Q) para la parte estacional de la serie.

A su vez, podemos suponer que el término de error de este modelo, ut, viene generado por un proceso ARIMA(p, d, q) en lugar de ser ruido blanco tal que: (1 − φ1 B − φ2 B 2 − ... − φ p B p )(1 − B ) d ut = (1 − θ1 B − θ 2 B 2 − ... − θ q B q )ε t

(3.6)

Sustituyendo ahora (3.5) en (3.6) obtendremos la expresión del proceso estacional multiplicativo general, el cual denotaremos por ARIMA(p, d, q) × ARIMA(P, D, Q)s, y que podemos escribir como: (1 − Φ 1 B s − Φ 2 B 2 s − ... − Φ P B Ps )(1 − φ1 B − φ2 B 2 − ... − φ p B p )(1 − B s ) D (1 − B ) d Yt = (1 − Θ1 B s − Θ 2 B 2 s − ... − ΘQ B Qs )(1 − θ1 B − θ 2 B 2 − ... − θ q B q )·ε t

100

O, de forma más abreviada, expresando el modelo en notación de retardos y generalizándolo incluyendo un término constante: Φ ( B s )φ ( B )[(1 − B s ) D (1 − B ) d Yt − δ ] = Θ( B s )θ ( B )ε t

donde: φ (B ) es el polinomio de retardos autorregresivo de la parte regular de la serie.

θ (B ) es el polinomio de retardos de medias móviles de la parte regular de la serie.

d es el número de diferencias aplicadas a la parte regular de la serie para hacerla estacionaria. Φ ( B s ) es el polinomio de retardos autorregresivo de la parte estacional de la serie.

Θ( B s ) es el polinomio de retardos de medias móviles de la parte estacional de la serie.

D es el número de diferencias aplicadas a la parte estacional de la serie para hacerla

estacionaria.

Así, por ejemplo, si deseamos especificar un modelo para una serie con estacionalidad mensual podemos especificar un ARIMA(1, 1, 1) × ARIMA(1,1, 1)12, el cual puede escribirse como: (1 − Φ 1 B s )(1 − φ1 B )[(1 − B12 )(1 − B )Yt − δ ] = (1 − Θ1 B 12 )(1 − θ1 B )·ε t

La estructura de las funciones de autocorrelación simple y parcial suele ser generalmente muy compleja de este tipo de modelos por lo que no vamos a entrar en detalle en sus expresiones, limitándonos a presentar a continuación la forma de las funciones de autocorrelación simple y parcial de algunos procesos típicos de muchas series económicas.

101

Funciones de autocorrelación simple y parcial de algunos procesos ARIMA(p, d, q) × ARIMA(P, D, Q)s

ARIMA(1, 0, 0) × ARIMA(1, 0, 0)12

a) φ1>0, Φ1>0, φ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

b) φ1>0, Φ1<0, φ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

c) φ1<0, Φ1>0, φ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

102

d) φ1<0, Φ1<0, φ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

ARIMA(2, 0, 0) × ARIMA(1, 0, 0)12

a) φ1>0, φ2>0, Φ1>0, φ2 < φ1 < Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

b) φ1<0, φ2>0, Φ1>0, φ2 < φ1 < Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

103

c) φ1>0, φ2<0, Φ1>0, φ2 < φ1 < Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

d) φ1<0, φ2<0, Φ1>0, φ2 < φ1 , φ2 < Φ 1 , φ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

e) φ1>0, φ2>0, Φ1<0, φ2 < φ1 < Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

104

f) φ1<0, φ2>0, Φ1<0, φ2 < φ1 < Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

g) φ1>0, φ2<0, Φ1<0, φ2 < φ1 < Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

h) φ1<0, φ2<0, Φ1<0, φ2 < φ1 , φ2 < Φ 1 , φ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

105

ARIMA(0, 0, 1) × ARIMA(0, 0, 1)12

a) θ1>0, Θ1>0, θ1 = Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

b) θ1>0, Θ1<0, θ1 = Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

c) θ1<0, Θ1>0, θ1 = Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

106

d) θ1<0, Θ1<0, θ1 = Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

ARIMA(0, 0, 2) × ARIMA(0, 0, 1)12

a) θ1>0, θ2>0, Θ1>0, θ 2 < θ1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

b) θ1<0, θ2>0, Θ1>0, θ 2 < θ1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

107

c) θ1>0, θ2<0, Θ1>0, θ 2 < θ1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

d) θ1<0, θ2<0, Θ1>0, θ 2 < θ1 , θ 2 < Θ1 , θ1 = Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

e) θ1>0, θ2>0, Θ1<0, θ 2 < θ1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

108

f) θ1<0, θ2>0, Θ1<0, θ 2 < θ1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

g) θ1>0, θ2<0, Θ1<0, θ 2 < θ1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

h) θ1<0, θ2<0, Θ1<0, θ 2 < θ1 , θ 2 < Θ1 , θ1 = Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

109

ARIMA(0, 0, 1) × ARIMA(2, 0, 0)12

a) θ1>0, Φ1>0, Φ2>0, Φ 2 < Φ 1 < θ1

Función de autocorrelación simple

Función de autocorrelación parcial

b) θ1>0, Φ1<0, Φ2<0, Φ 2 < Φ 1 , Φ 2 < θ1 , θ1 = Φ 1

Función de autocorrelación simple

Función de autocorrelación parcial

ARIMA(0, 0, 1) × ARIMA(2, 0, 1)12

a) θ1>0, Φ1>0, Φ2<0, Θ1>0, θ1 = Θ1 , Φ 2 < Φ 1 < Θ1

Función de autocorrelación simple

Función de autocorrelación parcial

110

b) θ1>0, Φ1<0, Φ2<0, Θ1>0, θ1 = Φ 1 = Θ1 , Φ 2 < Θ1

Función de autocorrelación simple

3.5.

Función de autocorrelación parcial

FASES PARA LA ELABORACIÓN DE MODELOS UNIVARIANTES

Aunque las fases que vamos a explicar a continuación son válidas para cualquier tipo de proceso univariante, vamos a centrarnos fundamentalmente en los procesos de tipo ARIMA. Básicamente se trata de buscar un proceso ARIMA que de forma verosímil haya podido generar la serie temporal, es decir, que se adapte mejor a las características de la misma. Para ello seguiremos las siguientes fases: −

Fase de identificación



Fase de estimación



Fase de validación



Fase de predicción

3.5.1. Fase de identificación Dado que los procesos ARIMA están diseñados para modelizar datos de carácter estacionario, lo primero que debemos hacer es efectuar un análisis de la estacionariedad de los datos. Con tal fin se utilizan los siguientes instrumentos: −

Representación gráfica de los datos. Si el gráfico de la serie temporal presenta fluctuaciones cuya amplitud cambia para distintos intervalos del período muestral, seguramente el proceso que genera la serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o decreciente con el tiempo.

111



A través del gráfico desviación típica-media. Si en el gráfico realizado observamos que, conforme crece la media, la desviación típica aumenta, la varianza del proceso será creciente por lo que diremos que la serie es no estacionaria en varianza.



Análisis del correlograma. El hecho de que la función de autocorrelación simple o correlograma de la serie decrezca muy lentamente al aumentar el retardo ha demostrado ser una señal de tendencia no estacionaria. Puesto que en la práctica se dispone de una realización de un proceso estocástico, podemos obtener los coeficientes de autocorrelación muestral y, a partir de ellos, el correlograma muestral. Una vez representado el correlograma muestral, podrá analizarse si la serie es o no estacionaria. Asimismo, en este punto también es conveniente examinar la apariencia de la función de autocorrelación parcial de la serie para ver si existen similitudes con alguno de los patrones estudiados.

Si la serie temporal que estamos analizando no es estacionaria se deberán aplicar las transformaciones adecuadas con objeto de convertirla en estacionaria. Si la serie no es estacionaria en varianza, deberemos tomar logaritmos sobre la serie; si además la serie presenta no estacionariedad en media, se aplicará el proceso de diferenciación que ya hemos comentado al comienzo del capítulo.

En este punto cabe señalar que es preferible trabajar con series económicas en niveles en lugar de tasas de variación ya que, en caso de detectarse no estacionariedad en la varianza, no podremos aplicar logaritmos si existe alguna tasa negativa. Asimismo, debemos tener en cuenta que normalmente las series originales transformadas aplicando logaritmos y tomando posteriormente una diferencia constituyen una aproximación a una tasa de variación tal que ∆lnYt ≅ (Yt – Yt-1) / Yt-1 Una vez transformada la serie en estacionaria, se determinará el orden de la parte autorregresiva (p) y el de la parte de media móvil (q) del proceso ARMA que se considere que haya podido generar la serie estacionaria. Para tal fin utilizaremos la representación gráfica de las funciones de autocorrelación simple y parcial de la serie transformada, con objeto de obtener pistas acerca del proceso univariante del que puede proceder la serie transformada. Las siguientes reglas pueden resultar útiles a la de inspeccionar los gráficos de la fas y la fap de la serie: −

En los modelos AR(p), la función de autocorrelación parcial presenta los p primeros coeficientes distintos de cero y el resto nulos. Asimismo, generalmente la función de autocorrelación simple presenta un decrecimiento rápido de tipo exponencial, sinusoidal o ambos.

112



En los modelos MA(q), se da el patrón opuesto: la función de autocorrelación simple se anula para retardos superiores a q y la función de autocorrelación parcial decrece exponencial o sinusoidalmente.



Sin embargo, como ya hemos visto, la especificación de los modelos ARMA no se ajusta a unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la función de autocorrelación parcial es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la componente AR(1) hay que superponer la MA(1) cuya función de autocorrelación parcial converge exponencialmente a cero.

Lo habitual en estos casos es que el investigador especifique inicialmente un modelo más simple y, posteriormente, mediante el análisis de los residuos de la estimación de dicho modelo se detecte un proceso que no ha sido especificado inicialmente y que debe ser incorporado al modelo. −

En cualquier caso, para que una serie sea fácilmente identificable hay que considerar un tamaño muestral elevado, superior a 50 observaciones.

En general, la etapa de identificación suele plantear ciertas dificultades y su objetivo es determinar la especificación tentativa de unos pocos modelos con estructuras sencillas. Las posteriores etapas de estimación y validación de los resultados confirmarán los indicios o, por el contrario, servirán de base para reformular el modelo propuesto.

3.5.2. Fase de estimación Una vez identificado el modelo de series temporales apropiado, se procede a la estimación definitiva de sus parámetros. En este punto, no debemos olvidar que si hemos tomado d diferencias en la serie se perderán d observaciones, quedando T–d datos disponibles para la estimación.

Asimismo, debemos tener presente que el proceso estimado debe verificar las siguientes hipótesis: a) El término εt posee estructura de ruido blanco y sigue una distribución Normal con media 0 y varianza σ ε2 .

113

b) La parte AR del proceso es estacionaria.

c) La parte MA del proceso es invertible.

Veamos a continuación brevemente cómo se realiza la estimación de los distintos modelos univariantes que hemos visto en los epígrafes anteriores: •

Estimación de procesos AR. Un proceso autorregresivo no cumple la hipótesis del

modelo clásico de regresión basada en regresores fijos que veíamos en el capítulo 2, ya que los retardos de Yt son variables aleatorias al serlo la propia Yt. Sin embargo, en presencia de errores que no presentan autocorrelación, los estimadores mínimocuadráticos son consistentes por lo que en la práctica la estimación de un proceso autorregresivo se realiza por MCO, siendo los retardos de la variable endógena las variables explicativas del modelo. Sólo si el término de error presentase algún tipo de correlación y no fuera ruido blanco, los estimadores obtenidos dejarían de ser consistentes. •

Estimación de procesos MA y ARMA. La estimación de modelos de medias móviles y

ARMA resulta algo más compleja y se lleva a cabo maximizando el logaritmo de la función de verosimilitud mediante algoritmos de optimización numérica, similares a los que veremos en el capítulo 11, debido a que los errores no son función lineal de los parámetros. Por ello generalmente la estimación de estos procesos se realiza utilizando algún programa informático especializado, como puede ser Eviews, SPSS o TRAMO.

3.5.3. Fase de validación En esta etapa se comprobará la capacidad de ajuste del modelo propuesto y estimado a los datos. En caso de que el modelo no supere satisfactoriamente este paso, será necesario reformularlo. En este sentido, cabe señalar que los resultados de la comprobación de la validez del modelo, suelen dar pistas para la especificación de un modelo alternativo.

Para la aceptación del modelo, éste debe cumplir los siguientes requisitos: •

Análisis de los residuos. Como sabemos, una de las hipótesis de los modelos

univariantes es que el término de error del modelo es ruido blanco. Por ello, los residuos obtenidos tras la estimación del modelo deben seguir un proceso puramente aleatorio con distribución Normal, ya que de lo contrario, contendrían información relevante para la predicción que se estaría despreciando.

114

Con objeto de estudiar si los residuos se aproximan al comportamiento de un proceso de ruido blanco, se disponen de las siguientes herramientas: −

Estadístico de Ljung-Box: se trata del siguiente estadístico, propuesto por

Ljung y Box (1979) para contrastar si una serie posee estructura de ruido blanco:

rˆj2 T−j j =1 k

Q ( k ) = T (T + 2 )



T −k

∑ε ε

donde T es el número de observaciones y rˆk =

t t −k t =1 T −k ε t2 t =1

es el coeficiente



de autocorrelación de orden k de los residuos.

La elección de k es arbitraria, si bien debe tenerse en cuenta que cuanto mayor sea el valor de k, el test se extenderá a desfases mayores pero la precisión en la estimación de los rk será menor y disminuirá la potencia del contraste, es decir, la probabilidad de rechazar la hipótesis nula cuando ésta es falsa.

Dicho estadístico, bajo la hipótesis nula de que los residuos del modelo son ruido blanco sigue una distribución χ 2 con k grados de libertad, por lo que se rechazará la hipótesis nula si el valor del estadístico obtenido es superior al tabulado en la distribución a un nivel de significación dado. −

Representación de las funciones de autocorrelación simple y parcial de los residuos. Si los coeficientes de dichas funciones son estadísticamente

iguales a cero, la serie de residuos será considerada aleatoria. Anderson (1942) demostró que los coeficientes de la función de autocorrelación procedentes de un ruido blanco siguen asintóticamente la siguiente distribución:

rˆk ≈ N (0, 1 / T )

115

En consecuencia, bajo la hipótesis nula de que rˆk =0, se puede construir un intervalo de confianza acotado por ±

2 . Si algún rˆk cayera fuera de este T

intervalo, entonces se rechazará la hipótesis de no autocorrelación.

Las funciones de autocorrelación simple y parcial de los residuos del modelo estimado son instrumentos valiosos a la hora de reformular el modelo en caso de que no se comporten como un proceso ruido blanco, ya que si se detecta algún tipo de estructura univariante que no se había especificado inicialmente en el modelo, podremos incorporarla y estimar de nuevo el modelo. −

Representación gráfica de los residuos. La representación de la evolución

de los residuos a lo largo del tiempo permite observar si su varianza se mantiene constante en el tiempo y si la media está próxima a cero, así como detectar la presencia de valores atípicos, esto es, residuos que en valor absoluto exceden en tres o cuatro veces su desviación típica (suponiendo que su media es igual a cero).

Asimismo podemos verificar si las frecuencias de los residuos se ajustan a una distribución Normal mediante el test de Jarque-Bera, cuya expresión es:

 A 2 ( K − 3) 2 JB = N ⋅  +  6 24 

   

Donde A el coeficiente de asimetría muestral, K el coeficiente de curtosis muestral y N el tamaño muestral4.

4

Recordemos que los coeficientes de asimetría y curtosis se calculan de la siguiente manera: n

∑ A=

i =1

( xi − x ) 3 n

σ x3

n

∑ ;

K=

i =1

( xi − x ) 4 n

σ x4

−3

Para el caso de una distribución Normal, se verificará que A = 0 y K = 3, valores que sustituidos en la expresión del estadístico de Jarque-Bera hacen que sea igual a 0.

116

Bajo la hipótesis nula de Normalidad en la distribución de los residuos, el estadístico JB se distribuye según una χ2 con 2 grados de libertad, por lo que valores muy elevados del estadístico sugerirán la no normalidad de la serie de residuos analizada. −

Otros contrastes. También es posible aplicar a los residuos los contrastes

sobre autocorrelación y heteroscedasticidad que vimos en el capítulo 3. •

Análisis de los coeficientes estimados.



Significatividad de los coeficientes. Lo primero es verificar si los

coeficientes son significativos mediante el estadístico t. Dicho estadístico está construido bajo la hipótesis nula de que el coeficiente es cero y sigue una distribución t-Student con T–m grados de libertad, siendo m el número de parámetros incluidos. Si concluimos que alguno no es significativo (estadístico t mayor, en valor absoluto, que su valor en tablas) se puede eliminar del modelo.



Condiciones de estacionariedad e invertibilidad. El modelo debe

verificar las condiciones ya vistas a lo largo del capítulo; de lo contrario, si alguna de las raíces del polinomio de retardos del componente autorregresivo o del componente media móvil fuese inferior a la unidad (o, alternativamente, alguno de los parámetros estimados fuera mayor de uno), se rechazaría automáticamente el modelo.

En el límite, si alguna de las raíces del polinomio de retardos (o alguno de los parámetros) del componente autorregresivo estuviera muy próxima a uno, es posible que la serie original esté subdiferenciada por lo que puede que sea necesaria tomar alguna diferencia adicional.

Del mismo modo, si las raíces del polinomio de retardos (o alguno de sus parámetros) del componente media móvil del modelo estuviera cercana a uno, posiblemente el modelo esté sobrediferenciado. • Análisis de la bondad de ajuste. Generalmente en este aspecto se suele utilizar el coeficiente de determinación, R2, si bien los coeficientes de determinación de diferentes

117

modelos univariantes sólo son comparables en aquellos modelos en los que se hayan tomado idéntico número de diferencias, debido a que para que éste sea un elemento de comparación directa, la varianza de la variable debe ser la misma. Para paliar este inconveniente, se han propuesto medidas alternativas como el estadístico AIC (Akaike Information Criterion), formulado por Akaike (1974) o el SIC (Schwarz Information Criterion), formulado por Schwarz (1978)5. Las expresiones de dichos estadísticos son:

AIC = −2

SIC = −2

l k +2 T T

l log(T ) +k T T

Donde l es el valor en el óptimo del logaritmo de la función de verosimilitud con k parámetros estimados y T observaciones. Siguiendo estos criterios, se seleccionará aquel modelo para el que se obtenga un AIC o SIC más bajo. • Análisis de la estabilidad. Finalmente, de cara a la predicción, conviene saber si el modelo estimado para el período muestral sigue siendo válido para períodos futuros. Para ello, podemos aplicar el test de estabilidad estructural de Chow, estimando el modelo con toda la muestra disponible y después con dos submuestras obtenidas a partir de la muestra original. Seguidamente se calcula el siguiente estadístico:

T2 T  T1   ε t2 −  ε 12t + ε 22t  / k    t =1 t =1  t =1  F= ~ Fk, T–2k T T 1 2   2   ε2 + ε 2 t / T − 2k 1t   t =1  t =1 











donde:

k es el número de parámetros estimados. T = T1+T2 es el total de datos en la muestra.

εt es el residuo del modelo estimado utilizando todo el período muestral.

5

La mayor parte de paquetes informáticos dedicados al análisis de series temporales calcula de forma automática cuando se realiza la estimación de un modelo.

118

ε1t es el residuo obtenido en la estimación del modelo utilizando los T1 primeros datos. ε2t es el residuo obtenido en la estimación del modelo utilizando los T2 últimos datos. Lo que se pretende contrastar con el test de Chow es si el último tramo muestral ha estado generado por la misma estructura que el resto de las observaciones. En este sentido, algunos autores recomiendan tomar como segundo tramo muestral el último tercio o cuarto de la muestra.

En caso de que el estadístico F obtenido sea mayor que su valor tabulado a un determinado nivel de significación, se rechazará la hipótesis nula de estabilidad estructural.

3.5.4. Fase de predicción Una vez que el modelo ha superado la fase de diagnosis, se convierte en un instrumento útil para la predicción. La realización de predicciones y el error cometido al realizar dicha predicción dependerá del tipo de modelo univariante que estemos considerando: −

En el caso de los modelos autorregresivos, bastará con sustituir los retardos de la ecuación por sus correspondientes realizaciones en la serie. Si tratamos de realizar predicciones varios periodos hacia delante, veremos que cuanto más adelante en el tiempo tratamos de predecir el valor de la serie, menor será la ponderación de la última observación y la esperanza matemática de la variable tiene cada vez más peso. De hecho, en un régimen de total incertidumbre (o, alternativamente, cuando el horizonte de predicción tiende a infinito) la predicción óptima para una variable aleatoria es su esperanza matemática, mientras que si realizamos predicciones a corto plazo para los valores de la serie, dispondremos de información muestral reciente que nos permitirá mejorar nuestra predicción, la cual en este caso será más precisa que la esperanza matemática.

En la siguiente tabla se presenta un resumen de las expresiones para las previsiones a 1 y 2 periodos con modelos autorregresivos sencillos, el error cometido y la varianza de dicho error:

119

PROCESO AR (1) Valor Futuro

Error de Predicción

Varianza del Error

Predicción a 1 periodo

YT+1 = δ + φ1YT

εT+1

σ ε2

Predicción a 2 periodos

YT+2 = δ(1+φ1)+ φ12YT

εT+2+φ1εT+1

σ ε2 (1+φ12)

Y, en general, para k periodos hacia delante se verifica que YT+k = δ(1+φ1+φ12+…+φ1k)+ φ1kYT

PROCESO AR (2) Valor Futuro

Error de Predicción

Varianza del Error

Predicción a 1 periodo

YT+1 = δ + φ1YT+φ2YT-1

εT+1

σ ε2

Predicción a 2 periodos

YT+2 = δ(1+φ1) + (φ12+ φ2)YT+φ1φ2YT-1

εT+2+φ1εT+1

σ ε2 (1+φ12)

La previsión con modelos AR(p) con un orden p superior a 1 genera estructuras complejas en horizontes de predicción superiores a 1. −

Por su parte, la predicción basada en modelos de medias móviles es siempre igual al término constante (o igual a cero en caso de que éste no hubiera sido especificado en el modelo) para un número de periodos hacia delante mayor que su orden.

Por tanto, las expresiones para las previsiones a 1 periodo con modelos de medias móviles sencillos, el error cometido y la varianza de dicho error son:

Proceso

Predicción a 1 periodo

Error de Predicción

Varianza del Error

MA(1)

YT+1 = δ – θ1εT

εT+1

σ ε2

MA(2)

YT+1 = δ + θ1εT – θ2εT-1

εT+1

σ ε2

Y en general se verifica que YT+k = δ, ∀k > q −

Finalmente, en el caso de los modelos ARMA la superposición de los resultados que acabamos de comentar lleva a la conclusión de que cuando el horizonte de predicción tiende a infinito, la predicción convergerá a su esperanza matemática.

120

Por tanto, las expresiones para las previsiones a 1 y 2 periodos con un modelo ARMA(1,1), el error cometido y la varianza de dicho error son:

Valor Futuro

Error de Predicción

Varianza del Error

Predicción a 1 periodo

YT+1 = δ + φ1YT – θ1εT

εT+1

σ ε2

Predicción a 2 periodos

YT+2 = (1+φ1)δ + φ12YT –φ1θ1εT

εT+2+(φ1 – θ1)εT+1

[1+(φ1 – θ1)2]+ σ ε

Y en general, la predicción a k periodos para un ARMA estacionario es:

lim YT + k = k →∞

δ 1 − φ1

Es decir, converge a la media del proceso.

Asimismo, debemos recordar que hay que deshacer las transformaciones que hayamos realizado en la variable original para hacerla estacionaria. Así, si hemos tomado una diferencia, la predicción para YˆT +1 es ωˆ T +1 + YˆT para la predicción a un periodo y, de forma más genérica, YˆT + k = ωˆ T + k + ωˆ T + k −1 + ωˆ T + k −2 + ... + ωˆ T +1 + YˆT ; del mismo modo, si hemos tomado dos diferencias

tendremos que YˆT +1 = ωˆ T +1 + 2YˆT − YT −1 , y así sucesivamente.

Posteriormente, si también habíamos aplicado logaritmos a la serie original, deberemos elevar a e el resultado obtenido tras deshacer las diferencias más la mitad de la varianza del error de

predicción tal que:

1    ωˆT + k + ·Var eT ( k )  2 

YˆT + k = e 

Dependiendo del tamaño de la varianza del error de predicción, supondría una diferencia significativa o no con respecto a la aplicación de antilogaritmos a la predicción de la serie diferenciada, aunque por lo general en la práctica el término asociado a la varianza del error suele ser despreciable.

121

2

3.6.

EJEMPLOS PRÁCTICOS

3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas. El siguiente ejemplo utiliza los totales mensuales de pasajeros de líneas aéreas internacionales para el periodo comprendido entre Enero de 1949 y Diciembre de 1962 incluidos en libro de Box y Jenkins. Esta base de datos está disponible en R: > data(AirPassengers) > x<-AirPassengers

En la figura 3.15. se muestra la representación gráfica de la serie en la que puede apreciarse claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo. > plot(x)

Figura 3.15. Pasajeros de líneas aéreas internacionales (serie original)

El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en varianza. > x <- log(x)

Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (fig. 3.2.):

122

> plot(x)

Figura 3.16. Pasajeros de líneas aéreas internacionales (serie en logaritmos)

El análisis de la serie en logaritmos y de sus funciones de autocorrelación simple y parcial confirman que la serie no es estacionaria en media por lo que debemos tomar una diferencia. > par(mfcol = c(1, 2)) > acf(x) > pacf(x)

123

Figura 3.17. Funciones de autocorrelación simple y parcial (serie en logaritmos)

Tras tomar una diferencia, el aspecto de la serie es el siguiente (figura. 3.18): > par(mfcol = c(1, 1)) > x1 <- diff(x) > plot(x1)

124

Figura 3.18. Pasajeros de líneas aéreas internacionales (serie logarítmica en diferencias)

Las funciones de autocorrelación simple y parcial de la serie logarítmica en diferencias se muestran en la figura 3.19, en las que puede apreciarse el marcado componente estacional en los meses de Diciembre, lo que nos obliga a tomar una diferencia estacional de 12 meses para hacer estacionaria la parte estacional de la serie. > par(mfcol = c(1, 2)) > acf(x1) > pacf(x1)

125

Figura 3.19. Funciones de autocorrelación simple y parcial (serie logarítmica en diferencias)

El gráfico de la figura 3.20. muestra la serie logarítmica con una diferencia regular y una diferencia estacional de periodo 12; en ella podemos apreciar la pérdida de las 13 primeras observaciones al haber aplicado las diferencias indicadas. Tras haber aplicado las transformaciones que hemos comentado, la serie presenta ahora un claro comportamiento estacionario, el cual viene confirmado por las funciones de autocorrelación simple y parcial de la serie (figura 3.21). > par(mfcol = c(1, 1)) > x1_12 <- diff(x1,12) > plot(x1_12)

126

Figura 3.20. Pasajeros de líneas aéreas internacionales (serie logarítmica con una diferencia regular y una diferencia estacional) > par(mfcol = c(1, 2)) > acf(x1_12) > pacf(x1_12)

Figura 3.21. Funciones de autocorrelación simple y parcial (serie logarítmica con una diferencia regular y una diferencia estacional)

127

De las funciones de autocorrelación simple y parcial podemos extraer algunas conclusiones: por un lado, en la parte regular podemos comprobar que las funciones de correlación simple y parcial son muy parecidas, siendo el primer retardo significativo para ambos casos. Esto indica que quizás el modelo sea un ARIMA(1,1,0), un ARIMA(0,1,1) o un ARIMA(1,1,1), en cualquier caso un modelo de primer orden.

Por otro lado, en la parte estacional vemos que el retardo 12 es significativo y que en sus cercanías hay muy poca correlación, lo que sugiere un proceso con muy poca memoria, posiblemente un ARIMA(0,1,1)12 en la parte estacional. Las conclusiones anteriores nos llevan a estimar tres modelos: un ARIMA(1,1,0)×(0,1,1)12, un ARIMA(0,1,1)×(0,1,1)12 y un ARIMA(1,1,1)×(0,1,1)12. Presentamos a continuación, de forma resumida, los resultados obtenidos para los tres modelos.

Para estimar un modelo ARIMA en R hay que utilizar la función “arima”, cuya estructura es la siguiente: arima(x, order = c(0L, 0L, 0L), seasonal = list(order = c(0L, 0L, 0L), period = NA), xreg = NULL, include.mean = TRUE, transform.pars = TRUE, fixed = NULL, init = NULL, method = c("CSS-ML", "ML", "CSS"), n.cond, SSinit = c("Gardner1980", "Rossignol2011"), optim.method = "BFGS", optim.control = list(), kappa = 1e6)

destacar, la opción order, en donde se especifican los elementos (p,d,q) de la parte no estacional del modelo arima, y seasonal, en donde se especifican los elementos de la parte estacional.

a) Resultados de la estimación

ARIMA(1,1,0)×(0,1,1)12 > mod1 <- arima(x,c(1,1,0),c(0,1,1)) > mod1 Call: arima(x = x, order = c(1, 1, 0), seasonal = c(0, 1, 1)) Coefficients: ar1 -0.3395 s.e. 0.0822

sma1 -0.5619 0.0748

sigma^2 estimated as 0.001367: 481.49

log likelihood = 243.74,

128

aic = -

ARIMA(0,1,1)×(0,1,1)12 > mod2 <- arima(x,c(0,1,1),c(0,1,1)) > mod2 Call: arima(x = x, order = c(0, 1, 1), seasonal = c(0, 1, 1)) Coefficients: ma1 -0.4018 s.e. 0.0896

sma1 -0.5569 0.0731

sigma^2 estimated as 0.001348:

log likelihood = 244.7,

aic = -483.4

ARIMA(1,1,1)×(0,1,1)12 > mod3 <- arima(x,c(1,1,1),c(0,1,1)) > mod3 Call: arima(x = x, order = c(1, 1, 1), seasonal = c(0, 1, 1)) Coefficients: ar1 ma1 0.1960 -0.5784 s.e. 0.2475 0.2132

sma1 -0.5643 0.0747

sigma^2 estimated as 0.001341:

log likelihood = 244.95,

aic = -481.9

Como puede observarse, la estimación de este último modelo contiene un parámetro no significativo, AR1, por lo que podemos excluirlo de nuestro análisis.

129

b) Ajuste del modelo

ARIMA(1,1,0)×(0,1,1)12 > > > >

par(mfcol = c(1, 2)) plot(x) lines(x-mod1$residuals,col="red") plot(mod1$residuals)

Figura 3.22. Resultados de la estimación y residuos del modelo ARIMA(1,1,0)×(0,1,1)12

ARIMA(0,1,1)×(0,1,1)12 > > > >

par(mfcol = c(1, 2)) plot(x) lines(x-mod2$residuals,col="red") plot(mod2$residuals)

130

Figura 3.23. Resultados de la estimación y residuos del modelo ARIMA(0,1,1)×(0,1,1)12

c) Funciones de autocorrelación simple y parcial. ARIMA(1,1,0)×(0,1,1)12 > par(mfcol = c(1, 2)) > acf(mod1$residuals) > pacf(mod1$residuals)

131

ARIMA(0,1,1)×(0,1,1)12 > par(mfcol = c(1, 2)) > acf(mod2$residuals) > pacf(mod2$residuals)

d) Test de Normalidad en los residuos

ARIMA(1,1,0)×(0,1,1)12 > summary(mod1$residuals) Min. 1st Qu. Median -0.1115000 -0.0232700 -0.0004461 Max. 0.1032000

Mean 0.0004500

> par(mfcol = c(1, 1)) > hist(mod1$residuals)

132

3rd Qu. 0.0238100

> library(tseries) > jarque.bera.test(mod1$residuals) Jarque Bera Test data: mod1$residuals X-squared = 3.607, df = 2, p-value = 0.1647

ARIMA(0,1,1)×(0,1,1)12 > summary(mod2$residuals) Min. 1st Qu. Median -0.1186000 -0.0191600 -0.0000515 Max. 0.1085000 > hist(mod2$residuals)

Mean 0.0005731

133

3rd Qu. 0.0223300

> jarque.bera.test(mod2$residuals) Jarque Bera Test data: mod2$residuals X-squared = 5.2265, df = 2, p-value = 0.0733

En definitiva los dos primeros modelos que hemos estimado superan las pruebas de diagnosis perfectamente y realizan un ajuste muy parecido de los datos. La elección del modelo ahora sí resulta sencilla a la luz de los valores de los estadísticos AIC, pues el segundo modelo presenta valores para estos estadísticos menores, en términos absolutos, que el primero. Así pues, el modelo seleccionado para modelizar el número de pasajeros que viaja mensualmente en líneas aéreas internacionales es un ARIMA(0,1,1)×(0,1,1)12.

3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria El siguiente ejemplo utiliza los totales mensuales del índice de producción industrial (IPI) de Cantabria Base 2010 para el periodo comprendido entre Enero de 2000 y Abril de 2014 incluidos en libro de Box y Jenkins.

Esta base de datos está disponible en la librería

“descomponer” de R: > library(descomponer) > data(ipi) > x<-ts(ipi,c(2000,1),frequency=12)

134

En la figura 3.24. se muestra la representación gráfica de la serie en la que puede apreciarse claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo. > plot(x)

Figura 3.24. Índice de Producción Industrial de Cantabria (serie original)

El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en varianza. > x <- log(x)

Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (figura 3.25.): > plot(x)

135

Figura 3.25 Índice de Producción Industrial de Cantabria (serie en logaritmos)

En la librería “forecast” hay una función “auto.arima” que selecciona el mejor modelo ARIMA atendiendo al AIC. Su estructura es la siguiente: auto.arima(x, d=NA, D=NA, max.p=5, max.q=5, max.P=2, max.Q=2, max.order=5, max.d=2, max.D=1, start.p=2, start.q=2, start.P=1, start.Q=1, stationary=FALSE, seasonal=TRUE, ic=c("aicc","aic", "bic"), stepwise=TRUE, trace=FALSE, approximation=(length(x)>100 | frequency(x)>12), xreg=NULL, test=c("kpss","adf","pp"), seasonal.test=c("ocsb","ch"), allowdrift=TRUE, lambda=NULL, parallel=FALSE, num.cores=2)

La función permite, establecer el orden de diferenciación regular o estacional, si no se indica ningún orden, utiliza el test KPSS6 para establecer el orden regular, y el test OCSB7 para el estacional , en la opción test, se puede cambiar este criterio de diferenciación por el “test DikeyFuller Aumentado”8 (“adf”) ó el test de Phillips-Perron (“pp”)9 y en “sasonal.test” permite elegir el

6

Kwiatkowski, D.; Phillips, P. C. B.; Schmidt, P.; Shin, Y. (1992). "Testing the null hypothesis of stationarity against the alternative of a unit root". Journal of Econometrics 54 (1–3): 159–178 7 Osborn DR, Chui APL, Smith J, and Birchenhall CR (1988) "Seasonality and the order of integration for consumption", Oxford Bulletin of Economics and Statistics 50(4):361-377. 8 Se explica en el apartado siguiente 9 Phillips, P.C.B and P. Perron (1988), "Testing for a Unit Root in Time Series Regression", Biometrika, 75, 335–346

136

test “ch”10. En la función se puede indicar el orden de los coeficientes AR(p) y MA(q) regulares, y AR(P) y MA(Q) estacionales con que iniciar la selección del mejor modelo (“start”) y con que acabar la selección del mejor modelo (“max”), si no se le indica nada los valores por defecto son los que figuran en la estructura de la función, señalar, por último, que en “ic” se puede optar por el criterio de selección: AICC, AIC y BIC11) .

A continuación, buscamos con los parámetros de los coeficientes establecidos por defecto, y cambiando el test KPSS por el test Dikey-Fuller Aumentado para testear la existencia de alguna raiz unitaria, el mejor AIC para un modelo ARIMA en la serie del IPI de Cantabria: > mod1 <- auto.arima(x,test="adf") > mod1 Series: x ARIMA(3,1,1)(1,0,2)[12] Coefficients: ar1 -0.1254 s.e. 0.3026 sma2 -0.1829 s.e. 0.0984

ar2 -0.0285 0.2221

ar3 0.0697 0.1532

ma1 -0.5843 0.2862

sar1 0.9835 0.0107

sma1 -0.4231 0.0951

sigma^2 estimated as 0.00337: log likelihood=197.53 AIC=-379.06 AICc=-378.02 BIC=-355.14

Estimamos a continuación el modelo ARIMA seleccionado de forma automática: > mod1 <- arima(x,c(3,1,1),c(1,0,2)) > mod1 Series: x ARIMA(3,1,1)(1,0,2)[12] Coefficients: ar1 -0.1254 s.e. 0.3026 sma2 -0.1829 s.e. 0.0984

ar2 -0.0285 0.2221

ar3 0.0697 0.1532

ma1 -0.5843 0.2862

sar1 0.9835 0.0107

sma1 -0.4231 0.0951

sigma^2 estimated as 0.00337: log likelihood=197.53 AIC=-379.06 AICc=-378.02 BIC=-355.14

Dado que los coeficientes AR(1),AR(2) y AR(3) no son significativos, optamos por el modelo ARIMA(0,1,1)×(1,0,2)12

10

Canova F and Hansen BE (1995) "Are Seasonal Patterns Constant over Time? A Test for Seasonal Stability", Journal of Business and Economic Statistics 13(3):237-252. 11

AICC = AIC +

2k (k + 1) , siendo n el numero de datos y k los parámetros del modelo n − k −1

seleccionado; el estadístico BIC (Bayesian information criterion) es una denominación alternativa del

137

> mod2 <- arima(x,c(0,1,1),c(1,0,2)) > mod2 Series: x ARIMA(0,1,1)(1,0,2)[12] Coefficients: ma1 -0.6522 s.e. 0.0580

sar1 0.9841 0.0110

sma1 -0.4145 0.0962

sma2 -0.2237 0.0979

sigma^2 estimated as 0.003429: log likelihood=196.67 AIC=-383.34 AICc=-382.91 BIC=-368.38

El AIC es menor pero el modelo no esta sobre parametrizado. Comprobamos sus resultados12: > > > >

par(mfcol = c(1, 2)) plot(x) lines(x-mod1$residuals,col="red") plot(mod1$residuals)

Figura 3.26. Resultados de la estimación y residuos del modelo ARIMA(0,1,1)×(1,0,2)12

> par(mfcol = c(1, 2)) > acf(mod2$residuals) > pacf(mod2$residuals)

SIC (Schwarz Information Criterion), 12

En la librería “forecast” hay creada una funcion R “tsdisplay”, que presenta el gráfico de la serie, y los gráficos acf y acp.

138

> summary(mod2$residuals) Min. 1st Qu. Median Mean -0.185500 -0.038210 -0.004946 -0.001943 > par(mfcol = c(1, 1)) > hist(mod2$residuals)

> library(tseries)

139

3rd Qu. 0.035560

Max. 0.138200

> jarque.bera.test(mod2$residuals) Jarque Bera Test data: mod2$residuals X-squared = 1.8029, df = 2, p-value = 0.406

El modelo elegido presenta residuos en apariencia normal, si bien puede que precise de alguna diferenciación estacional, debido a que algunos de los coeficientes de la función de autocorrelación parcial están en el límite del intervalo de confianza. En consecuencia podría probarse el modelo ARIMA(0,1,1)×(1,1,1)12: > mod3 <- arima(x,c(0,1,1),c(1,1,1)) > mod3 Series: x ARIMA(0,1,1)(1,1,0)[12] Coefficients: ma1 -0.6141 s.e. 0.0578

sar1 -0.2768 0.0846

sigma^2 estimated as 0.004001: log likelihood=180.41 AIC=-354.82 AICc=-354.63 BIC=-346.1 > par(mfcol = c(1, 2)) > acf(mod3$residuals) > pacf(mod3$residuals)

Con el que tampoco se mejora la funcion de autocorrelación parcial de los residuos. En consecuencia, la mejor opción es ARIMA(0,1,1)×(1,0,2)12

140

3.7.

PROBLEMAS

3.1 Considere la siguiente serie temporal univariante:

[y = 2.82, 0.09,−0.97,−1.13,−1.21,−0.81,−0.37, 2.02, 1.52, 2.44]′ .

Suponiendo que la serie y ≡ [y1 , ...,yN ]′ anterior es una realización particular de una muestra Y ≡ [Y1 , ...,YN ]′ de tamaño N = 10 procedente de un proceso estocástico estacionario (Yt): a) Estime la media y la varianza del proceso Yt. b) Contraste la hipótesis nula H0: µ = 0 frente a la alternativa H0: µ ≠ 0. c) Estime la acf y la pacf del proceso Yt hasta el retardo 6 3.2 En la librería “forecast” de R, se encuentra una base de datos en formato de serie temporal, “gas”, que recoge la producción australiana de gas durante mes a mes durante los años de 1956 a 1996. Estudie la estacionariedad de la serie en R a través de us gráfica y de las funciones de autocorrelación y autocorrelación parcial. 3.3 Compare el modelo estacionario elegido con alguno de los procesos de Funciones de autocorrelación simple y parcial de procesos ARIMA(p, d, q) ARIMA(P, D, Q)s teóricos representados en el texto. Elija los modelos que crea más probables y estimelos con R. 3.4 Realice en R una estimación automática del modelo estacionario y discuta los resultados. 3.5 Sea el siguiente proceso autoregresivo:

Yt = 1 + 0,5Yt −1 + ε t a) Calcule la esperanza matemática de Yt . b) Calcule la varianza de Yt , suponiendo que ε t es un ruido blaco gaussiano de media cero y varianza 1. 3.6 Sabiendo que se dispone de 100 observaciones de Yt y que Y99 = 1,2 e Y100 = 1,5 realice una predicción a dos periodos utilizando el modelo Yt = 0,5Yt −1 − 0,2Yt − 2 + ε t

141

SOLUCIONES

3.1. a) µ = 0.44, σ 2 = 2.284 b) Se acepta la hipótesis nula c) acf: {0.443 0.137 –0.250 –0.399 –0.434 –0.313} ; pacf: {0.443 –0.074 –0.353 –0.204 –0.192 –0.150}

3.2. A realizar por el alumno 3.3. A realizar por el alumno 3.4. A realizar por el alumno 3.5 a) µ = 2 b) Var (Yt ) = 1,1905 3.6

Y101 = 0,51 ; Y101 = −0,045

142

4.

COINTEGRACION

4.1.

INTRODUCCIÓN

Los análisis econométricos basados en series de tiempo parten de la suposición de que la serie de tiempo es estacionaria (ver apartado 3.3). Cuando se estudia la autocorrelación en los problemas de la regresión por mínimos cuadrados ordinarios, se señala que este es un problema muy habitual en las regresiones con series temporales, y a menudo es la no estacionariedad de las series de tiempo utilizadas en la regresión lineal es la causa del problema de la autocorrelación de los residuos. De hecho, al efectuar la regresión de una variable de serie de tiempo sobre otra variable de serie de tiempo con frecuencia se obtiene 2 un R muy elevado (superior a 0.9) aunque no haya una relación casual entre las dos. Una

regresión de este tipo se conoce en econometría como regresión espuria o regresión sin sentido, fue descubierta por Yule, quien mostró además que la correlación (espuria) puede persistir en las series de tiempo no estacionarias aunque la muestra sea muy grande. En una 2 regresión espuria, además del R muy elevado, se obtiene un valor extremadamente bajo de

la d de Durbin-Watson, lo que indicaría una autocorrelación muy fuerte de primer orden. 2 De acuerdo con Granger y Newbold (1974), obtener un R > d es una buena regla práctica

para sospechar que la regresión estimada es espuria. Ni que decir tiene que en estas regresiones el estadístico t es engañoso ya que no está distribuido como una t de Student y, por tanto, no se pueden probar con ellos hipótesis sobre los parámetros

En el apartado 3.3 se señala también que un proceso estocástico es estacionario en sentido estricto si todas las variables aleatorias que componen el proceso están idénticamente distribuidas, independientemente del momento del tiempo en que se estudia el proceso. En términos más generales, se dice que un proceso estocástico es estacionario si su media y su varianza son constantes en el tiempo y si el valor de la covarianza entre dos periodos depende sólo de la distancia o rezago entre estos dos periodos, y no del tiempo en el cual se calculó la covarianza..

143

Si una serie de tiempo no es estacionaria en el sentido antes definido, se denomina serie de tiempo no estacionaria. En otras palabras, una serie de tiempo no estacionaria tendrá una media que varía con el tiempo o una varianza que cambia con el tiempo, o ambas. En dicho aparatado se señalaba la importancia de este tipo de series, debido a que si una serie de tiempo no es estacionaria, sólo podemos estudiar su comportamiento durante el periodo de estudio. Si las características del proceso cambian a lo largo del tiempo, resultará difícil representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal sencillo, no pudiéndose por tanto realizar previsiones fiables para la variable.

También se menciono un tipo especial de proceso estocástico: el proceso puramente aleatorio o de ruido blanco. Se dice que un proceso es puramente aleatorio si tiene una media igual a cero, una varianza constante y no está serialmente correlacionado. De hecho una prueba sencilla de estacionariedad se basa en el análisis de función de autocorrelación (FAC) de la serie de tiempo. Dado que en un proceso puramente de ruido blanco, las autocorrelaciones en los distintos retardos se ubican alrededor del cero, ocurrirá igual en un correlograma de una serie de tiempo estacionaria. Por tanto, si el correlograma de una serie de tiempo real (económica) se parece al correlograma de una serie de tiempo de ruido blanco, podemos decir que dicha serie de tiempo es quizá estacionaria. La elección de la longitud del retardo al realizar un correlograma es básicamente de un asunto empírico, y una regla práctica es calcular la FAC hasta un tercio o una cuarta parte de la longitud de la serie de tiempo

4.2.

PASEO ALEATORIO

El paseo aleatorio o camino aleatorio (RW) es una formalización matemática de la trayectoria que resulta de realizar sucesivos pasos aleatorios (la ruta trazada por una molécula mientras viaja por un líquido o un gas, el camino que sigue un animal en su búsqueda de comida, ó el precio de una acción fluctuante ), el término fue introducido por Pearson en 1905 y los resultados de su análisis han sido aplicados a muchos campos como la computación, la física, la química, la ecología, la biología, la psicología o la economía. La teoría del paseo aleatorio en economía se debe a Burton G. Malkiel en su obra A Random Walk Down Wall Street, que viene a indicar que en un mercado eficiente, los precios del mercado siguen un camino aleatorio y por lo tanto, impredecible.

144

En su formulación matemática se entiende que

Yt es un paseo aleatorio si :

Yt − Yt −1 = u t Donde

(4.1)

u t es un término de error de ruido blanco, con media 0 y varianza σ 2 .

En el modelo de paseop aleatoria, es por tanto, es un proceso AR(1) cuyas características se estudian en el apartado 10,

Tomando en consideración (4.1), se tiene que:

Y1 = Y0 + u1 Y2 = Y1 + u 2 = Y0 + u1 + u 2 Y3 = Y2 + u 3 = Y0 + u1 + u 2 + u 3

En general: T

Yt = Y0 + ∑ u t t =1

(4.2)

Tomando esperanzas matemáticas en (4.2) , resulta que

 T  E (Yt ) = E (Y0 ) + E  ∑ u t  = Y0  t =1  y

E [Yt − E (Yt )]

2

2

 T  = E  ∑ u t  = Tσ 2  t =1 

Es decir la media de

Yt es igual a su valor inicial (constante), pero conforme se incrementa

T , su varianza aumenta de manera indefinida, lo que viola una de las condiciones de la estacionariedad. En resumen, un RW es un proceso estocástico no estacionario.

La expresión (4.1) puede escribirse:

Yt − Yt −1 = ∆Yt = ut

(4.3)

donde ∆ es el operador de primeras diferencias, que también analizamos en el apartado 3.3.1, de manera que tenemos que si bien Yt es no estacionaria, sí lo es la serie de sus primeras diferencias, ya que ut se definió como ruido blanco

145

Si se modifica (4.1) en el sentido siguiente:

Yt = δ + Yt −1 + u t Y donde δ se conoce como parámetro de deriva, en el sentido de que t se deriva o desvía hacia arriba o hacia abajo, según δ sea positiva o negativa.

Estamos ante otro proceso no estacionario ya que al tomar esperanzas resulta :

E (Yt ) = Y0 + Tδ y

E [Yt − E (Yt )] = Tσ 2 2

Pero sus primeras diferencias,

∆Yt = δ + u t , dan lugar a una serie estacionaria de media no

nula.

En definitiva en un RW con deriva, la media, al igual que la varianza, se incrementa con el tiempo, lo que viola de nuevo las condiciones de la estacionariedad, aunque al igual que el paseo aleatorio sin deriva, la serie de sus primeras diferencias sigue siendo estacionaria.

El modelo de RW no es más que un caso específico de una clase más general de procesos estocásticos conocidos como procesos integrados. El paseo aleatorio estudiado se llama proceso integrado de orden 1 y se denota como I(1). De manera similar, si una serie de tiempo tiene que diferenciarse dos veces (es decir, se toman primeras diferencias de la serie de primeras diferencias) para hacerla estacionaria, esa serie de tiempo se denomina integrada de orden 2. En general, si una serie de tiempo (no estacionaria) debe diferenciarse d veces para hacerla estacionaria, decimos que la serie es integrada de orden d. Una serie de tiempo Yt integrada de orden d se denota como I(d).

La mayoría de las series de tiempo económicas son I(1); es decir, por lo general se convierten en estacionarias sólo después de tomar sus primeras diferencias.

En Gujarati y Porter (2010), señalan las siguientes propiedades de las series de tiempo integradas.

146

Sea X t , Yt y Z t tres series de tiempo: 1. Si X t ~ I (0) y Yt ~ I (1) , Z t = (Yt + X t ) ~ I (1) ; es decir, una combinación lineal o suma de series de tiempo estacionaria y no estacionaria es no estacionaria. 2. Si X t ~ I (d ) , Z t = (a + bX t ) ~ I (d ) , donde a y b son constantes. Es decir, una combinación lineal de una serie I(d) es también I(d). 3. Si X t ~ I (d1) y Yt ~ I (d 2) , Z t = (aX t + bYt ) ~ I (d 2) donde d1 < d2. 4. Si X t ~ I (d ) y Yt ~ I (d ) , Z t = (aX t + bYt ) ~ I (d1) ; d1 es por lo general igual a d, pero en algunos casos d1 < d .

4.3.

PRUEBA DE RAÍZ UNITARIA

Partimos de un RW con la siguiente formulación:

Yt = φYt −1 + u t , − 1 < φ < 1

(4.4)

donde ut es un término de error de ruido blanco.

Este modelo es un modelo autorregresivo de primer orden similar al que se utiliza para explicar la autocorrelación (Contraste de Durbin-Watson). Si φ = 1 , se transforma en un RW sin deriva, y por tanto en una serie no estacionaria en varianza. La no estacionariedad de este tipo de modelos también se denomina problema de raíz unitaria. Sin embargo, si φ < 1 , se demuestra que la serie de tiempo Yt es estacionaria13.

13

En el apartado 3.4.2.1 en el que se estudia el AR(1) se considera que si el proceso es estacionario en

σ u2 1 y Var (Yt ) = y que la condición a cumplir para media y varianza, se verifica que E (Yt ) = 1−φ 1−φ 2 que la media y varianza sean positivas y finitas es que

φ <1

147

En la practica, la manera de averiguar si una serie de tiempo tiene una raíz unitaria, es a través de un test en el que la hipótesis que se contrasta es el valor unitario del coeficiente autorregresivo ( φ ) a través del análisis de la nulidad de (φ − 1) .

En definitiva se trata de transformar (4.4) restando Yt −1 :

Yt − Yt −1 = φYt −1 − Yt −1 + u t = (1 − φ )Yt −1 + u t que también se expresa como:

∆Yt = δYt −1 + ut

(4.5)

Por tanto, en vez de estimar (4.4), obtenemos (4.5) y probamos la hipótesis (nula) de que δ = 0, y la hipótesis alternativa es que δ < 0 (nota 25). Si δ = 0, entonces φ = 1 ; es decir, tenemos una raíz unitaria, lo cual significa que la serie de tiempo en consideración es no estacionaria.

τ= En este contraste de hipótesis el estadístico

δ σδ

no sigue la distribución t ni siquiera en

muestras grandes. Dickey y Fuller calcularon los valores críticos del estadístico τ con base en simulaciones Monte Carlo. Por este motivo, en el estadístico o prueba tau se conoce como prueba Dickey-Fuller (DF). La hipótesis nula, Ho: no estacionariedad, se acepta si τ toma un valor situado a la derecha del valor crítico correspondiente al nivel de significación establecido (los programas proporcionan los valores críticos, que son negativos, para niveles de significación del 1%, 5% y 10%, siendo el 5% el más utilizado en la práctica) y se rechaza si toma un valor menor que el valor crítico.

El modelo (4.5) puede incorporar un término constante y una tendencia, a través de un índice temporal t (t=1,2,…T):

∆Yt = β1 + β 2 t + δYt −1 + u t

148

De hecho en la mayor parte del software informático sobre el test se permite elegir las opciones de incorporar término constante sin tendencia, término constante y tendencia ó no incorporar ninguno de ambos términos.

El test ADF, denominado test “aumentado” de Dickey y Fuller, consiste también en contrastar la hipótesis de nulidad de pero en una relación “aumentada” con la inclusión de valores retardados de la variable dependiente

∆Yt :

m

∆Yt = β 1 + β 2 t + δYt −1 + ∑ α i ∆Yt − m +u t i =1

Siendo

∆Yt −1 = (Yt −1 − Yt − 2 ) , ∆Yt − 2 = (Yt − 2 − Yt −1 ) , etc…

Ejemplo 4.1

En la tabla Cantabria tenemos datos trimestrales del PIB de Cantabria en Índices de Volumen y de ocupación en miles de ocupados, para el period 2005-2014 procedentes de la Contabilidad Trimestral de Cantabria y de la EPA.

Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del PIB, para ello grabamos (install) y cargamos la librería “urca”.

En la tabla Cantabria tenemos datos trimestrales del PIB de Cantabria en Índices de Volumen y de ocupación en miles de ocupados, para el period 2005-2014 procedentes de la Contabilidad Trimestral de Cantabria y de la EPA. > cantabria <- read.table(file="cantabria.txt",header=T,dec=",") > str(cantabria) 'data.frame': 38 obs. of 4 variables: $ año : int 2005 2005 2005 2005 2006 2006 2006 2006 2007 2007 ... $ Trimestre: int 1 2 3 4 1 2 3 4 1 2 ... $ PIB : num 92.5 93.3 93.8 93.9 95.3 95.9 96.7 97.5 98.3 98.8 ... $ Ocupados : num 233 238 248 246 248 ...

Se trata de comprobar la estacionariedad de la serie del PIB > plot(ts(cantabria$PIB,frequency=4,start=2005))

149

Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del PIB, para ello grabamos (install) y cargamos la librería “urca”. > library(urca)

Para realizar el test, vale esta sentencia (si no se especifican los retardos el test se realiza con un retardo): > pib.df <- ur.df(y=cantabria$PIB, type='none') > summary(pib.df) ############################################### ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q -1.7575 -0.4745

Median 0.1939

3Q 0.5426

Max 1.3763

Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.0001002 0.0013083 -0.077 0.939 z.diff.lag 0.3311003 0.1606497 2.061 0.047 * --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.7518 on 34 degrees of freedom Multiple R-squared: 0.1112, Adjusted R-squared: 0.05888 F-statistic: 2.126 on 2 and 34 DF, p-value: 0.1349

150

Value of test-statistic is: -0.0766 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61

Se comprueba que la serie no es estacionaria, ya que el valor del estadístico (-0.0766), es inferior al valor crítico (-1.95), lo que quiere decir que se acepta la hipótesis nula de no estacionariedad. Repetimos el ejercicio, considerando tres retardos, deriva (drift) y tendencia (trend): > pib.df <- ur.df(y=cantabria$PIB, lags=3, type='drift') > summary(pib.df) ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression drift Call: lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag) Residuals: Min 1Q -1.32952 -0.41679

Median 0.05446

3Q 0.47788

Max 1.05791

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 9.65519 4.97144 1.942 0.06189 . z.lag.1 -0.10059 0.05183 -1.941 0.06208 . z.diff.lag1 0.28123 0.17392 1.617 0.11670 z.diff.lag2 0.55538 0.16358 3.395 0.00201 ** z.diff.lag3 -0.11551 0.18850 -0.613 0.54480 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6717 on 29 degrees of freedom Multiple R-squared: 0.3869, Adjusted R-squared: 0.3023 F-statistic: 4.575 on 4 and 29 DF, p-value: 0.005491 Value of test-statistic is: -1.9406 1.8868 Critical values for test statistics: 1pct 5pct 10pct tau2 -3.58 -2.93 -2.60 phi1 7.06 4.86 3.94 > pib.df <- ur.df(y=cantabria$PIB, lags=3, type='trend') > summary(pib.df) ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression trend Call: lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag) Residuals: Min 1Q -1.0315 -0.4394

Median 0.1123

3Q 0.3433

Max 1.1701

151

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 20.81894 5.96966 3.487 0.00163 ** z.lag.1 -0.20734 0.06002 -3.454 0.00178 ** tt -0.04575 0.01624 -2.818 0.00877 ** z.diff.lag1 0.19561 0.15915 1.229 0.22928 z.diff.lag2 0.44990 0.15163 2.967 0.00609 ** z.diff.lag3 -0.14243 0.16959 -0.840 0.40811 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6034 on 28 degrees of freedom Multiple R-squared: 0.5223, Adjusted R-squared: 0.437 F-statistic: 6.124 on 5 and 28 DF, p-value: 0.0005953 Value of test-statistic is: -3.4543 4.2059 6.3042 Critical values for test statistics: 1pct 5pct 10pct tau3 -4.15 -3.50 -3.18 phi2 7.02 5.13 4.31 phi3 9.31 6.73 5.61

La serie rechaza la hipótesis de estacionariedad en todos los casos.

Diferenciamos la serie, para ello utilizamos la función genérica de R “diff”: > dPIB <- diff(cantabria$PIB,differences=1) > plot(ts(dPIB,frequency=4,start=2005))

Realizamos el test ADF con la serie diferenciada: > dPIB.df <- ur.df(y=dPIB, type='none') > summary(dPIB.df)

152

############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q -1.65584 -0.43986

Median 0.06371

3Q 0.50584

Max 1.16911

Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.3896 0.1838 -2.120 0.0416 * z.diff.lag -0.4246 0.1573 -2.699 0.0109 * --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6897 on 33 degrees of freedom Multiple R-squared: 0.4574, Adjusted R-squared: 0.4245 F-statistic: 13.91 on 2 and 33 DF, p-value: 4.162e-05 Value of test-statistic is: -2.1197 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61

La serie diferenciada del PIB rechaza la hipótesis nula de no estacionariedad, valor del estadístico (-2.1197), está por encima del valor crítico (-1.95) incluso cuando incluimos deriva y tendencia.

4.4.

COINTEGRACIÓN

Se dice que dos o más series están cointegradas si las mismas se mueven conjuntamente a lo largo del tiempo y las diferencias entre ellas son estables (es decir estacionarias), aún cuando cada serie en particular contenga una tendencia estocástica14 y sea por lo tanto no

14 Una tendencia es determinista cuando:

Yt = a + bt + u t Si ahora se parte de un paseo aleatorio con deriva:

Yt − Yt −1 = ∆Yt = δ + u t Yt mostrará una tendencia positiva (δ > 1) o negativa (δ < 1) . Tal tendencia se llama tendencia

estocástica. El modelo:

Yt = a + bt + δYt −1 + u t c

ontiene tanto una tendencia estocástica como una tendencia determinista.

153

estacionaria. De aquí que la cointegración refleja la presencia de un equilibrio a largo plazo hacia el cual converge la relación entre ambas variables a lo largo del tiempo.

Sea X t , Yt dos series de tiempo I(1), Dado que las dos series comparten la misma tendencia común, la regresión de una sobre la otra no será necesariamente espuria:

Yt = aˆ + bˆX t + uˆ t

(4.6)

Se calcula uˆ t = Yt − aˆ + bˆX t y se verifica con la prueba de raíz unitaria que los residuos de la regresión son I(0) o estacionarios (ver apartado 3.2).

En este caso la metodología tradicional de regresión es aplicable a las series de tiempo (no estacionarias) y la regresión no es espúrea. En opinión de Granger: “Una prueba para la cointegración puede considerarse como una pre-prueba para evitar las situaciones de regresiones espurias”.

En el lenguaje de la teoría de la cointegración, una regresión como la planteada se conoce

ˆ como regresión cointegrante, y el parámetro de pendiente b como parámetro cointegrante. En definitiva probar la cointegración entre dos series I(1) es igual que probar la estacionariedad de los residuos. Para testar la cointegración sólo hay que estimar los residuos del modelo de regresión y pasar la prueba de DF o DFA a los residuos estimados

(uˆ t ) . Si se cumple Ho entonces

X t , Yt están cointegradas y bˆ es consistente.

Esta prueba de raíz unitaria DF o DFA sobre los residuos estimados a partir de la regresión cointegrante se conoce como Prueba de Engle-Granger (EG) o prueba de Engle-Granger Aumentada (EGA)

Sin embargo, debe tenerse en cuenta que uˆt se basa en el parámetro de cointegración estimado bˆ , y los valores críticos de la prueba DF y DFA no son del todo apropiados. Engle y Granger calcularon estos valores que se incluyen los principales software econométricos.

Ejemplo 4.2

154

Se realiza ahora el test de Dikey-Fuller (DF) para la serie de Ocupados que se representa a continuación: > plot(ts(cantabria$Ocupados,frequency=4,start=2005))

> dOcup <- diff(cantabria$Ocupados,differences=1) > Ocup.df <- ur.df(y=cantabria$Ocupados, type='none') > summary(Ocup.df) Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median -8.6618 -4.3752 -0.3451

3Q Max 4.9139 12.4019

Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.001476 0.003856 -0.383 0.704 z.diff.lag 0.108089 0.170337 0.635 0.530 Residual standard error: 5.676 on 34 degrees of freedom Multiple R-squared: 0.01658, Adjusted R-squared: -0.04127 F-statistic: 0.2866 on 2 and 34 DF, p-value: 0.7526 Value of test-statistic is: -0.3828 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61 > dOcup.df <- ur.df(y=dOcup, type='none') > summary(dOcup.df)

155

############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median -9.2258 -4.2283 -0.3936

3Q 2.9457

Max 7.6578

Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -1.3406 0.1951 -6.871 7.62e-08 *** z.diff.lag 0.4768 0.1494 3.191 0.0031 ** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 4.852 on 33 degrees of freedom Multiple R-squared: 0.6036, Adjusted R-squared: 0.5796 F-statistic: 25.13 on 2 and 33 DF, p-value: 2.338e-07 Value of test-statistic is: -6.8709 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61

La serie temporal de Ocupados en Cantabria es integrada de orden 1, I(1). En consecuencia la regresión MCO entre los Ocupados y el PIB de Cantabria, puede realizarse ya que ambas series tienen el mismo orden de integración.

El test de EG requiere realizar la regresión mínimo cuadrática entre ocupados y PIB y verificar que los residuos son I(0) es decir estacionarios. > eq <- lm(cantabria$Ocupados~cantabria$PIB) > dres.df <- ur.df(y=eq$resid, type='none') > summary(dres.df) ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q -9.9445 -2.2775

Median 0.0041

3Q 2.2536

Max 9.3488

156

Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.5039 0.1498 -3.363 0.00192 ** z.diff.lag 0.2797 0.1694 1.651 0.10786 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 4.077 on 34 degrees of freedom Multiple R-squared: 0.2497, Adjusted R-squared: 0.2056 F-statistic: 5.658 on 2 and 34 DF, p-value: 0.007567 Value of test-statistic is: -3.3634 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61

Se comprueba que los residuos son estacionarios.

4.5.

MECANISMO DE ERRORES(MCE)

CORRECCIÓN

DE

Si X t , Yt estan cointegradas, es decir, hay una relación de equilibrio de largo plazo entre las dos, dado que en el corto plazo, puede haber desequilibrio, se puede utilizar el término de error de la relación cointegrada para relacionar el comportamiento de corto plazo de Yt con su valor de largo plazo. El mecanismo de corrección de errores utilizado por primera vez por Sargan y popularizado más tarde por Engle y Granger, corrige dicho desequilibrio.

Partimos del siguiente modelo:

∆Yt = βˆo + βˆ1 ∆X t + βˆ2 uˆ t −1 + ε t donde

(4.7)

ε t es un término de error de ruido blanco y uˆ t −1 es el valor del término de error de la

ecuación cointegrada (4.6) retrasada un periodo.

El modelo relaciona el cambio de Yt con el cambio de X t y el “error equilibrador” en el período anterior. ∆Yt , recoge las perturbaciones de corto plazo de X t e uˆ t −1 recoge el ajuste hacia el equilibrio de largo plazo.

157

Ejercicio 4.3

Planteamos el siguiente modelo de corrección de error:

∆GC = β o + β1 ∆PIB + β 2 uˆ t −1 + ε t En donde uˆ t −1 son los residuos del MCO realizado en el Ejercicio 4.2. > res_1 <- diff(eq$resid,lag=1) > eq2 <- lm(dOcup~dPIB+res_1) > summary(eq2) Call: lm(formula = dOcup ~ dPIB + res_1) Residuals: Min 1Q -3.373e-14 -6.780e-16

Median 1.113e-15

3Q 2.549e-15

Max 4.810e-15

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -1.214e-15 1.036e-15 -1.172e+00 0.249 dPIB 5.047e+00 1.346e-15 3.750e+15 <2e-16 *** res_1 1.000e+00 2.316e-16 4.318e+15 <2e-16 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 6.288e-15 on 34 degrees of freedom Multiple R-squared: 1, Adjusted R-squared: 1 F-statistic: 1.441e+31 on 2 and 34 DF, p-value: < 2.2e-16

4.6.

PROBLEMAS

4.1. Genere con R dos paseos aleatorios (RW) utilizando el siguiente código R: rw <- function(n){ x=numeric(n) xdir=c(TRUE, FALSE) step=c(1,-1) for (i in 2:n) if (sample(xdir,1)) { x[i]=x[i-1]+sample(step,1) } else { x[i]=x[i-1] } list(x=x) }

158

donde rw(n) sería un paseo aleatorio de “n” datos, diferencie las series obtenidas y realice la regresión de una sobre otra, calcula el coeficiente de determinación y el estadístico de Durbin-Watson.. Analice los resultados obtenidos.

4.2. Genere con R un nuevo RW y obtenga el estadístico DFA. Diferencie la serie y repita el proceso. Analice los resultados obtenidos.

4.3. Considere la siguiente regresión :

∆X t = 2 − 0.8 X t −1 + et Siendo el error estandar de la constante , 0.5, y el de la pendiente, 0.3, tomando como valor critico en las en las tablas del estadístico DFA a 5% τ = −2.95 y a 10% τ = −2.60 , responda: a) La serie X t es ¿estacionaria?. b) Con el 10 % de significación cabe afirmar que el orden de integración de la serie es I(1).

4.4. La serie del PIB de un pais es I(2) y la del empleo I(1): a) Plantee una relación de regresión entre el PIB y el Empleo b) Indique que orden de integración espera que hayan de tener los residuos obtenidos.

4.5. En la librería “forecast” de R, se encuentra una base de datos en formato de serie temporal, “gas”, que recoge la producción australiana de gas durante mes a mes durante los años de 1956 a 1996. Estudie la estacionariedad de la serie en R a través del estadistico de Dikey-Fuller.

SOLUCIONES: 4.1 A realizar por el alumno 4.2 A realizar por el alumno 4.3 a) No estacionaria al 5% y estacionaria al 10%. b) Falso. 4.4

a) ∆PIBt = a + bEmpleot + u t b) Los residuos serán I(0)

159

4.5 A realizar por el alumno

160

5.

MODELOS VAR

5.1.

INTRODUCCIÓN

El enfoque estructural aplicado a los modelos de series temporales (modelos de ecuaciones sumultaneas) utiliza conceptos de teoría económica para representar relaciones entre distintas variables. Sin embargo, a veces la teoría económica no es capaz de ofrecer una especificación dinámica que identifique todas estas relaciones. Ello obliga al investigador a especificar a priori, y en muchas ocasiones de forma subjetiva, cuál o cuáles deben ser las variables exógenas del modelo y en qué ecuaciones deben aparecer, lo que puede afectar a los resultados de la identificación del modelo y conducir a estimaciones y relaciones entre variables incorrectas.

Por ello, en 1980, Sims realiza una fuerte crítica hacia la especificación de modelos estructurales de ecuaciones simultáneas, proponiendo, frente a la arbitrariedad que supone la especificación de los modelos estructurales, una nueva metodología: la metodología VAR (Vectores Autorregresivos), en la que no se impone una decisión acerca de qué variables deben ser tratadas como exógenas. Según Sims, si existe verdadera simultaneidad entre un conjunto de variables, todas deben ser tratadas del mismo modo; en este sentido, la metodología VAR rompe con el principio de causalidad, al no existir una distinción previa a la estimación entre variables exógenas y endógenas.

La metodología VAR se ha utilizado principalmente en el campo de los modelos macroeconómicos, en el que los modelos estructurales de múltiples ecuaciones desarrollados en los años 50 y 60 no resultaban todo lo satisfactorios que los investigadores deseaban. La superior capacidad predictiva de los modelos basados en la metodología de Sims frente a estos modelos, muchos de ellos compuestos por cientos de ecuaciones lo que suponía un enorme coste computacional, parecía indicar que existía un problema en la metodología de los modelos de ecuaciones simultáneas.

El punto álgido en el declive de los modelos de ecuaciones simultáneas se alcanzó en los años 70 con las elevadas tasas de inflación y desempleo registradas en ese periodo y que no pudieron ser previstas mediante los modelos de tipo keynesiano. En ese momento comenzaron a aparecer las primeras críticas contra el enfoque de los modelos estructurales con múltiples ecuaciones. La primera de ellas la realizó Lucas en 1976, argumentando que los parámetros de las reglas de

161

decisión incorporadas en los modelos de ecuaciones estructurales no permanecen estables a lo largo del tiempo cuando las reglas de política económica varían. Este ataque a los modelos estructurales condujo a los investigadores a utilizar sistemas de ecuaciones menos estructurados para realizar previsiones de las variables macroeconómicas y delinear los efectos de los cambios en la política monetaria y de shocks externos sobre la economía, como son los modelos VAR que pasamos a ver seguidamente.

5.2.

MODELOS VAR

5.2.1. Definición Un modelo de Vectores Autorregresivos (VAR) se define como una descripción estadística de las interrelaciones existentes entre un conjunto de diferentes variables en la que no se hace uso de ninguna teoría económica previa acerca de cómo se espera que dichas variables se relacionen entre sí. Por tanto, los modelos VAR no pueden ser utilizados para validar ninguna teoría, no pudiendo tampoco utilizarse para interpretar los datos en términos de principios económicos generales.

El uso de modelos VAR queda así restringido básicamente a dos campos que serán analizados en detalle más adelante: por un lado, a la predicción de los valores futuros de un conjunto de variables que aparecen interrelacionadas en el sistema; y por otro, al análisis del efecto a lo largo del tiempo, sobre cada una de las variables del sistema, de perturbaciones aleatorias o shocks producidos en el tiempo.

El enfoque VAR elimina por tanto la necesidad de especificar un modelo estructural mediante la representación de cada variable endógena del sistema como una función de sus propios valores retardados así como de los retardos de todas las variables endógenas presentes en el sistema.

La representación genérica de un VAR de orden p es la siguiente: y1t = µ1 + φ11,1 y1t −1 + φ11,2 y1t −2 + ... + φ11, p y1t − p + ... + φ1k ,1 y kt −1 + φ1k ,2 y kt −2 + ... + φ1k , p y kt − p + ε 1t y 2t = µ 2 + φ21,1 y1t −1 + φ21,2 y1t −2 + ... + φ21, p y1t − p + ... + φ2k ,1 y kt −1 + φ2k ,2 y kt −2 + ... + φ2k , p y kt − p + ε 2t ... y kt = µ k + φk1,1 y1t −1 + φk1,2 y1t −2 + ... + φk1, p y1t − p + ... + φkk ,1 y kt −1 + φkk ,2 y kt −2 + ... + φkk , p y kt − p + ε kt

162

(5.1)

Donde: φij, p es el parámetro a estimar, en el que i es el número de ecuación en el que aparece, j

es el número de variable al que está asociado y p representa el retardo de la variable a la que está asociado el parámetro. El valor máximo de p es lo que se denomina orden del VAR, el cual también puede ser estimado como veremos más adelante.

yit–p son las variables incluidas en el modelo, donde i y p poseen el mismo significado

que acabamos de señalar. ε kt es el término de error o perturbación de la ecuación k, el cual posee media cero y

matriz de varianzas y covarianzas triangular de la forma:

 σ 12   Σ = E [ε kt ·ε ' kt ) =    

0

σ 22

0   0 0   O 0  σ k2  0

El sistema (5.1) se expresa de forma matricial : y t = µ + Φ 1 y t −1 + Φ 2 y t −2 + ... + Φ p y t − p + ε t

(5.2)

donde yt es un vector compuesto por las variables sin retardar, µ es un vector de términos constantes, φi son matrices de coeficientes asociados a las variables retardadas i periodos y εt es un vector de ruidos que pueden estar correlacionados contemporáneamente pero que están incorrelacionados con sus retardos y con todas las variables que aparecen a la derecha de la igualdad.

163

Las matrices yt, µ y εt son vectores de orden k×1, mientras que Φ i es una matriz de orden k×k tal que:

 φ11,i  y1t   µ1       φ  y 2t   µ2  yt =  ; µ =   ; Φ i =  21,i ... ...  ...      y  µ  φ  kt   k  k1,i

φ12,i φ22,i ...

φk 2,i

φ1k ,i   ... φ 2 k ,i  ...

; y t −i ...   .... φkk ,i  ...

 y1t −i   ε 1t      ε  y 2 t −i  = ; ε t =  2t  ...  ...     y  ε   kt   kt −i 

Por tanto, a la hora de estimar los parámetros de un modelo VAR deberemos estimar k parámetros constantes, más p×k×k parámetros correspondientes a las variables explicativas del modelo.

En los modelos VAR también cabe la posibilidad de que aparezcan variables explicativas, que denotaremos por xt, que no sean retardos de las variables dependientes de tal forma que la expresión (5.2) pasaría a ser: y t = µ + Φ 1 y t −1 + Φ 2 y t −2 + ... + Φ p y t − p + βx t + ε t

Siendo:  β11,i   β 21,i β = ...  β  k 1,i

β12,i β 22,i ...

β k 2,i

... ...

β1k ,i   β 2 k ,i 

; x t = (x1t ...   .... β kk ,i  ...

x 2t

... x kt )

Donde β es una matriz de orden k×k y xt es un vector fila de orden 1× k.

Veamos a continuación un ejemplo concreto de aplicación de un modelo VAR; supongamos que la renta, Y, y la oferta de dinero, M, vienen determinados conjuntamente por un modelo VAR con término constante. Si imponemos que el orden de retardos máximo de los regresores es 2, tendríamos que:

164

Yt = µ1 + φ11,1Yt −1 + φ11,2Yt −2 + φ12,1 M t −1 + φ12,2 M t −2 + ε 1t M t = µ 2 + φ21,1Yt −1 + φ21,2Yt −2 + φ22,1 M t −1 + φ22,2 M t −2 + ε 2t

donde φij, p son los parámetros a estimar.

Otra forma de expresar un modelo VAR es mediante la notación en retardos que veíamos en el capítulo 3. Así, el modelo de la expresión 5.2. puede escribirse como: ( I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p ) y t = µ + ε t Φ ( B )· y t = µ + ε t

(5.3)

Dicho modelo VAR será estacionario si y solo si se verifica que los autovalores del polinomio de retardos caen fuera del círculo unidad:

I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p = 0, ∀B > 1

(5.4)

Si el modelo VAR verifica la condición de estacionariedad, entonces es posible escribir el modelo autorregresivo como un Vector de Medias Móviles (VMA) de orden infinito tal que: y t = µ + ε t + Ψ1ε t −1 + Ψ2 ε t −2 + ... = µ + Ψ ( B )·ε t , Ψ ( B ) = I + Ψ1 B + Ψ2 B 2 + ...

Esta representación del modelo (10.2.) será clave para comprender la función de respuesta al impulso que veremos más adelante. El cálculo de los parámetros Ψ puede realizarse a partir de la siguiente expresión: Ψ ( B ) = [Φ ( B )]−1

Lo que exige que se verifique: ( I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p )( I + Ψ1 B + Ψ2 B 2 + ...) = I

El desarrollo de esta expresión permite obtener las ecuaciones que relacionan los parámetros Φ y Ψ del modelo tal que:

165

Ψ1 = Φ 1 Ψ2 = Φ 1 Ψ1 + Φ 2 LLLLLLLL Ψs = Φ 1Ψs −1 + Φ 2 Ψs −2 + ... + Φ p Ψs − p ,

∀s = 1, 2, ...

Siendo Ψ0 = I y Ψs = 0, ∀s < 0 . Si el modelo no verificara la condición (5.4) será necesario proceder como en el caso de los modelos univariantes, tomando las diferencias suficientes sobre las variables para hacerlas estacionarias.

5.2.2. Estimación Dado que los valores retardados de las variables sólo aparecen como regresores y no como variables dependientes, no existen problemas de simultaneidad en el modelo por lo que las estimaciones obtenidas para los coeficientes aplicando Mínimos Cuadrados Ordinarios a cada ecuación serán consistentes; asimismo, la matriz de varianzas y covarianzas de las perturbaciones puede ser estimada utilizando el sumatorio de cuadrados y productos cruzados de los residuos mínimo-cuadráticos. Si además las perturbaciones se ajustan a una distribución Normal, entonces los estimadores obtenidos coincidirán con los obtenidos por el método de Máxima Verosimilitud.

Sin embargo, previamente a la estimación del modelo, debemos decidir el número óptimo de retardos, p, esto es, el orden del VAR. Antes de presentar el procedimiento para calcular p cabe tener en cuenta la siguiente advertencia: la inclusión de muchos retardos en el modelo reduce en gran medida el número de observaciones disponibles, disminuye el número de grados de libertad a la hora de realizar contrastes y aumenta el riesgo de aparición de multicolinealidad; por su parte, la inclusión de pocos retardos en el modelo provocará seguramente errores de especificación.

Una forma de decidir sobre el orden del modelo es examinar los criterios información. Los más utilizados en este tipo de modelos son los de Akaike (AIC) , Schwarz (SIC ó SC) y el de Hannan-Quin (HQ):

AIC = − SC = −

2l n +2 T T

2l ln(nT ) +2 T T

166

HQ = −

2l k ln(ln(T )) +2 T T

Siendo l i = −

Tk Tk T ˆ log(2π ) − + ln Σ , d es el número de variables exógenas, p el orden 2 2 2

del VAR, k el número de variables y n = k (d + pk ) el número deparámetros estimados en el modelo VAR y Σˆ el determinante de la matriz de varianzas y covarianzas asociada con el

(

ˆ = T −1 modelo VAR ∑



T t −1

)

uˆ t uˆ t' .

No obstante, existe un contraste más formal para seleccionar el orden del VAR basado en el contraste de razón de verosimilitudes. Supongamos que estimamos un VAR de orden p1 y queremos contrastar la hipótesis nula de que el orden del VAR es p0, siendo p1 > p0. Es decir, se trata de contrastar H0: VAR(p0) frente a H1: VAR(p1). El procedimiento para realizar el contraste es el siguiente: −

Se estima el modelo VAR bajo cada uno de los supuestos de las hipótesis a contrastar.



Calculamos el siguiente estadístico de razón de verosimilitudes:

[

]

λMV = 2(l 1 − l 0 ) = (T − k ) ln ∑ˆ ( p o ) − ln ∑ˆ ( p1 ) ~ χ q2 Siendo l i = −

Tk Tk T ˆ log(2π ) − + ln Σ( p i ) el máximo del logaritmo de la función 2 2 2

de verosimilitud del VAR, donde k es y Σˆ ( pi ) es el determinante de la matriz de varianzas y covarianzas asociada con el modelo VAR de orden pi. El estadístico λMV sigue una distribución χ 2 con q grados de libertad, siendo q el número de restricciones impuestas en la hipótesis nula. Por ejemplo, si en un VAR con dos variables pretendemos contrastar la presencia de tres retardos frente a cinco retardos, estaremos excluyendo cuatro variables en cada una de las ecuaciones del VAR, si suponemos que la hipótesis nula es cierta, en relación al número de variables que se considera bajo la hipótesis alternativa por lo que q será igual a 4 · 2 = 8, y en general, q = k2(p1 – p0).

El contraste de razón de verosimilitudes que acabamos de presentar permite la realización de pruebas secuenciales que permiten determinar el orden del VAR con bastante exactitud. El

167

investigador puede así, comenzar especificando un orden elevado para el modelo, por ejemplo p1 = 15, e ir realizando contrastes sucesivos en los que se van reduciendo progresivamente los

órdenes comparados hasta que el valor del estadístico supere por primera vez al valor en tablas de la distribución χ 2 , momento en el que se rechazará la hipótesis nula del contraste y habremos determinado el orden del VAR, que será el último valor asignado a p1.

5.2.3. Predicción y Función de Respuesta al Impulso Como comentábamos al principio del capítulo, la utilización de modelos VAR se dirige fundamentalmente a la realización de predicciones, especialmente a corto plazo, así como al análisis del efecto a lo largo del tiempo, sobre cada una de las variables del sistema, de un shock inesperado. Pasamos a continuación a examinar estos dos puntos en detalle.

Por un lado, la realización de predicciones es análoga a la que veíamos en el capítulo 3. Así, supongamos el caso de un VAR(1) mediante el que pretendemos realizar predicciones uno o varios periodos hacia delante. Así, la predicción óptima para yt+1 será la esperanza condicional de yt+1 en el periodo t tal que: yˆ t +1 = E ( y t +1 | y t , y t −1 ,..., y1 ) = Φ· y

(5.5)

Donde para simplificar hemos suprimido el término constante del modelo. Si deseáramos obtener la predicción óptima para yt+2 bastaría con aplicar de forma recursiva el resultado obtenido en (5.5) tal que: yˆ t + 2 = E ( y t + 2 | y t +1 , y t ,..., y1 ) = Φ (Φ y ) = Φ 2 y

Generalizando el resultado anterior tenemos que: yˆ t + s = Φ s y

168

Con vector de errores de predicción para s periodos hacia delante: e s = y t + s − yˆ t + s = ε t + s + Φε t + s −1 + ... + Φ s −1ε t +1

De manera análoga podríamos obtener expresiones para modelos VAR de orden superior y sustituyendo las expresiones que aparecen por sus valores estimados.

En la práctica, la obtención de predicciones en un modelo VAR resulta tan sencilla como sustituir en el modelo los valores muestrales contemporáneos y retardados de que dispongamos y obtengamos el valor de las variables en el periodo siguiente.

Por su parte, la obtención de funciones de respuesta al impulso permite conocer el efecto que tendrá a lo largo del tiempo un shock inesperado sobre las variables del sistema. Recordemos que si el modelo VAR es estacionario entonces es posible expresarlo como un VMA de orden infinito tal que: y t = µ + Ψ ( B )·ε t = µ + ε t + Ψ1ε t −1 + Ψ2 ε t −2 + ...

Si reescribimos el modelo considerando como último periodo t+s tenemos que: y t + s = µ + ε t + s + Ψ1ε t + s −1 + Ψ2 ε t + s −2 + ... + Ψs ε t + Ψs +1ε t −1 + ...

(5.6)

Cada elemento ij de la matriz Ψs de la expresión (5.6) puede interpretarse como el efecto que tendría un aumento de una unidad en la innovación j sobre el valor de la variable i en el momento t+s, manteniendo el resto de innovaciones constantes en todos los periodos, tal que: ∂y t + s ∂ε t

= Ψs

Es decir, si se produce una variación de δ unidades en alguna de las innovaciones del modelo tendremos que:

169

∂y t + s ∂ε t

= Ψs δ

A la representación gráfica del efecto que produce sobre las variables del modelo una variación en una de las perturbaciones se la conoce como función de respuesta al impulso.

Para calcular la función de respuesta al impulso, suponiendo que especificamos el siguiente modelo VAR de orden 1 en desviaciones respecto a la media: y1t = φ11,1 y1t −1 + φ12,1 y 2t −1 + ε 1t y 2t = φ21,1 y1t −1 + φ22,1 y 2t −1 + ε 2t

Y donde la estimación que se ha obtenido para los parámetros del modelo es:  y1t   0.4 0.1  y1t −1   ε1t    =   +   ·  y 2t   0.2 0.5  y 2t −1   ε 2t 

Supongamos que se produce un shock inesperado en la perturbación asociada a y2t, aumentando en una unidad; en el instante en que se produce dicho shock no afecta por el momento a y1t. Pero en el siguiente periodo, el shock que se produjo en el momento t afectará tanto a y1t+1 como a y2t+1 a través del efecto que se ha producido en y2t. Así, en el momento en que se produce un

efecto inesperado en alguna de las variables se produce una reacción en cadena a lo largo del tiempo en todas las variables del VAR.

La transmisión del shock a lo largo del tiempo se producirá de la siguiente manera:

170

 y10   0   =   y20   1   y11   0.4  y  =  0.2  21    y12   0.4  =  y22   0.2

0.1   0   0.10  · = 0.5   1   0.50  0.1   y11   0.4 0.1   0.10   0.09  · = · = 0.5   y21   0.2 0.5   0.50   0.27   y13   0.4 0.1   y12   0.4 0.1   0.09   0.06   = · y  =  0.2 0.5 · 0.27  =  0.15  y 0.2 0.5       23  22      y14   0.4 0.1   y13   0.4 0.1   0.06   0.04   = ·  =  · =   y24   0.2 0.5   y23   0.2 0.5   0.15   0.09   y15   0.4 0.1   y14   0.4 0.1   0.04   0.03   = ·  =  · =   y25   0.2 0.5   y24   0.2 0.5   0.09   0.05 

Los resultados obtenidos se resumen en la siguiente tabla:

Periodo

y1

y2

0

0

1

1

0.10

0.50

2

0.09

0.27

3

0.06

0.15

4

0.04

0.09

5

0.03

0.05

Finalmente, representamos gráficamente la función de respuesta al impulso:

171

Función de Respuesta al Impulso 1.2 1 0.8 y1 y2

0.6 0.4 0.2 0 0

1

2

3

4

5

Periodo

Figura 5.1.Función respuesta al impulso .

Sin embargo, en la práctica normalmente no se producen shocks de forma aislada en una sola variable sino que dichos shocks suelen producirse de forma simultánea (por ejemplo, no tendría sentido pensar que se produce un shock en el consumo y simultáneamente no se produce un shock en la renta). En este caso la obtención de la función de respuesta al impulso resulta poco

menos que imposible por lo que se suele adoptar como solución la transformación de los términos de error del modelo en un nuevo conjunto de errores ortogonales, los cuales no están correlacionados entre sí y poseen varianzas unitarias.

Retomando la expresión del VAR como un VMA de orden infinito tenemos que:

yt = µ +



∑Ψ ε

i t −i ,

Ψ0 = I

i =0

Sea Σ la matriz de varianzas y covarianzas del término de error del modelo; y sea P una matriz no singular tal que PΣP' = I . Multiplicando el sumatorio de la expresión 10.22 por P −1 P queda que:

yt = µ +



∑Ψ P

−1

i

i =0

Si llamamos M i = Ψi P −1 y wi = Pε t −i tenemos que:

172

Pε t −i

yt = µ +



∑M w i

i

i =0

Calculando la esperanza matemática del nuevo término de error, wi, se tiene que:

(

) (

)

( )

E wt wt' = E Pε t ε t' P ' = PE ε t ε t' P' = PΣP' = I

Lo que implica que los componentes del término de error transformado, wt, no están correlacionados y que poseen varianza unitaria.

El resultado anterior implica que la función de respuesta al impulso pasa a ser ahora: ∂y t + s ∂wt

= M s = Ψs P −1

Sin embargo, la solución al problema que aparece cuando pretendemos calcular la función de respuesta al impulso con más de shock simultáneo en las perturbaciones presenta consecuencias indeseables puesto que no existe una matriz P única. Ello provoca que los resultados numéricos obtenidos no sean interpretables económicamente, debiéndonos limitar a darles una interpretación de tipo cualitativo.

5.3.

VAR ESTRUCTURAL

Hasta el momento hemos considerado a los modelos VAR como un modelo completamente ateórico y sin restricciones. Sin embargo, los modelos VAR pueden ser entendidos como la expresión de un modelo económico estructural en forma reducida, lo que permite reconciliar la utilización de modelos VAR con el enfoque de modelos estructurales (modelos de ecuaciones simultáneas). La utilización de los modelos VAR en estos casos sí posee fundamento teórico pues el investigador comienza elaborando un modelo basado en la teoría económica, a partir del cual obtendrá su forma reducida, que tendrá la forma de un VAR.

Sin embargo, ¿es posible recuperar los parámetros de la forma estructural del modelo a partir de la forma reducida? El siguiente ejemplo responde a esta cuestión: supongamos que el investigador especifica y estima el siguiente modelo estructural de orden 1:

173

y1t = µ1 − γ 12 y 2t + φ11,1 y1t −1 + φ12,1 y 2t −1 + ε 1t y 2t = µ 2 − γ 21 y1t + φ21,1 y1t −1 + φ22,1 y 2t −1 + ε 2t

(5.7)

Que consta de 10 parámetros (8 coeficientes más 2 varianzas de los términos de error) que debemos estimar.

Dado que un modelo VAR es una función de los valores retardados de las variables que lo componen exclusivamente. Si reordenamos el modelo (5.7) y lo expresamos en forma matricial tenemos que:  1 γ 12  y1t   µ1   φ11,1 φ12,1   y1t −1   ε 1t  ·    =   +   +     γ 21 1  y 2t   µ 2   φ21,1 φ22,1   y 2 t −1   ε 2t 

(5.8) Γy t = µ + Φy t −1 + ε t

Premultiplicando (5.8) por Γ −1 podemos obtener la expresión de la forma reducida del modelo VAR tal que: y t = Γ −1 µ + Γ −1Φy t −1 + Γ −1ε t = µ * + Φ * y t −1 + ε t*

(5.9)

El modelo (5.9) es la forma reducida del modelo estructural que especificamos en (5.7) y que puede ser estimado aplicando MCO a cada ecuación del modelo. Sin embargo, la estimación de los parámetros del modelo (5.9) no nos va a permitir recuperar el valor de los parámetros del modelo estructural, ya que ahora sólo disponemos de 9 parámetros (coeficientes+varianzas y covarianza de los errores); es decir, la forma reducida de un modelo VAR estructural siempre está subidentificada

Sin embargo, si imponemos alguna restricción en los parámetros del VAR estructural, la forma reducida pasará a estar exactamente identificada. Así, si en el modelo (5.7) hacemos γ 21 = 0 queda que:

174

 1 γ 12  y1t   µ1   φ11,1 φ12,1   y1t −1   ε 1t  ·    =   +   +     0 1  y 2 t   µ 2   φ21,1 φ22,1   y 2t −1   ε 2t 

 1 γ 12   tenemos que: 1 

Premultiplicando el modelo estructural por la inversa de la matriz  0

 y1t   1 γ 12    =    y 2t   0 1 

−1

 µ1   1 γ 12    +    µ2   0 1 

−1

 φ11,1 φ12,1   y1t −1   1 γ 12   ·  +   φ   21,1 φ 22,1   y 2t −1   0 1 

−1

 ε 1t     ε 2t 

 y1t   µ1 *   φ1* φ2*   y1t −1   ε 1t *  ·   =   +  *  +   *   y 2t   µ 2 *  φ3 φ4   y 2 t −1   ε 2t *

A partir de la expresión anterior ahora sí es posible recuperar los parámetros del modelo estructural tal que:

γ 12 = −

µ1 = µ1 * −

µ1 * = µ1 − γ 12 µ 2 µ2 * = µ2 φ2* = φ21,1 = φ12,1 − γ 12φ22,1

φ4*

= φ22,1

2 2 Var (ε 1t *) = σ ε21t + γ 12 σ ε 2t

Var (ε 2t *) = σ ε22 t Cov(ε 1t *, ε 2t *) = −γ 12σ ε22 t

Cov(ε 1t *, ε 2t *) µ2 * Var (ε 2t *)

µ2 = µ2 *

φ1* = φ11,1 − γ 12φ21,1 φ3*

Cov (ε 1t *, ε 2t *) Var (ε 2t *)



φ11,1 = φ1* −

Cov (ε 1t *, ε 2t *) * φ2 Var (ε 2t *)

φ12,1 = φ3* −

Cov(ε 1t *, ε 2t *) * φ4 Var (ε 2t *)

φ21,1 = φ2* φ22,1 = φ4* 2

σ ε 1t 2

 Cov (ε 1t *, ε 2t *)   Var (ε 2t *) = Var (ε 1t *) −   Var (ε 2 t *) 

σ ε22 t = Var(ε 2t *) σ ε22 t = Cov (ε 1t *, ε 2 t *)·

175

Var (ε 2 t *) = Var (ε 2t *) Cov (ε 1t *, ε 2t *)

5.4.

EJEMPLO DE ESTIMACION DE UN MODELO VAR CON R.

Se va a estimar un modelo VAR con datos relativos al mercado de trabajo de Canadá, tomado de Breitung, Bruggemann, and Lutkepohl (2004). Se utilizan las siguientes series: productividad del trabajo, definida como la diferencia entre el logaritmo del PIB y el logaritmo del empleo; empleo, medido en logaritmo, tasas de desempleo; y salarios reales definido como el logaritmos del índice de evolución de los salarios reales. En la base de datos se denominan, “prod”, “e”, “U” y “rw”, respectivamente. Los datos procede de la base de datos de la OCDE y cubren el periodo comprendido entre el primer trimestre de 1980 y cuarto trimestre de 2004 (Pfaff, 2008). P realizar el ejercicio hay que cargar el “package” o la librería R : “vars”. > library("vars") > data("Canada") > summary(Canada) e Min. :928.6 1st Qu.:935.4 Median :946.0 Mean :944.3 3rd Qu.:950.0 Max. :961.8 U Min. : 6.700 1st Qu.: 7.782 Median : 9.450 Mean : 9.321 3rd Qu.:10.607 Max. :12.770

prod Min. :401.3 1st Qu.:404.8 Median :406.5 Mean :407.8 3rd Qu.:410.7 Max. :418.0

rw Min. :386.1 1st Qu.:423.9 Median :444.4 Mean :440.8 3rd Qu.:461.1 Max. :470.0

La representación gráfica de las series realizada en R: > plot(Canada, nc = 2, xlab = "")

176

Figura 5.2. Productividad, empleo, desempleo y salarios reales en Canada.

En primer lugar se realizó el test ADF a las series para conocer su orden de integración. > adf1 <- summary(ur.df(Canada[, "prod"], type = "trend", lags = 2)) > adf1 ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression trend Call: lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag) Residuals: Min 1Q -2.19924 -0.38994

Median 0.04294

3Q 0.41914

Max 1.71660

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 30.415228 15.309403 1.987 0.0506 . z.lag.1 -0.075791 0.038134 -1.988 0.0505 . tt 0.013896 0.006422 2.164 0.0336 * z.diff.lag1 0.284866 0.114359 2.491 0.0149 * z.diff.lag2 0.080019 0.116090 0.689 0.4927 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6851 on 76 degrees of freedom Multiple R-squared: 0.1354, Adjusted R-squared: 0.08993 F-statistic: 2.976 on 4 and 76 DF, p-value: 0.02438 Value of test-statistic is: -1.9875 2.3 2.3817

177

Critical values for test statistics: 1pct 5pct 10pct tau3 -4.04 -3.45 -3.15 phi2 6.50 4.88 4.16 phi3 8.73 6.49 5.47 > adf2 <- summary(ur.df(diff(Canada[, "prod"]), type = "drift",lags = 1)) > adf2 ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression drift Call: lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag) Residuals: Min 1Q -2.05124 -0.39530

Median 0.07819

3Q 0.41109

Max 1.75129

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 0.11534 0.08029 1.437 0.155 z.lag.1 -0.68893 0.13350 -5.160 1.83e-06 *** z.diff.lag -0.04274 0.11275 -0.379 0.706 --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6971 on 78 degrees of freedom Multiple R-squared: 0.3615, Adjusted R-squared: 0.3451 F-statistic: 22.08 on 2 and 78 DF, p-value: 2.526e-08 Value of test-statistic is: -5.1604 13.3184 Critical values for test statistics: 1pct 5pct 10pct tau2 -3.51 -2.89 -2.58 phi1 6.70 4.71 3.86

Los resultados obtenidos figuran en la Tabla siguente:

Tabla 5.1.- Resultados del test ADF (Package Vars).

178

Se observa que son I(1) las primeras diferencias de “prod”, “e”, “rw” y la serie original “U”.

A continuación con la función “VARselect” buscan el modelo VAR óptimo partiendo de un número máximo de 8 desfases. La función utiliza los criterios de información AIC, HQ, SC y FPE15.. > VARselect(Canada, lag.max = 8, type = "both") $selection AIC(n) HQ(n) 3 2

SC(n) FPE(n) 1 3

$criteria 1 2 3 AIC(n) -6.272579064 -6.636669705 -6.771176872 HQ(n) -5.978429449 -6.146420347 -6.084827770 SC(n) -5.536558009 -5.409967947 -5.053794411 FPE(n) 0.001889842 0.001319462 0.001166019 5 6 7 AIC(n) -6.398132246 -6.307704843 -6.070727259 HQ(n) -5.319583658 -5.033056512 -4.599979185 SC(n) -3.699388378 -3.118280272 -2.390621985 FPE(n) 0.001782055 0.002044202 0.002768551

4 -6.634609210 -5.752160366 -4.426546046 0.001363175 8 -6.06159685 -4.39474903 -1.89081087 0.00306012

De acuerdo con el AIC y FPE el numero optimo de retardos es 3, el criterio HQ sería 2 y según el SC sería 1. La estimación en R de un VAR con p = 1 , se realiza con la siguente sentencia: > Canada <- Canada[, c("prod", "e", "U", "rw")] > p1ct <- VAR(Canada, p = 1, type = "both") > p1ct VAR Estimation Results: ======================= Estimated coefficients for equation prod: ========================================= Call: prod = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 0.96313671 trend 0.04613085

e.l1 0.01291155

U.l1 rw.l1 const 0.21108918 -0.03909399 16.24340747

Estimated coefficients for equation e: ====================================== Call: e = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 0.19465028 const -278.76121138

e.l1 1.23892283 trend -0.04066045

U.l1 0.62301475

rw.l1 -0.06776277

15

K

 T + n*  ˆ  ∑ FPE (n) =≤ ft  *  T − n   T −1 ' * ˆ Siendo ∑ = T ∑ uˆ t uˆ t , n el número de parámetros en cada ecuación y n el orden de los retardos. t −1

179

Estimated coefficients for equation U: ====================================== Call: U = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 -0.12319201 const 259.98200967

e.l1 -0.24844234 trend 0.03451663

U.l1 0.39158002

rw.l1 0.06580819

Estimated coefficients for equation rw: ======================================= Call: rw = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 -0.22308744 const 163.02453066

e.l1 -0.05104397 trend 0.07142229

U.l1 -0.36863956

rw.l1 0.94890946

El resultado gráfico para el logaritmo del empleo se obtiene: > plot(p1ct, names = "e")

Figura 5.2. Estimación y residuos del modelo VAR para el empleo de Canada.

180

5.5.

PROBLEMAS

5.1. Comente las diferencias existentes entre los tres métodos de predicción económica que se han visto hasta el momento: modelos de ecuaciones simultáneas, modelos univariantes de series temporales y modelos VAR.

5.2. ¿En qué sentido es ateórico un modelo VAR?

5.3. Suponga que se ha estimado el siguiente modelo VAR de orden 3:  y1t   0.3 0.1 0.2   y1t −1   ε 1t          y 2t  =  0.5 0.3 0.05· y 2t −1  +  ε 2t   y   0.4 0.1 0.3   y   ε   3t     3t −1   3t 

Calcule y represente gráficamente la función de respuesta al impulso cuando se produce un shock de 7 unidades en ε 2t . 5.4. Realice predicciones 3 periodos hacia delante con el siguiente VAR de orden 2:

y1t = 0.5 y1t −1 + 0.1 y2t −1 + ε1t y2t = 0.3 y1t −1 + 0.5 y2t −2 + ε 2t Para ello, utilice la siguiente información muestral:

Periodo

y1

y2

1

5

8

2

6

4

3

4

3

4

8

2

5

3

6

181

SOLUCIONES

5.1. A realizar por el lector 5.2. A realizar por el lector 5.3. Los primeros valores de la función de respuesta al impulso se presentan en la siguiente tabla:

Periodo

y1

y2

y3

0

0

7

0

1

0.7

2.1

0.7

2

0.56

1.02

0.7

3

0.41

0.62

0.54

4

0.29

0.42

0.39

5

0.21

0.29

0.27

5.4.

Prev.

y1t

T+1

4.6 1.9

T+2

2.5 4.4

T+3

1.7 1.7

182

y2t

6.

REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA

6.1.

INTRODUCCIÓN

Nerlove (1964) y Granger (1969) fueron los primeros investigadores en aplicar el Análisis espectral a las series de tiempo en economía. El uso del análisis espectral requiere un cambio en el modo de ver las series económicas, al pasar de la perspectiva del tiempo al dominio de la frecuencia. El análisis espectral parte de la suposición de que cualquier serie X t , puede ser transformada en ciclos formados con senos u cósenos: n  ft  ft    xt = µ + ∑ a j cos 2π  + b j seno 2π  n n    j =1 

(6.1)

donde µ es la media de la serie, a j y b j son su amplitud, f son las frecuencias que del conjunto de las n observaciones, t es un índice de tiempo que va de 1 a N , siendo N el numero de periodos para los cuales tenemos observaciones en el conjunto de datos, el cociente

ft convierte cada valor de t en escala de tiempo en proporciones de 2n y rango j desde 1 n hasta n siendo n =

N (es decir, 0,5 ciclos por intervalo de tiempo). Las dinámica de las altas 2

frecuencias (los valores más altos de f ) corresponden a los ciclos cortos en tanto que la dinámica de la bajas frecuencias (pequeños valores de f ) van a corresponder con los ciclos largos. Si nosotros hacemos que

f = ω la ecuación (6.1) quedaría, así: n

[

]

xt = µ + ∑ a j cos(ω j t ) + b j seno(ω j t ) n

j =1

(6.2)

El análisis espectral puede utilizarse para identificar y cuantificar en procesos aparentemente a aperiodicos, sucesiones de ciclos de periodo de corto y largo plazo. Una serie dada xt puede contener diversos ciclos de diferentes frecuencias y amplitudes, y esa combinación de frecuencias y amplitudes de carácter cíclico la hace aparecer como una serie no periódica e irregular. De hecho la ecuación (2), muestra que cada observación t de una serie de tiempo, es

183

el resultado sumar los valores en t que resultan de N ciclos de diferente longitud y amplitud, a los que habría que añadir si cabe un termino de error. Realizar un análisis de Fourier a una serie temporal de n datos, equivale a estudiar la variabilidad de dicha serie en base a los ciclos de diferentes frecuencias a que da lugar:

2π 4π 2π × p , ,..., π . La frecuencia ω p = recibe el nombre de armónico , p . Y los n n n armónicos p ≠

n , pueden expresarse de la siguiente forma: 2

a p cos(ω p ) + b p seno(ω p ) = R p cos(ω p t + φ p )

donde R p =

 bp a p + b p y φ p = tan −1  a  p

La representación gráfica de I (ω ) =

nR p2 4π

   

frente ω recibe el nombre de periodograma de las

serie de datos. Una tendencia produce un pico en la representación gráfico del periodograma en la frecuencia cero, mientras que las variaciones estacionales procuren "picos" en las frecuencias estacionales y sus múltiplos enteros, de manera que si un peridograma presenta un "pico" en alguna frecuencia ω , presentará también "picos" en las frecuencias 2ω ,3ω ,...

6.2.

REGRESIÓN BAND SPECTRUM

Hannan (1963) fue quien propuso la regresión en dominio de la frecuencia (regresión band spectrum). Engle (1974), demostró que dicha regresión no alteraba los supuestos básicos de la regresión clásica, cuyos estimadores eran Estimadores Lineales Insesgados y Óptimos (ELIO). En Engel (1974) el periodograma de la explicativa , x , es definido como: 2 fˆx (θ k ) = wk x

siendo wk el vector fila:

(

wk = 1, e iθ k , e 2iθ k ,..., e (T −1)iθ k

184

)

donde θ k = 2πk

T

; y t=0;1;…;T-1;

wk x T

sería el elemento k-ésimo de la transformada finita

de Fourier del vector columna de xt .

El cross-periodograma entre las series xt e yt ∗ fˆxy (θ k ) = (wk x ) (wk y )

donde * es la compleja conjugada de la transpuesta.

El periodograma es un estimador insesgado del espectro, sin embargo es asintóticamente insesgado e inconsistente con la varianza de cada estimador espectral a medida que la muestra tiende a infinito. Esta inconsistencia que obligaría al uso de ventanas en el periodograma con el fin de obtener estimaciones del espectro, no anula las propiedades de la regresión realizada con el periodograma.

Haciendo

 w0     w1  W =  w2     .  w   t −1  Se cumple que WW ' = I = W 'W debido a las ortogonalidad de los productos de senos y cósenos. Y obteniendo el vector ~ x como la transformada de Fourier de x en T periodos, podemos transformar el modelo de regresión múltiple:

y = xβ + u

(6.3)

En

~ y=~ x β + u~ Se trata de una regresión con variables aleatorias complejas pero que no afecta a los supuestos básicos del modelo de regresión clásico. Las propiedades del error u~ :

var(u~ ) = E (u~u~ ' ) = E (Wuu 'W ' ) = WE (uu ' )W ' = σ u2WΩW '

185

Si Ω = I , entonces var(u~ ) = σ u2 I .

Asumiendo que x es independiente de u , el teorema de Gauss-Markov implicaría que

βˆ = (~x ' ~x )−1 ~x ' ~y es un estimador ELIO con la siguiente matriz de varianza y covarianzas: var(βˆ ) = σ u2 ( ~ x'~ x ) −1

El estimador mínimo-cuadrático βˆ en términos del periodograma se formularía:

 T −1



 k =0



βˆ = ∑ fˆxx (θ k ) donde

−1 T −1

∑ fˆ (θ ) k =0

xy

k

fˆxx (θ k ) es la matriz de cross-periodogramas de cada frecuencia e fˆxy (θ k ) es el vector del

cross-periodograma de

xt e y t .

La transformación de los datos originales del dominio del tiempo al dominio de la frecuencia utilizando series finitas de senos y cósenos en la regresión band spectrium, se realiza a través de la matriz ortogonal A, con el elemento (j,t)th (Harvey, 1978) :

a j ,t

1  2 1      ∀j = 1  T  1   2  2  πj (t − 1)   T  cos  T ∀j = 2,4,6,..., (T − 2) /(T − 1)   =   1  2  2  π ( j − 1)(t − 1)    sin  ∀j = 3,5,7,..., (T − 1) / T T    T  1   1 2 t +1    (−1) ∀j = T T  

(6.4)

De esta forma los problemas derivados del uso de la transformada compleja de Fourier pueden ser eludidos. Asimismo afirma que el vector de residuos definido en (6.3) da lugar a un vector de residuos del modelo transformado a través de A:

vˆ = A( y − Xβ ) = Auˆ de forma que :

186

 T  2 2  p j = vˆ2 j + vˆ2 j +1 , j = 1,...,  2 − 1 si T par     p = vˆ 2 + vˆ 2 , j = 1,...,  T − 1  si T impar 2j 2 j +1 pj =  j  2   T p j = 2vˆ22 j , j = y T impar  2   p o = 2vˆ12 Puede ser utilizado de forma consistente como estimador del periodograma de uˆ .Al ser βˆ un estimador MCO de β , puede utilizarse el test del periodograma acumulado de Durbin (Durbin, 1969) (ver anexo I).

Hui T and Ashley R (1999), señalan que el procedimiento de elaboración del crossperiodograma consta de tres etapas:

1.- Transformar los datos originales del dominio del tiempo al dominio de la frecuencia utilizando series finitas de senos y cósenos. Implicaría premultiplicar los datos originales por una matriz ortogonal, A, sugerida por Harvey (1978). 2.- Permitir la variación de β k a través de m bandas de frecuencia usando variables Dummy

( D1j ...D mj ) . Estas variables se elaboran a partir de submuestras de las T observaciones del dominio de frecuencias, de esta forma D sj = ~ x jk si la observación j está en la banda de frecuencias s y D sj = 0 , en el resto de los casos. Para obtener las submuestras proponen el “stabilogram” test (Ashley, 1984).

3.- Re-estimar el resultado del modelo de regresión en el dominio del tiempo con las estimaciones

β1 ...β k y los coeficientes de las m variables Dummy. Implicaría premultiplicar la

ecuación de regresión ampliada por las variables Dummy por la transpuesta de A.

Ejemplo 6.1

En la tabla siguiente se recogen las cifras de Consumo de energía final eléctrica (TEP) y del PIB en Millones de euros de España en el periodo 1992 y 2007.

187

Consumo de Energía Final Eléctrica (TEP)

PIB (Mill euros año 2000)

1992

11244

484580,9

1993

11237

479583,3

1994

11777

491011,6

1995

12116

515405

1996

12655

527862,4

1997

13672

548283,8

1998

14202

572782

1999

15241

599965,8

2000

16205

630263

2001

17279

653255

2002

17759

670920,4

2003

18916

691694,7

2004

19834

714291,2

2005

20827

740108

2006

22052

769850,2

2007

22548

797366,8

2008

22817

804223,1

Fuente: INE

La regresión Mínimo Cuadrática en el dominio del tiempo de ambas series ofrece los siguientes resultados:

Estadísticas de la regresión Coeficiente de correlación múltiple 0,99827044 Coeficiente de determinación R^2 0,99654387 R^2 ajustado 0,99629701 Error típico 244,666006 Observaciones 16

Intercepción Variable X 1

Coeficientes

Error típico

Estadístico t

-6648,76729

374,426101

-17,7572217

0,03679065

0,00057906

63,53565298

La transformación de los datos del dominio del tiempo al dominio de la frecuencia se realiza premultiplicando los datos originales por la matriz ortogonal A definida en (6.4).

188

aj,t

1

2

3

4

5

1

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

0,250

2

0,354

0,327

0,250

0,135

0,000

-0,135

-0,250

-0,327

-0,354

-0,327

-0,250

-0,135

0,000

0,135

0,250

0,327

3

0,000

0,135

0,250

0,327

0,354

0,327

0,250

0,135

0,000

-0,135

-0,250

-0,327

-0,354

-0,327

-0,250

-0,135

4

0,354

0,250

0,000

-0,250

-0,354

-0,250

0,000

0,250

0,354

0,250

0,000

-0,250

-0,354

-0,250

0,000

0,250

5

0,000

0,250

0,354

0,250

0,000

-0,250

-0,354

-0,250

0,000

0,250

0,354

0,250

0,000

-0,250

-0,354

-0,250

6

0,354

0,135

-0,250

-0,327

0,000

0,327

0,250

-0,135

-0,354

-0,135

0,250

0,327

0,000

-0,327

-0,250

0,135

7

0,000

0,327

0,250

-0,135

-0,354

-0,135

0,250

0,327

0,000

-0,327

-0,250

0,135

0,354

0,135

-0,250

-0,327

8

0,354

0,000

-0,354

0,000

0,354

0,000

-0,354

0,000

0,354

0,000

-0,354

0,000

0,354

0,000

-0,354

0,000

9

0,000

0,354

0,000

-0,354

0,000

0,354

0,000

-0,354

0,000

0,354

0,000

-0,354

0,000

0,354

0,000

-0,354

10

0,354

-0,135

-0,250

0,327

0,000

-0,327

0,250

0,135

-0,354

0,135

0,250

-0,327

0,000

0,327

-0,250

-0,135

11

0,000

0,327

-0,250

-0,135

0,354

-0,135

-0,250

0,327

0,000

-0,327

0,250

0,135

-0,354

0,135

0,250

-0,327

12

0,354

-0,250

0,000

0,250

-0,354

0,250

0,000

-0,250

0,354

-0,250

0,000

0,250

-0,354

0,250

0,000

-0,250

13

0,000

0,250

-0,354

0,250

0,000

-0,250

0,354

-0,250

0,000

0,250

-0,354

0,250

0,000

-0,250

0,354

-0,250

14

0,354

-0,327

0,250

-0,135

0,000

0,135

-0,250

0,327

-0,354

0,327

-0,250

0,135

0,000

-0,135

0,250

-0,327

15

0,000

0,135

-0,250

0,327

-0,354

0,327

-0,250

0,135

0,000

-0,135

0,250

-0,327

0,354

-0,327

0,250

-0,135

16

0,250

-0,250

0,250

-0,250

0,250

-0,250

0,250

-0,250

0,250

-0,250

0,250

-0,250

0,250

-0,250

0,250

-0,250

i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

6

7

8

9

10

11

12

Y

X

Constante

Y ajustado dominio de la frecuencia

67284 -1713 -12669 -2162 -5702 -2397 -3077 -2053 -2023 -2129 -1083 -2069 -924 -2306 -557 -1366

2551717 -56628 -334387 -52088 -160516 -70960 -89304 -64772 -60838 -62400 -38099 -57905 -26001 -55621 -11901 -38885

4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

67284 -2083 -12302 -1916 -5905 -2611 -3286 -2383 -2238 -2296 -1402 -2130 -957 -2046 -438 -1431

La regresión MCO con los datos en el dominio de la frecuencia es:

Estadísticas de la regresión Coeficiente de correlación múltiple 0,99991214 Coeficiente de determinación R^2 0,99982429 R^2 ajustado 0,92838317 Error típico 244,666006 Observaciones 16

189

13

14

15

16

Intercepción X Cte

Coeficientes

Error típico

Estadístico t

0 0,03679065 -6648,76729

#N/A 0,00057906 374,426101

#N/A 63,53565298 -17,7572217

Se crea ahora una variable Dummy para separar altas frecuencias de las bajas frecuencias. Las variables transformadas al dominio de la frecuencia y las Dummys utilizadas (D1 y D2) aparecen en la Tabla siguiente:

i

Y

D1

D2

Y ajustado dominio frecuencia

Cte 1

67,284 -1,713 -12,669 -2,162 -5,702 -2,397 -3,077 -2,053 -2,023 -2,129 -1,083 -2,069 -924 -2,306 -557 -1,366

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

2,551,717 -56,628 -334,387 -52,088 -160,516 -70,960 -89,304 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 -64,772 -60,838 -62,400 -38,099 -57,905 -26,001 -55,621 -11,901 -38,885

4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

67.284 -2.101 -12.405 -1.932 -5.955 -2.632 -3.313 -2.242 -2.105 -2.159 -1.318 -2.004 -900 -1.925 -412 -1.346

Los resultados de la regresión MCO de los valores transformados en el dominio de la frecuencia son:

Estadísticas de la regresión Coeficiente de correlación múltiple 0,99992471 Coeficiente de determinación R^2 0,99984942 R^2 ajustado 0,92290317 Error típico 235,050452 Observaciones 16

Intercepción D1 D2 Cte

Coeficientes

Error típico

Estadístico t

0 0,03709794 0,0346064 -6844,79449

#N/A 0,000594141 0,001584053 383,5483218

#N/A 62,4395755 21,8467372 -17,8459769

190

La representación gráfica de los resultados obtenidos, requiere transformar los datos ajustados en el dominio de la frecuencia a datos ajustados en el dominio utilizando la transpuesta de A.

Figura nº6.1. Datos centrados y datos ajustados en el dominio del tiempo.

6.3.

REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA CON PARAMETROS DEPENDIENTES DEL TIEMPO.

El objetivo es estimar un modelo de tipo

Yt = β t X t + u t Donde X t es un vector de T x 1 observaciones de la variable independiente, de T x 1 parámetros , e

(6.5)

β t , es un vector

Yt es un vector de T x 1 observaciones de la variable independiente y

ut es un vector de T x 1 errores de media cero y varianza constante, asumiendo que las series X t , β t e Yt son transformadas en series de Fourier:

191

[

]

Yt = η y + ∑ a jy cos(ω j ) + b jy sin (ω j ) N

j =1

β t = η β + ∑ [a βj cos(ω j ) + b βj sin (ω j )] N

j =1

[

]

u t = η u + ∑ a uj cos(ω j ) + b uj sin (ω j ) N

j =1

(6.6)

T Pre-multiplicado cada observación de (6.6) por W se obtiene:

Y& = X&β&

(6.7)

donde Y& = AT Yt , X& = AT X t , y β& = AT β t .

El sistema (6.7) puede reescribirse como:

Y& = AX t I N AT β& + AI N AT u&

(6.8)

e& = AI N AT u& , se buscaría una solución que minimizara la suma cuadrática de los errores: eˆt = Ae& . Si denominamos,

Una vez encontrada la solución a dicha optimización se transformarían las variables y parámetros al dominio del tiempo para obtener el sistema (6.5). Para obtener una solución a la minimización de los errores e& que ofrezca el mismo resultado que la regresión lineal por mínimos cuadrados ordinarios, requiere utilizar una matriz de regresores X cuya primera columna sería el vector de tamaño T (1,0,0,...), la segunda columna sería la primera fila de la matriz AX t I N AT y las columnas, corresponderían las filas de

AX t I N AT correspondientes a las frecuencias de senos o cósenos que queremos regresar. Denominando a nueva esta matriz de tamaño N × p , X , donde p = 2 + j , siendo la j frecuencias de seno y coseno elegidas como explicativas, los coeficientes de la solución MCO serían:

β& = ( X ' X )−1 X ' y& donde β&o ,1 sería el parámetro asociado a la constante, β&1,1 el asociado a la pendiente, y β&1, j los asociados a las frecuencias de senos y cósenos elegidas.

192

Ejemplo 1.2

Utilizando los datos del ejemplo 1 vamos a plantear la regresión en el dominio de la frecuencia X con parámetros dependientes del tiempo. Para ello se ha obtenido la matriz θ jjX = AX t I N AT :

θ jjX

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

1

637929

-14157

-83597

-13022

-40129

-17740

-22326

-16193

-15209

-15600

-9525

-14476

-6500

-13905

-2975

-9721

2

-14157

628721

-28375

-22555

-74899

-20658

-39130

-23575

-22522

-21686

-15351

-20863

-8839

-19958

-4596

-13905

3

-83597

-28375

647137

43325

2534

17621

2242

9052

-1513

6158

-1214

4631

-1198

4596

-515

2975

4

-13022

-22555

43325

626479

-10755

-21041

-65847

-19444

-32972

-22377

-17891

-21171

-10755

-20863

-4631

-14476

5

-40129

-74899

2534

-10755

649379

52377

1020

23779

1028

13683

-2712

10755

-1729

8839

-1198

6500

6

-17740

-20658

17621

-21041

52377

627693

-4596

-19843

-61216

-18929

-28375

-22377

-13683

-21686

-6158

-15600

7

-22326

-39130

2242

-65847

1020

-4596

648165

57008

-178

28375

513

17891

-2712

15351

-1214

9525

8

-16193

-23575

9052

-19444

23779

-19843

57008

628208

0

-19843

-57008

-19444

-23779

-23575

-9052

-16193

9

-15209

-22522

-1513

-32972

1028

-61216

-178

0

647650

61216

-178

32972

1028

22522

-1513

15209

10

-15600

-21686

6158

-22377

13683

-18929

28375

-19843

61216

627693

4596

-21041

-52377

-20658

-17621

-17740

11

-9525

-15351

-1214

-17891

-2712

-28375

513

-57008

-178

4596

648165

65847

1020

39130

2242

22326

12

-14476

-20863

4631

-21171

10755

-22377

17891

-19444

32972

-21041

65847

626479

10755

-22555

-43325

-13022

13

-6500

-8839

-1198

-10755

-1729

-13683

-2712

-23779

1028

-52377

1020

10755

649379

74899

2534

40129

14

-13905

-19958

4596

-20863

8839

-21686

15351

-23575

22522

-20658

39130

-22555

74899

628721

28375

-14157

15

-2975

-4596

-515

-4631

-1198

-6158

-1214

-9052

-1513

-17621

2242

-43325

2534

28375

647137

83597

16

-9721

-13905

2975

-14476

6500

-15600

9525

-16193

15209

-17740

22326

-13022

40129

-14157

83597

637929

La matriz de regresores X ' para obtener la solución lineal sería: 1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

637929

-14157

-83597

-13022

-40129

-17740

-22326

-16193

-15209

-15600

-9525

-14476

-6500

-13905

-2975

-9721

El sistema (6.7) daría lugar a los siguientes coeficientes:

β&o ,1 β&

1,1

-26595,06915 0,147162612

El desarrollo de dichos coeficientes en el dominio de la frecuencia y el tiempo es el siguiente:

193

β&

oi -26595,0691 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

βˆ0t = Aβ&oi

β&1i

βˆ1t = Aβ&1i

-6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729 -6648,76729

0,14716261 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065 0,03679065

La matriz de regresores X ' considerando los dos ciclos de bajas frecuencias sería: 1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

637929

-14157

-83597

-13022

-40129

-17740

-22326

-16193

-15209

-15600

-9525

-14476

-6500

-13905

-2975

-9721

-14157

628721

-28375

-22555

-74899

-20658

-39130

-23575

-22522

-21686

-15351

-20863

-8839

-19958

-4596

-13905

-83597

-28375

647137

43325

2534

17621

2242

9052

-1513

6158

-1214

4631

-1198

4596

-515

2975

-13022

-22555

43325

626479

-10755

-21041

-65847

-19444

-32972

-22377

-17891

-21171

-10755

-20863

-4631

-14476

-40129

-74899

2534

-10755

649379

52377

1020

23779

1028

13683

-2712

10755

-1729

8839

-1198

6500

Los coeficientes de la solución mínimo cuadrática quedarían:

β&o ,1

-20721,14907

β&

1,1

0,137708056

β&

1, 2

0,000254003

β&

-0,001743429

β&

-0,00046199

β&

-0,000230558

1, 3 1, 4

1, 5

En la tabla siguiente se recogen los resultados en términos de dominio de frecuencia y de tiempo

194

Y&

j/t

Yt

β 0 ,i

β 0 ,t

β1,i

β1,t

e&

et

1

67284

11295

-20721

-5180,29

0,137708056

0,03435348

0,00

-58,07

2

-1713

11564

0

-5180,29

0,000254003

0,03410096

0,17

213,32

3

-12668

12330

0

-5180,29

-0,00174343

0,03397314

1,49

-213,64

4

-2161

12741

0

-5180,29

-0,00046199

0,03394976

0,10

-85,52

5

-5694

13447

0

-5180,29

0

0,03397396

7,44

224,92

6

-2481

14292

0

-5180,29

0

0,03399631

-84,41

-90,19

7

-3058

15224

0

-5180,29

0

0,03400917

19,25

16,95

8

-2248

16280

0

-5180,29

0

0,0340503

-195,44

-75,36

9

-2083

17144

0

-5180,29

0

0,03417387

-59,87

135,03

10

-2157

17904

0

-5180,29

0

0,03440679

-28,32

-144,93

11

-1305

18834

0

-5180,29

0

0,03471786

-221,29

82,13

12

-2000

19834

0

-5180,29

0

0,03501998

69,51

-0,18

13

-890

20877

0

-5180,29

0

0,03520675

33,88

-49,51

14

-1920

21922

0

-5180,29

0

0,03520399

385,65

130,49

15

-408

22734

0

-5180,29

0

0,03500789

149,04

-185,84

16

-1342

22717

0

-5180,29

0

0,03468801

24,01

100,39

Con objeto de comprobar los resultados de la estimación, se calcula el periodograma de

eˆt = θ XX A' e& y su representación gráfica figura a continuación: &&

Frecuencia

Periodo

1

16

2

8

3

5

4

4

5

ap

bp 0,17

Periodograma

sj

c0+j/m

-c0+j/m

1,49

2,849786802

0,0000081

0,5583700

-0,3083700

0,10

7,44

70,54491094

0,0002080

0,6833700

-0,1833700

-84,41

19,25

9544,292064

0,0272526

0,8083700

-0,0583700

-195,44

-59,87

53196,21836

0,1779889

0,9333700

0,0666300

3

-28,32

-221,29

63368,80313

0,3575501

1,0583700

0,1916300

6

3

69,51

33,88

7612,459849

0,3791207

1,1833700

0,3166300

7

2

385,65

149,04

217645,6808

0,9958394

1,3083700

0,4416300

8

2

24,01

0,00

1468,320911

1,0000000

1,4333700

0,5666300

Figura 6.2 Periodograma de eˆt

195

Figura 6.3.- Periodograma acumulado de eˆt y bandas del test de Durbin.

Finalmente se representan las estimaciones del Consumo de consumo de energía final eléctrica, en MCO y en el dominio de la frecuencia con coeficientes dependientes del tiempo:

Figura nº5. Estimaciones del Consumo de consumo de energía final eléctrica.

196

6.4.

DESESTACIONALIZACIÓN

A

TRAVÉS

DE

LA

REGRESIÓN DEPENDIENTE DE LA FRECUENCIA La regresión en el dominio de la frecuencia puede utilizarse para descomponer unas serie temporal en sus componentes de tendencia, estacionalidad e irregular, de una serie temporal y t de frecuencia b , o con b datos por intervalo de tiempo. Por ejemplo, una serie de frecuencia 7 sería una serie de datos diarios, y el intervalo temporal la semana, las frecuencias 4 y 12 indicarían series trimestrales y mensuales, en el periodo de tiempo de un año equivales.

Si la observación se toma a intervalos de tiempo ∆t , entonces la frecuencia angular es ω = La frecuencia equivalente expresada en ciclos por unidad de tiempo es f = Cuando solo hay una observación por año, ω = π radianes por año o f =

π ∆t

.

ω 1 = ∆t . 2π 2

1 ciclos por año (un 2

ciclo por cada dos años), variaciones con una oscilación de un año tienen una frecuencia de

ω = 2π radianes por año o f = 1 ciclos por año. Por ejemplo en una serie mensual de n = 100 datos, el ciclo estacional o las oscilaciones que ocurren al cabo del año, tienen una frecuencia de f =

100 = 8,33 ciclos por cada 100 datos. 12

Una serie mensual que completa 8 ciclos, al ser su menor frecuencia estacional 1 ciclo por año, tendrá un total de 96 observaciones (8 ciclos), y los múltiplos enteros que también destacaran en su periodograma corresponderán a las frecuencias f =

n 2n 3n , , ,... ; las oscilaciones de 12 12 12

tendencia o de baja frecuencia, las que ocurren con un ciclo inferior al año corresponderán a las frecuencias f <

n . 12

Puede utilizarse (6.8) para estimar los coeficientes de Fourier de la serie temporal y t :

Y& = AI n AT β& + AI N AT u&

(6.9)

Y& = AtI n AT β& + AI N AT u&

(6.10)

o

En (6.9)

197

1  0 T W = At I n A =  0  . 0 

0 1 0 . 0

0 0 1 . 0

... ... ... ... ...

0  0 0  . 1 

Si queremos regresar sobre los cuatro primeros coeficientes, entonces:

1  0 0  W * = At I n AT =  0 0  .  0 Las

0 1 0 0 0 . 0

0 0 1 0 0 . 0

0 0 0 1 0 . 0

0 0 0 0 0 . 0

... ... ... ... ... ... ...

0  0 0  0 0  .  0

2n − 1 primeras filas de la matriz A son utilizadas para estimar los coeficientes de Fourier 12

que corresponden a los ciclos de bajas frecuencias, los ciclos de tendencia, y las filas

2n y 12

2n + 1 permiten regresar sobre los coeficientes de Fourier que dan lugar a oscilaciones de un 12 ciclo en cada año, los múltiplos enteros de dicha frecuencia

6n 6n 8n y + 1 , el ...deben de ser 12 12 12

utilizados para obtener la frecuencia estacional.

Ejemplo 1.2

Se realiza un ejercicio de descomponer en tendencia, estacionalidad e irregularidad por regresión en dominio de frecuencia con coeficientes dependientes del tiempo el IPI base 2009 de Cantabria en R. Este procedimiento requiere cargar la librería “descomponer”. > library (descomponer)

El índice de precios industriales de Cantabria se representa en la figura siguiente. >data(ipi)

198

La función descomponer, requiere indicar la serie, la frecuencia de la serie temporal, el tipo de ajustes , 1, si se quiere realizar un ajuste utilizando (6.9) o 2 si se desea realizar un ajuste utilizando (6.10), y el numero de datos a proyectar.

La serie de tendencia y estacionalidad se denomina TDST y se obtiene realizando un regresión en el dominio de la frecuencia, entre la serie y t y el índice temporal t ,en el que se filtran las bajas frecuencias y las frecuencias estaciones y sus múltiplos absolutos. TD se calcula realizando una regresión en el dominio de la frecuencia entre la serie y t y el índice temporal t pero dejando pasar solo las bajas frecuencias. La serie estacional ST es TD menos TDST, y la serie irregular IR resulta de restar TDST de y t (figure 8). El índice temporal t se obtiene a través de un MCO entre el IPI y la línea de tendencia (1,2,3,...., n )' . >desc1 <- descomponer(ipi,12,1) > summary(desc1$datos) y TDST Min. : 58.6 Min. : 66.32 1st Qu.: 94.5 1st Qu.: 95.54 Median :101.7 Median :103.01 Mean :101.8 Mean :101.77 3rd Qu.:110.0 3rd Qu.:109.24 Max. :129.7 Max. :124.73 IR Min. :-13.06011 1st Qu.: -3.03401 Median : -0.05061 Mean : 0.00030 3rd Qu.: 2.64917 Max. : 13.55541

TD Min. : 91.09 1st Qu.: 97.05 Median :100.21 Mean :101.77 3rd Qu.:105.60 Max. :115.87

ST Min. :-25.881690 1st Qu.: -1.387620 Median : 2.212479 Mean : 0.002389 3rd Qu.: 7.265860 Max. : 9.078986

La representación gráfica se realize con la función “gdescomponer”, que requiere además indicar el año y el mes ó trimestre de inicio de la serie.

>gdescomponer(ipi,12,1,2002,1)

199

Para realizar una representación gráfica del periodograma de los residuos se invoca la función “gperiodograma”. > gperiodograma(desc1$datos$IR)

200

Para realizar un test sobre la aleatoriedad de la serie irregular (IR) basado en el periodograma acumulados puede utilizarse la función “cpgram”.

> cpgram(ts(desc1$datos$IR,frequency=12))

201

6.1.

PROBLEMAS

6.1 Partiendo de los siguentes datos

t

y 1 2 3 4 5 6

x 15,25 12,65 16,55 20,45 22,05 14,85

12 7 15 23 25 11

Se pide:

a) Transformar x e y en el dominio de la frecuencia. b) Realizar una regresión band-spectrum de y frente a x c) Realizar una regresión band-spectrum utilizando dummies para las frecuencias altas (i=3) y las frecuencias bajas.

6.2 Utilizando los datos de la tabla anterior hacer una regresión en el dominio de la frecuencia con parámetros dependientes del tiempo, dejando pasar la frecuencia correspondiente al primer coseno.

6.3.- Estimar un modelo lineal en el dominio de la frecuencia con parámetros dependientes del tiempo del tipo y& = β&0 + β&1 x& + β&&z& + e& t . Siendo z: t

z 1 2 3 4 5 6

5 2 2 4 1 1

6.4.- Descomponer utilizando la función R descomponer la serie co2.

202

SOLUCIONES

6.1 a) i 1 2 3 4 5 6

y 41,559676 -6,20651539 -3,85 1,52997821 1,65 2,40866491

x 37,96709101 -12,70170592 -7 3,464101615 3 4,490731195

b)

y& = 9,1489 + 0,5044 x& + e& t c)

y& = 9,1712 + 0,5029 D1 + 0,5117 D 2 + e& t

6.2.

β 0 ,i 21,322274 0 0 0 0 0

β 0 ,t

β1,i

β1,t

8,70478192 1,31850568 0,560483 8,70478192 0,03846073 0,54938035 8,70478192 0 0,52717504 8,70478192 0 0,51607238 8,70478192 0 0,52717504 8,70478192 0 0,54938035

6.3.

y& = 24,782 + 1,235 x& − 2,123 z& + e& t 6.4. A realizar por el alumno

203

7.

FILTROS LINEALES

7.1.

INTRODUCCIÓN

Un filtro lineal se define como:

a( L) =



∑a L

j = −∞

j

j

donde los ponderadores son números reales, i. e. a j ∈ ℜ ; no dependen del tiempo y satisfacen ∞

∑a

j = −∞

2 j

< ∞ . Aplicando el filtro lineal a ( L) a un proceso estocástico estacionario, xt , da como

resultado un nuevo proceso estocástico:

y t = a ( L ) xt =



∑a

j = −∞

j

xt − j

(7.1)

donde las propiedades de xt se transmiten a y t por medio del filtro lineal a ( L) . Para examinar el efecto que tiene un filtro lineal hay que analizarlo en el dominio de la frecuencia. Utilizando la transformada de Fourier, se obtiene el espectro del filtro lineal aplicado a xt : 2

S y (ω ) = a (e −iω ) S x (ω )

( ) ∑a e

donde: a e −iω =



j = −∞

j

− iω j

.

es conocido como la respuesta de frecuencia del filtro lineal o función de transferencia. Esta función describe como el espectro de la serie xt es afectado por la aplicación del filtro a ( L) . Dado que la respuesta de frecuencia puede resultar en valores complejos resulta conveniente expresarla como:

( )

a e −iω = G (ω )e −iF (ω )  ∞   − ∑ a j sin(ϖj )  j = −∞  , son respectivamente el módulo Donde G (ω ) = a (e − iω ) , y F (ω ) = tan −1  ∞    ∑ a j cos(ϖj )   j = −∞  y el argumento de la respuesta de frecuencia.

204

En este contexto el módulo, G (ω ) , es conocido como la ganancia del filtro; el cual determina la medida en la que la amplitud de los movimientos observados en cierta frecuencia en el espectro de xt son transferidos al espectro de y t . Por ejemplo una ganancia de cero alrededor de la frecuencia ω1 ∈ [0, π ]1 significa que el proceso filtrado no mostrará movimientos alrededor de dicha frecuencia. Por su parte el argumento, F (ω ) , es conocido como el desplazamiento de fase del filtro, el cual esta asociado a desplazamientos de la serie en el dominio del tiempo16. Es importante notar que cuando a j = − a j para toda j , es decir cuando se trata de un filtro simétrico; el desplazamiento de fase del filtro es igual a cero 17, i. e F (ω ) = 0 .

7.2.

FILTROS ELEMENTALES

Los filtros más utilizados en el análisis de series temporales son las tasas de variación y las medias móviles.

Las tasas de variación son operadores lineales invariantes en el tiempo pero no lineales. Dado que la teoría elemental de los filtros se refiere a operadores lineales invariantes, hay que aproximar las tasas a operadores de diferencia. Así la primera diferencia de un logaritmo es una buena aproximación de una tasa de variación mensual.

Sea T =

( xt − xt −1 )

xt

, utilizando operadores de diferencia obtenemos el filtro lineal

invariante más elemental:

a( L) Ln( xt ) = (1 − L) Ln( xt )

16

A veces el desplazamiento de fase se expresa como

F (ω )

ω

, lo cual permite expresar el desfase en

unidades de tiempo. 17

Para entender esta propiedad de los filtros lineales, se utilizan los siguientes resultados trigonométricos:

sin(−ω ) + sin(ω ) = 0 sin(0) = 0

Esto implica que cuando h j = −h j , el producto en implica que



∑h

j = −∞

F (ω ) = 0 dado que tan −1 (0) = 0 .

205

j

sin(ωj ) (1) es igual a cero, lo cual a su vez

Las aproximaciones lineales de las tasas más utilizadas y los filtros lineales equivalentes aparecen en el tabla 7.1.

Una media móvil simple es la media aritmética de los n datos anteriores Mientras más grande sea n, mayor será la influencia de los datos antiguos.

Las medias móviles centradas se caracterizan porque el número de observaciones que entran en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:

MM (2n + 1) t =

n x + xt − n +1 + ... + xt + ... + xt + n−1 + xt + n 1 xt + i = t − n ∑ 2n + 1 i = − n 2n + 1

Como puede observarse, el subíndice asignado a la media móvil, t, es el mismo que el de la observación central, Yt. Obsérvese también que, por construcción, no se pueden calcular las medias móviles correspondientes a las n primeras y a las n últimas observaciones.

En las medias móviles asimétricas se asigna cada media móvil al período correspondiente a la observación más adelantada de todas las que intervienen en su cálculo. Así la media móvil asimétrica de n puntos asociada a la observación t tendrá la siguiente expresión:

MMA(n) t =

x + xt − n + 2 + ... + xt −1 + xt 1 t Yt +i = t − n+1 ∑ n i =t − n +1 n

Los filtros lineales asociados a las medias móviles se denotan de la siguiente forma:

a ( L ) xt =

1 n j ∑ L xt n j =0

206

Expresión

Filtro lineal Equivalente

12  xt   T  − 1 ⋅ 100  xt −1   

(1 − L)

2  xt   T   − 1 ⋅ 100 x t −6   

(1 − L6 )

 x  − 1 ⋅ 100 T  t   x t −12   

(1 − L12 )

1 1

1 6

1 12

12  z t   T   − 1 ⋅ 100 z t −1    3 1

4  z  − 1 ⋅ 100 T  t   z t −1    3 3

zt =

(xt + xt −1 + xt −2 )

zt =

(xt + xt −1 + xt −2 )

12  z  − 1 ⋅ 100 T  t   z t −1   

zt =

12  z  − 1 ⋅ 100 T  t   z t −1   

zt =

12  z  − 1 ⋅ 100 T  t  z t −12   

zt =

6 1

12 1

12 12

3

(1 − L)(1 + L + L2 ) = (1 − L3 ) (1 − L3 )(1 + L + L2 ) = (1 − L)(1 + L + L3 ) 2

3

(xt + xt −1 + ... + xt −5 )

6

(xt + xt −1 + ... + xt −11 )

(1 − L)(1 + L + L2 + ... + L5 ) = (1 − L6 ) (1 − L)(1 + L + L2 + ... + L11 ) = (1 − L12 )

12

(xt + xt −1 + ... + xt −11 )

12

12 2 (1 − L12 )(1 + L + L2 + ... + L11 ) = (1 − L )

(1 − L)

Fuente: Melis (1991) Tabla 7.1.- Tasas de Variación y Filtros Lineales equivalentes

El método idóneo de análisis de filtros es el estudio de las correspondientes funciones de respuesta frecuencial, que se obtienen al sustituir en la función de transferencia el operador de retraso por la exponencial compleja e iϖt , de manera que obtenemos como salida la misma función multiplicada por una expresión que ya no depende de t , que se denomina función de respuesta frecuencial.

Si aplicamos una primera diferencia, por poner el ejemplo más simple, a la función característica, obtenemos como salida:

a( L)e iϖt = (1 − L)e iϖt = (1 − e − iϖ )e iϖt = a(ϖ )e iϖt

207

La función de respuesta a (ϖ ) es una función compleja de la frecuencia cuyo módulo se conoce como función de ganancia del filtro y cuyo argumento se denomina función de fase del filtro.

A partir de la función de respuesta de frecuencia de este filtro:

(

) (

)

a (ϖ ) = a e −iϖ = 1 − e −iϖ = e

− iϖ

2

 e iϖ 2 − e −iϖ 2  = e −iϖ 2 2i sin  ϖ   2

donde se ha hecho uso de la igualdad e



2

i (π −ϖ )  ϖ   = e 2 2 2 sin    2

= 1 y del Teorema de Moivre18, se obtienen su

función de ganancia y de fase:

ϖ  G (ω ) = 2 sin   2 F (ω ) =

π 2



ϖ 2

π ϖ   −  F (ϖ )  2 2  T − 2 = = , si se consideraϖ = 2π . El desfase temporal de este filtro T ϖ ϖ 4

El operador de medias móviles a ( L) xt =

1 n j ∑ L xt tiene la función de respuesta frecuencial n j =0

siguiente:

(

)

a e −iϖ =

(

1 1 + e −iϖ + e − 2iω 3

)

A partir de la respuesta de frecuencia del filtro:

(

)

(

)

1 1 1 1 + e −iω + e − 2iω = e −iω e iω + 1 + e −iω = e −iω (1 + 2 cos(ω ) ) 3 3 3 se obtienen su ganancia19 y desplazamiento de fase:

1 (1 + 2 cos(ω ) ) 3

G (ω ) =

F (ω ) = −ω

φ (ω ) =

18 19

−ω

ω

= −1

e − iω = cos(ω ) − i sin(ω ) y e iω = cos(ω ) + i sin(ω )

(

)

ya que e − iω e iω = 1 , e iω + e − iω = (2 cos(ω ) ) ,aplicando el teorema de De Moivre y las igualdades sin( −ω ) = − sin(ω ) y cos(−ω ) = − cos(ω )

208

Ejemplo 7.1

(

Partimos de la serie xt = sin π ⋅ t

3

) y aplicamos el filtro lineal a( L) = 1 − L . El resultado se

ilustra en la siguiente figura: 1 0,5 0 1

3

5

7

9 11 13 15 17 19 21 23 25 27

-0,5 -1 Serie original

Serie filtrada

La función de ganancia del filtro a ( L) = 1 − L es: 2 1,8 1,6 1,4 1,2 1 0,8 0,6 0,4 0,2 0 -0,36

0,14

0,64

1,14

Cuando aplicamos el filtro lineal a ( L) =

1,64

2,14

2,64

3,14

1 2 j ∑ L , el resultado obtenido es: 3 j =0

209

1 0,5 0 1

3

5

7

9 11 13 15 17 19 21 23 25 27

-0,5 -1 Serie original

Serie filtrada

En el gráfico se observa que las oscilaciones de la serie filtrada son de amplitud menor a las de la serie original, y que hay un desplazamiento de la serie filtrada con respecto a la original.

1 2 j La función de ganancia del filtro a ( L) = ∑ L es: 3 j =0 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 -0,36

0,14

0,64

1,14

1,64

2,14

2,64

3,14

Se aprecia que la ganancia del filtro es igual a cero en la frecuencia ω = 2π

3

. Esto significa

que el filtro anula el efecto de cualquier componente de la serie que tenga fluctuaciones con periodo 3. Por ejemplo, si se trata de una serie de tiempo mensual el filtro eliminará cualquier efecto trimestral presente en la serie.

210

Normalizando el desplazamiento de fase se obtiene que

F (ω )

ω = −1 . Esto significa que el

filtro introduce un desfase temporal de un periodo en la serie filtrada.

Las funciones de ganancia (modulo) fase y desfase de los principales filtros lineales figuran en la Tabla 7.2. Filtro

Modulo

Periodo

de Fase

Desfase

máxima ganancia

temporal para un periodo

(1 − L)

p

( 2)

2

( 2)

6,2

(

12,4,24

2 sin ω

2

2 sin 3ω

(1 − L3 )

2 sin 6 ω

(1 − L6 )

2

(

2 sin 12 ω

(1 − L12 ) (1 − L3 )(1 + L + L2 ) = (1 − L)(1 + L + L3 ) 2

12 2 (1 − L12 )(1 + L + L2 + ... + L11 ) = (1 − L )

(1 − L)

)

( 2) 3 sin (ω ) 2 2 sin (12 ω ) 2 ω 12 sin ( ) 2 2 sin 2 3ω

2

π 2

)

2

π

π 2

24,8,4.8,3.43,2.7,2.8

π 2

8

π 2

32

π 2



ω

p−2 4

2

−3 −6

ω 2

ω 2

− 12 −5

p−6 4

ω 2

ω 2

− 23

ω 2

p − 12 4 p − 24 4 p − 10 4 p − 46 4

Fuente: Melis (1991) Tabla 7.2. Modulo, fase y desfase temporal de los filtros de la Tabla 7.1

7.3.

FILTROS FIR

Las tasas y las medias móviles forman parte de lo que en señales digitales se denominan filtros de respuesta impulsional finita (FIR), ya que se basan en obtener las salidas a partir, exclusivamente, de las entradas actuales y anteriores. Generalizando, para un filtro lineal de longitud N: N −1

yt = ao xt + a1 xt −1 + ... + a N −1 xt − N +1 = ∑ a j xt − j j =0

donde a j son los coeficientes del filtro.

211

Una media móvil de orden tres, sería entonces el siguiente filtro FIR:

yt =

1 1 1 xt + xt −1 + xt − 2 3 3 3

Y una tasa de crecimiento:

y t = xt − xt −1 Los filtros FIR se clasifican según los siguientes tipos:

Tipo

Número de términos

Simetría

I

Impar

Simétrico a j = a N −1− j

II

Par

Simétrico a j = a N −1− j

III

Impar

Antisimétrico a j = − a N −1− j

IV

Par

Antisimétrico a j = − a N −1− j

La media móvil de orden tres es por tanto un filtro FIR tipo I, es decir simétrico de orden impar, y la tasa de crecimiento sería un filtro FIR tipo IV, es decir antisimétrico de orden par. La función de respuesta frecuencial de un filtro tipo I es20

( )

a e iw = e

N −1 −iϖ 2

N −1

 2 −1   2a cosϖ . N − 1 − j  + a  j  N −1   ∑   2    2  j =0  

Con lo que: N −1 2

G (ω ) ==

−1

∑ 2a j =0

j

 N −1  cosϖ . − j  + a  N −1  2    2 

F (ϖ ) = −ϖ

N −1 2

( ) (

)

a e − iw = a o + a1e − iw + a 2 e −2iw + a 3 e −3iw + a 4 e −4iw + ... = 20

=e

− iw

N −1 2

ya que e

− iw

 N −1   N −1   N −1   N −1  N −1   −1  −2  −3  −4  iw  iw  iw  iw   a e iw 2 + a e  2  + a e  2  + a e  2  + a e  2  + ..  o 1 2 3 4     N −1 N −1 iω 2 2

e

=e

iw

N −1 N −1 −iw 2 2

= e =1 y e 0

−iw

212

N −1 N −1 iω iw 2 2

e

e =e

− iw

N −1 N −1 iω −iw 2 2

e

Un filtro media movil de 3 términos (N=3), donde a 0 =

1 1 y a  N −1  = a 2 = , tendrá entonces   3 3  2 

las siguientes funciones de ganancia y fase:

1 1 G (ω ) = 2 cos(ϖ ) + y F (ϖ ) = −ϖ 3 3 Un filtro tipo II tiene la siguiente función de ganancia y fase:

N 2

G (ω ) =

−1

∑ 2a j =0

F (ϖ ) = −ϖ

j

 N −1  cosϖ . − j 2  

N −1 2

Un promedio móvil anual, es una tasa Tipo II, con doce coeficientes N=12 de valor a j =

1 . 12

Con lo que: G (ω ) =

12 −1 2

1



∑ 2 12 cosϖ . j =0

12 − 1  − j = 2 

=

1   12 − 1   12 − 1   12 − 1   12 − 1   12 − 1   12 − 1  − 3  + cosϖ − 4  + cosϖ − 5  = − 1 + cosϖ − 2  + cosϖ cosϖ  + cosϖ  6  2  2 2 2 2 2          

=

1   11   9  7  5  3  1  cosϖ  + cosϖ  + cosϖ  + cosϖ  + cosϖ  + cosϖ   6  2  2  2  2  2  2 

F (ϖ ) = −ϖ

11 . 2

Ejemplo 7.2

Partimos de la serie

a( L) =

(

xt = sin π ⋅ t

3

)+ sin (π ⋅ t 12)

1 11 j ∑L . 12 j = 0

El resultado se ilustra en la figura siguiente:

213

y aplicamos el filtro lineal

2,5 2 1,5 1 0,5 0 -0,5 1 3 5 7 9 111315171921232527293133353739414345474951 -1 -1,5 -2 -2,5 Serie original

Serie filtrada

El promedio movil de 12 términos produce una salida en donde se promedian las oscilaciones de periodo inferior a 12 “t”, si se tratara de datos mensuales, la función representada incluye

(

como se ve un ciclo de 6 meses que es el que generalmos con la función sin π ⋅ t

(

años (24 meses) que es el que generamos con la función sin π ⋅ t

12

3

) y otro de 2

), la serie filtrada elimina

las oscilaciones de 6 meses, que son las más frecuentes (en un conjunto de 50 datos dan lugar a 8 ciclos), las que más se dan, y nos presenta las de dos años, que son menos frecuentes que las anteriores (dos ciclos en el conjunto de datos representado). El promedio móvil de 12 términos es por tanto un filtro desestacionalizador, en el sentido de que anula las oscilaciones estacionales, es decir la que tienen lugar al cabo de un año.

La función de ganancia del filtro a ( L) =

1 11 j ∑ L es: 12 j = 0

214

1,2 1 0,8 0,6 0,4 0,2 0 -0,86

0,14

1,14

2,14

3,14

La ganancia del filtro es igual a cero en la frecuencia ω = 2π

12

, 2π , 2π , 2π . Esto 6 4 3

significa que el filtro anula el efecto de cualquier componente de la serie que tenga fluctuaciones con periodo 12, 6, 4 ó 3. Por ejemplo, si se trata de una serie de tiempo mensual el filtro eliminará cualquier oscilación cuatrimestral, semestral o anual presente en la serie. Normalizando el desplazamiento de fase se obtiene que

F (ω )

ω = −5,5 . Esto significa que el

filtro introduce un desfase temporal de 5,5 meses en la serie filtrada.

Un filtro tipo III tiene a su vez la siguiente función de ganancia y fase:

N −1 2

−1

∑ 2a

G (ω ) =

j =0

F (ϖ ) =

π 2

−ϖ

j

 N −1 sin ϖ . − 2 

 j 

N −1 2

Y un filtro tipo IV tiene la siguiente función de ganancia y fase: N 2

G (ω ) ==

−1

∑ 2a j =0

F (ϖ ) =

π 2

−ϖ

j

 N −1  sin ϖ . − j 2  

N −1 2

215

La tasa de crecimiento trimestral a ( L) = 1 − L3 sería un filtro tipo IV, de 4 coeficientes (N=4), con los siguientes valores a 0 = 1 , a1 = 0 , a 2 = 0 y a 3 = −1 . Su función de ganancia se calcularía:

G (ω ) =

4 −1 2

∑ 2a j =0

j

  4 −1   4 −1  4 − 1   3 sin ϖ . − j  == 2 1 sin ϖ − 1 == 2 sin ϖ   + 0. cosϖ 2 2 2        2 

Su función de desfase será F (ϖ ) =

π 2

−ϖ

La tasa de crecimiento interanual a ( L) = 1 − L12 sería un filtro tipo III, de 13 coeficientes (N=13), con los siguientes valores a 0 = 1 , a1 ...a11 = 0 y a12 = −1 . Su función de ganancia se calcularía:

G (ω ) =

13 −1 −1 2

∑ j =0

 13 − 1  2a j sin ϖ . − j = 2  

  13 − 1   13 − 1   13 − 1   13 − 1   13 − 1   13 − 1   = 21sin ϖ − 1 + 0 sin ϖ − 2  + 0 sin ϖ − 3  + 0 sin ϖ − 4  + 0 sin ϖ − 5  =  + 0. cosϖ 2 2 2 2 2 2               12  = 2 sin ϖ   2

y su función de desfase F (ϖ ) =

7.4.

π 2

−ϖ

12 2

EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN

Sean y y z dos vectores de dimensión N. Se define su producto de convolución y ∗ z ; como el vector:

 z 0 y 0 + z1 y N −1 + z 2 y N −2 + ... + z N − 2 y 2 + z N −1 y1   z y + z y + z y + ... + z y + z y  0 1 1 0 2 N −1 N −2 3 N −1 2     z 0 y 2 + z1 y1 + z 2 y 0 + ... + z N −2 y 4 + z N −1 y 3 y∗z =   .    z 0 y N −2 + z1 y N −3 + z 2 y N −4 + ... + z N − 2 y 0 + z N −1 y N −1     z 0 y N −1 + z1 y N −2 + z 2 y N −3 + ... + z N −2 y1 + z N −1 y 0 

216

El producto de convolución se puede expresar de forma matricial:

 yo  y  1  y y∗z =  2  .  y N −2   y N −1

y N −1 yo y1 . y N −3 y N −2

y N −2 y N −1 yo . y N −4 y N −3

. . . . . .

y2 y2 y4 . y0 y1

y1   z o  y 2   z1  y3   z 3  ⋅  .   .  y N −1   z N − 2     y 0   z N −1 

La matriz cuadrada del producto de convulsión recibe el nombre de matriz circulante ya que los elementos de la primera columna van rotando su posición en las columnas sucesivas. La transformada discreta de Fourier del producto de convolución de y ∗ z es el producto de Hadamard de las correspondientes transformadas de y y de z :

DFT ( y ∗ z ) = DFT ( y ) ⋅ DFT ( z ) Una forma de calcular y ∗ z es a traves de la multiplicación coordenada a coordenada de las transformadas de y y de z ; obteniendo la transformada inversa de este vector ( DFT ( y ∗ z ) ). Filtrar una serie puede entenderse como el producto de una convolución; así por ejemplo al emplear el filtro lineal (1 − L) se realizaría el siguiente producto de convolución:

0 − 1 1  0 −1 1   0 0 −1 y∗z =  . .  . 0 0 0  0 0  1

. 0 0   zo  . 0 0   z1  . 0 0   z3   ⋅ . . .   .  . − 1 1   z N −2     . 0 − 1  z N −1 

donde el vector y sería

217

− 1 0   0 y=  0 0    1  Una media móvil centrada de tres términos se expresaría por el siguiente producto de convolución:

1  3 0  0 y∗z =   .   13 1  3

1

3

1

3 0 .

0 1 3

1

.

0

.

0

1

. 3 . .

0

0

.

0

.

. 1 3 0

1

3 3

0  z  o  0   z1     0   z3  ⋅  .   .   1   z N −2  3   1   z N −1  3 

donde el vector y sería:

1   3 0 0 y=   .  1   3 1   3 Para obtener los gráficos de las funciones de ganancia y desfase utilizando la transformada discreta de Fourier, se emplean las siguientes expresiones:

G ( w) = R(ϖ ) + I (ϖ )  − I (ϖ )  F (ω ) = tan −1    R(ϖ )  Centrar el filtro equivale a realizar la siguiente multiplicación matricial

218

1 1 3  3  0 13  0 0 y∗z =   . .  0 0  0  0 [(N − 2) × 1] = [(N

0  z  o  1 . 0 0   z1  3    1 . 0 0   z3  3 ⋅  . . . .   .   0 . 1 0   z N −2  3   1   z N −1  0 . 1 3 3  − 2 ) × N ] × [N × 1] 1

3

.

0

Es decir habría que eliminar las dos últimas filas de la matriz que desarrolla el filtro lineal.

Ejemplo 7.3

Utilizando R vamos a filtrar la serie. > t <- seq(0, 49, by=1) > Z <- sin(pi*t/3)+sin(pi*t/12)

Representamos la serie temporal creada > plot.ts (Z, type="l")

Obtenesmos la transformada de Fourier: > z <- fft(Z)

219

Aplicamos un filtro de media móvil de 12 términos a la serie z y la representamos : > Y <- c(1/12, rep(0, 38), > Y [1] 0.08333333 0.00000000 [5] 0.00000000 0.00000000 [9] 0.00000000 0.00000000 [13] 0.00000000 0.00000000 [17] 0.00000000 0.00000000 [21] 0.00000000 0.00000000 [25] 0.00000000 0.00000000 [29] 0.00000000 0.00000000 [33] 0.00000000 0.00000000 [37] 0.00000000 0.00000000 [41] 0.08333333 0.08333333 [45] 0.08333333 0.08333333 [49] 0.08333333 0.08333333 >

rep(1/12,11)) 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.08333333 0.08333333

0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.00000000 0.08333333 0.08333333 0.08333333

0.2 0.4 0.6 -0.2 -0.6

MVZ[1:39]

>y <- fft(Y) >X <- fft(y*z,inverse=TRUE)/50 > plot.ts (X[1 :39], type="l")

0

10

20

30

40

Time

Obtenemos la función de ganancia del filtro y la representamos: >GW = abs(y) >P = GW[1:25] >f = (0:24)*pi/25 >plot(f, P, type="l")

220

1.0 0.8 0.6 0.0

0.2

0.4

P

0.0

0.5

1.0

1.5

2.0

2.5

3.0

f

La instrucción en R para filtrar series es: > convolve(x, y, conj = TRUE, type = c("circular", "open", "filter"))

De tal manera que el filtrado de una serie por una media móvil de 12 términos centrada con R se realizaría de la siguiente manera: >Y <- c(rep(1,12))/12 >X <- convolve(Z,Y,type="filter") >plot (t [6:44], Z[6:44], main="Filtro MM12 utilizando >lines(t[6:44], X, col="red")

221

convolve(.)" )

0 -1

Z[6:44]

1

Filtro MM12 utilizando convolve(.)

10

20

30

40

t[6:44]

Los filtros pueden ser aplicados en serie, por ejemplo la tasa media de crecimiento trimestral

(1 − L3 )(1 + L + L2 ) , sería la multiplicación matricial de 1 1 0 . 3  3  0 1 3 13 .  0 0 1 . 3 x × ( y × z) = ( x × y) × z =   . . . .  0 .  13 0 1 1 0 .  3 3 − 1 0 0 −1 . 0   z  3 o  3   1 0 0 . 0   0 z1  3   . . . . . 0   z 3   ×  1 0 0 0 . 0   .  3   1 0 0 . 0   z N −2   0 3    1 1   z N −1  0 0 0 . −  3 3 

0 0 0 . 1 3 0

1  0 3  − 1 1  0 0 −1 1   0   0 0 −1 × . . .   .  1  0 0 0 3  0 0 1   1 3 

Utilizando la transformada discreta de Fourier, el filtro se desarrollaría:

DFT (x × y × z ) = DFT ( x) × DFT ( y ) × DFT ( z ) 222

. 0 0   zo  . 0 0   z1  . 0 0   z3  = × . . .   .  . − 1 1   z N −2     . 0 − 1  z N −1 

siendo

− 1 0   0 y=  0 0    1  1   3 0 0 x=   .  1   3 1   3 O bien, DFT (x × y × z ) = DFT ( x × y ) × DFT ( z ) . siendo

− 1   3  0   .  x=   13   0     0 

Ejemplo 7.3

Aplicamos un filtro de diferencia regular para la serie Z del ejemplo 7.2: > Y <- c(-1, rep(0, 48), 1) > Y [1] -1 0 0 0 0 0 0 0 [18] 0 0 0 0 0 0 0 0 [35] 0 0 0 0 0 0 0 0

0 0 0

0 0 0

0 0 0

> y <- fft(Y) > MVZ <- fft(y*z,inverse=TRUE)/50

223

0 0 0

0 0 0

0 0 0

0 0 0

0 0 1

0 0

A continuación diseñamos un filtro de media movil de 3 términos, para obtene un filtro multiplicativo en el que uno de sus múltiplos es el filtro z antes construido. >X <- c(1/3, rep(0, 47), > X [1] 0.3333333 0.0000000 [6] 0.0000000 0.0000000 [11] 0.0000000 0.0000000 [16] 0.0000000 0.0000000 [21] 0.0000000 0.0000000 [26] 0.0000000 0.0000000 [31] 0.0000000 0.0000000 [36] 0.0000000 0.0000000 [41] 0.0000000 0.0000000 [46] 0.0000000 0.0000000

rep(1/3,2)) 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000

0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.3333333

>x <- fft(Y) >MVZ <- fft(x*y*z,inverse=TRUE)/50 >plot.ts (MVZ[1 :39], type="l")

224

0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.3333333

1.0 0.5 0.0 -1.0

-0.5

MVZ[1:39]

0

10

20

30

40

Time

7.5.

DESCOMPOSICIÓN DE SERIES MEDIANTE FILTROS LINEALES.

DE

TIEMPO

Dada una serie temporal expresada en forma de serie de fourier, el modelo básico de tendencia sería:

Tt = a ot cos(0 ⋅ t ) + bot sin(0 ⋅ t ) = aot donde las componentes cíclica y estacional es, stωj = a jt cos(ω j ⋅ t ) + b jt sin(ω j ⋅ t ) , y la componente irregular, et .

El modelo completo de dicha serie temporal tiene la siguiente representación:

R

[

]

Yt = ∑ a jt cos(ω j ⋅ t ) + b jt sin(ω j ⋅ t ) + et j =0

Vista así una serie temporal utilizar la teoría de filtros lineales para describir los componentes de una serie temporal.

225

Ejemplo 7.4

π ⋅t  π ⋅t   + 0,50 cos  + et donde et es una  3   12 

Generamos la serie temporal Yt = 2 + 0,25 cos

distribución normal de números aleatorios con media cero y varianza 0,25 et → N (0;0,25) . La representación gráfica de esta serie sería:

4,5 4 3,5 3 2,5 2 1,5 1 0,5 0

1 0,8 0,6 0,4 0,2 0 -0,2 -0,4 -0,6 -0,8 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 Serie temporal

Ciclo

Se aprecia que la serie temporal sigue el perfil del ciclo creado, si bien difiere de este en el mayor nivel que introduce la tendencia (de valor constante igual a 2), y la mayor irregularidad que le incorpora de la serie aleatoria. El ciclo como se aprecia es un ciclo largo de 24 datos (periodo 24) (de máximo a máximo), que tiene lugar dos veces al cabo de los 50 datos, y un ciclo corto o más frecuente ya que se repite unas 8 veces a los largo del conjunto de datos, y que tiene lugar cada 6 datos (periodo 6).

Pretendemos ahora extraer las señales relevantes de la serie, en este caso serían los dos ciclos a través de filtros lineales, si queremos representar el ciclo largo tenemos varias posibilidades de filtros

la

media

móvil

de

12

términos

que

anulan

las

ω = 2π 12 , 2π 6 , 2π 4 , 2π 3 , ó una media móvil de 6 datos, a( L) = frecuencias ω = 2π , 2π

6

3

, y cuya función de ganancia sería:

226

siguientes

frecuencias

1 5 j ∑ L que anularía las 6 j =0

G (ω ) =

6 −1 2

1



∑ 2 6 cosϖ . j =0

6 −1  − j = 2 

=

1   6 − 1  6 −1   6 −1  cosϖ − 1 + cosϖ − 2  =  + cosϖ  3  2  2 2    

=

1   5  3  1  cosϖ  + cosϖ  + cosϖ   3   2  2    2 

1,2 1 0,8 0,6 0,4 0,2 0 -0,36

0,14

0,64

1,14

1,64

2,14

2,64

3,14

El desfase de la media móvil de 12 datos sabemos que es de -5,5 y la de 6 términos:

F (ϖ ) = w

−ϖ

6 −1 2 = −2,5 . En los resultados gráficos se aprecia que una y otra nos representan w

el ciclo largo pero la media móvil de 12 términos con un coste informativo menor:

227

4,5 4 3,5 3 2,5 2 1,5 1 0,5 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 Serie temporal

MV(12)

4,5 4 3,5 3 2,5 2 1,5 1 0,5 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 Serie temporal

MV(6)

El menor coste informativo de la media móvil de 6 términos la hace más deseable para extraer en este caso el ciclo de periodo 24 que la media móvil de 12 datos.

La media móvil de 3 datos, cuya función de ganancia también hemos representado anteriormente iguala a cero la frecuencia ω = 2π

3

, es decir las que tienen lugar cada 3 datos

(periodo 3), que nosotros no tenemos y atenúa sin anularlas completamente las de menor periodo, es decir el efecto de esta media móvil a nuestro conjunto de datos es anular las frecuencias más altas, es decir las oscilaciones que más veces se dan, que en este caso las que induce la serie aleatoria irregular y dejar pasar las de periodo superior a tres. El resultado gráfico de utilizar esta media móvil es el siguiente:

228

4,5 4 3,5 3 2,5 2 1,5 1 0,5 0 1

4

7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 Serie temporal

MV(3)

Como vemos ahora el filtro deja pasar la tendencia y los dos ciclos que forman la serie, el de 24 datos y el de 6 datos.

Todos los filtros que hemos utilizado tienen en la función de ganancia un uno en las muy bajas frecuencias, esto quiere decir que dejan pasar los ciclos de muy largo plazo, esto es las tendencias, y por el contrario atenúan cuando no anulan las mas altas frecuencias, por ello en su salida las tres medias móviles ha suavizado las oscilaciones irregulares, que persisten en la serie pero muy atenuadas. El filtro, yt = xt − xt −3 = (1 − L3 ) xt , tiene el efecto contrario, ya que su función de ganancia

( 2) .

es, G (ϖ ) = 2 sin 3 ω 2,5 2 1,5 1 0,5 0 -0,36

0,14

0,64

1,14

1,64

2,14

229

2,64

3,14

En la representación gráfica vemos que el filtro anula las oscilaciones de baja frecuencia, es decir, las tendencias, y anula únicamente oscilaciones las que tienen lugar cada tres datos, dejando pasar las de mayor frecuencia. El efecto de este filtro sobre nuestro conjunto de datos sería el siguiente:

5 4 3 2 1 50

43

36

29

22

15

8

1

0 -1 -2 -3 Serie temporal

T(3,1)

Como se aprecia el filtro ha eliminado la tendencia de la serie, ya que la ha centrando la serie en cero y ha dejado pasar su perfil más irregular. En consecuencia a partir de la función de ganancia se podría construir un filtro lineal a nuestros datos que dejara pasar ó anulara la componente deseada.

7.6.

TIPOS DE FILTROS

En la literatura de proceso de señales digitales, los filtros como la media movíl de orden 2

1  2   a ( L) = (1 + L )  se conocen como filtros de corte (notch filter), son aquellos que 2   contienen uno o más profundos cortes o muescas en su función de ganancia. Este en concreto

(

anula las frecuencias de periodo 4 ω = 2π

4

), siendo su función de ganancia la que se

representa en el gráfico siguiente:

230

G (ω ) =

3 −1 −1 2

1



∑ 2 2 cosϖ . j =0

y a2 =

1 3 −1   3 −1  − j  + 0 = cosϖ − 0  = cos(ϖ ) , ya que a 0 = y a  3−1  = 0 ,   2 2 2     2 

1 2 1

0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 -0,36

0,14

0,64

1,14

1,64

2,14

2,64

3,14

Si el filtro introduce ceros uniformemente espaciados en el eje de frecuencias, como el sumador estacional se denominan filtros en peine (comb filters). Los filtros a ( L) =

a( L) =

1 5 j ∑L y 6 j =0

1 11 j ∑ L , son filtros de peine, en los que se introduce un cero en el período p 12 j =0

(frecuencia 2π/p).

El operador autoregresivo a ( L) =

1 , equivale a una media móvil de ∞ términos; cuyo (1 − L)

desarrollo sería : a ( L) = 1 + L + L2 + ...L∞ . La función de ganancia del filtro a ( L) = sería G (ω ) =

a( L) =

1 ϖ  2 sin  2

1 , (1 + L2 )

se

1 , (1 − L)

, (ver Tabla nºIV.2). Un operador autoregresivo de la forma

desarrolla

en

el

siguiente

proceso

de

medias

móviles

a( L) = 1 − L2 + L4 − L6 ...L∞ , y tendría una función de ganancia del tipo : G (ω ) =

1 . 2 cos(ϖ )

Este filtro se comporta de forma opuesta a a ( L) = 1 + L2 , acentuando las oscilaciones de cuatro

231

meses. La ganancia del filtro es muy pequeña salvo en las proximidades del cero estacional, en donde crece muy rápidamente, como puede verse en el Gráfico siguiente.

100 90 80 70 60 50 40 30 20 10 0 0

0,5

1

1,5

2

2,5

3

3,5

Los filtros pueden estar constituidos por un operador autoregresivo y una media media móvil,

a( L) =

(1 − L4 ) , es un ejemplo de este tipo de filtros, y cuando lo desarrollamos, obtenemos (1 − L)

el siguiente filtro lineal:

a( L) =

(1 − L4 ) = (1 − L4 )(1 + L + L2 + ... + L∞ ) = (1 + L + L2 + ... + L∞ ) − ( L4 + L5 + L6 + ... + L∞ ) = (1 − L)

= (1 + L + L2 + L3 )

Cuya función de ganancia es G (ω ) =

4 −1 2



∑ 2 cosϖ . j =0

4 −1   3ϖ  ϖ  − j  = 2 cos  + 2 cos  , otra 2   2  2

 4ϖ  sin   2  , que se obtendría forma alternativa de obtener esta función de ganancia es G (ω ) = ϖ  sin  2

dividiendo las funciones de ganancia de ambos filtros 2 ⋅ sin 4ϖ  y 2 ⋅ sin ϖ  .  2  2

232

4 3,5 3 2,5 2 1,5 1 0,5 0 -0,36

0,14

0,64

1,14

1,64

2,14

2,64

Si el operador autorregresivos es de la forma a ( L) =

3,14

1 , el filtro lineal que lo desarrolla (1 − aL)

es a ( L) = 1 + aL + a 2 L2 + ...a ∞ L∞ , si a < 1 ,la potencia a ∞ llegará un punto en que acercara a cero y el filtro podrá desarrollarse en términos finitos, expresado en su forma más general un

1

filtro autoregresivo toma la forma de α ( L) =

;de igual manera el operador de medias

M −1

∑α j =0

j

L

j

móviles se expresa en la forma mas general como β ( L) =

N −1

∑β j =0

j

L j , y en consecuencia un filtro

ARMA(M,N) daría lugar a la siguiente expresión: N −1

∑β a( L) =

j =0

j

Lj .

M −1

∑α j =0

j

L

j

Ejemplo 7.5.

El

modelo

a( L) =

ARMA(1,1),

(1 − 0,5L )Yt

= (1 − 0,8)et

1 − 0,8L et , su linearización sería 1 − 0,5L

233

da

lugar

al

siguiente

filtro

(

)

Yt = (1 − 0,8) + 0,5(1 − 0,8) L + 0,5 2 (1 − 0,8) L2 + 0,5 3 (1 − 0,8) L3 + ... ⋅ et = = (0,2 + 0,1L + 0,05L2 + 0,0125L3 + 0,00078125L4 + 3,05 ⋅ 10 −6 L4 + ...).et Haciendo N=4, el filtro quedaría 0,2 0,1 0,05 0,0125 0,00078125 0   0 0,2 0,1 0,05 0,0125 0,00078125   0. 0 0,2 0,1 0,05 0,0125  . . . . . . y∗z= 0,00078125 0 0 0 0 0  0,00078125 0 0 0 0  0,0125  0,05 0,0125 0,00078125 0 0 0  0,1 0,05 0,0125 0,00078125 0 0 

En donde el vector y sería

0,2     0   .   0 , 00078125   y=  0,0125    0,05     0,1   Utilizando R, construimos el filtro, representamos su función de ganancia. > > > > > >

Y <- c(0.2, rep(0, 45), 0.00078125, 0.0125,0.05, 0.1) y <- fft(Y) GW = abs(y) P = GW[1:25] f = (0:24)*pi/25 plot(f, P, type="l")

234

. . . . . . . .

  zo       z1  0.   z  3  .   .   ⋅ 0,0125  .   0,05   .    0,1   z N − 2     0,2   z N −1  0 0

0.35 0.30 0.25 0.15

0.20

P

0.0

0.5

1.0

1.5

2.0

2.5

3.0

f El filtro diseñado atenúa las altas frecuencias y deja pasar las bajas frecuencias. Este tipo de filtros se denominan de paso bajo.

7.7.

DISEÑO DE FILTROS

Los filtros digitales se aplican usualmente en el dominio del tiempo convolucionando el dato con los coeficientes del filtro, pero también pueden diseñarse en el dominio de las frecuencias.

Existen varias estrategias para el diseño de filtros. En general se busca reproducir, de la manera más precisa posible con un número predeterminado de coeficientes, la respuesta en frecuencia (espectro) deseada del filtro. Una vez diseñado el espectro del filtro a través del cálculo de la Transformada de Fourier Inversa se obtendrían los coeficientes. Dado que no es posible obtener un filtro de longitud finita que se ajuste en forma exacta al espectro deseado, es en este punto donde entran en juego diversas estrategias que buscan obtener un filtro lo más aproximado al efecto que de el se desea. La longitud del filtro es, entonces, uno de los elementos más importantes a tener en cuenta. Por razones prácticas, cuanto más corta es la respuesta impulsiva del filtro, mejor, pero un filtro muy corto puede producir efectos indeseados en las frecuencias cercanas a la que pretendemos atenuar, en tanto que un filtro muy largo, si bien se aproxima

235

más a la respuesta en frecuencias deseada, presenta como desventaja los desfases o su tiempo de respuesta. El uso de ventanas apropiadas para truncar la respuesta impulsiva convenientemente es una técnica muy usual. Otra técnica consiste en modificar iterativamente los coeficientes del filtro obtenidos hasta satisfacer el espectro de frecuencia deseado. Y en el dominio de las frecuencias existen métodos basados en digitalizar funciones racionales de la frecuencia (filtros de Chebyshev, Butterworth, elípticos, etc.).

El uso de ventanas (“window carpentry”), surgió hace ya tres décadas y consiste en toda una batería de métodos y ventanas especialmente diseñadas para obtener un filtro “ideal”. Cada ventana tiene sus propias características en el sentido que producen filtros con determinadas propiedades en la banda de paso, de rechazo y/o de transición. Entre las ventanas más conocidas podemos mencionar: triangular (Bartlet), Hamming, Hanning, Parzen, Daniell, etc., siendo la de Hamming una de las más utilizadas.

Consideremos la ventana mas sencilla; la ventana rectangular. La ventana se define como:

1 0 ≤ n ≤ N − 1  0 n≥N

ϖ ( n) 

su expresión en el dominio e − iϖ es:

( )

a e iϖ = 1 + e −iϖ + ... + e −iϖ ( N −2 ) + e −iϖN =

1 − e − i ϖN 1 − e −iϖ

236

con lo que su respuesta en frecuencia resulta,

( )

a e iϖ = e

 N −1  −iϖ    2 

 Nϖ  sin    2  ϖ  sin   2

 Nϖ  sin   2   N −1  Su función de ganancia sería G (W ) = y su desfase −   ϖ   2  sin   2

Una ventana rectangular o boxcar, tiene el efecto de una media móvil, por ejemplo una media móvil de 6 términos es igual a cero las frecuencia

ω = 2π 3

y

ω = 2π 6

y deja pasar la

oscilaciones o ciclo de frecuencia más baja y atenúa relativamene las de frecuencia más alta, y

2π las intermedias entre

3 y



6 .

La ventana de Hanning por ejemplo, para N=6 da lugar a los siguientes coeficientes :

1 2

 2π ⋅ n      N −1 

ϖ (n) = 1 − cos

1 (1 − cos(0)) = 0 2 1  2π   ϖ (1) = 1 − cos   = 0,5 2  5 

ϖ (0) =

1 2

 4π  5

   = 1,5 

1 2

 6π  5

   = 2 

1 2

 8π  5

   = 1,5 

1 2

 10π  6

   = 0,5 

1 2

 12π  6

   = 0 

ϖ (2) = 1 − cos ϖ (3) = 1 − cos

ϖ (4) = 1 − cos ϖ (5) = 1 − cos

ϖ (6) = 1 − cos

237

su expresión en el dominio e − iϖ es:

( )

a e iϖ = 0 + 0,5e −iϖ + 1,5e −2iϖ + 2e −3iw + 1,5e −4iϖ + 0,5e −4iϖ + 0e −5iϖ Se trata de un filtro FIR simétrico impar (tipo I), que daría lugar a la siguiente respuesta en frecuencia:

( )

a e iϖ = e

− iϖ

N −1 2

N −1

 2 −1   2a cos w. N − 1 − j  + a  j  N −1  ∑ 2    2   j =0  

( )

a e iϖ = e −i 3ϖ (cos(2ϖ ) + 3 ⋅ cos(ϖ ) + 2) Es decir tendría un desfase de -2 periodos y una función de ganancia de G (ϖ ) = (cos(2ϖ ) + 1)

 N −1  = −3  2 

y un desfase de − 

La representación de la función de ganancia es:

1,2 1 0,8 0,6 0,4 0,2 0 0

0,5

1

1,5

2

2,5

3

3,5

Se comprueba que el filtro atenúa considerablemente las altas frecuencias, las que superan los



3.

El método de las ventanas se basa en truncar la respuesta impulsional infinita de un filtro ideal. Como el producto en el dominio del tiempo equivale a una convolución en el dominio de la frecuencia, podemos estudiar el efecto que este enventanado tiene sobre la respuesta frecuencial del filtro:

238

La convolución de una ventana boxcar y una ventana de Hanning ambas con N=6, da lugar a una función de ganancia que se obtendría multiplicando punto a punto las funciones de ganancia calculadas para la media móvil de 6 términos y la ventana de Hanning (6):

Da lugar a un filtro en el que ahora están considerablemente atenuadas las oscilaciones de periodo superior a 6 datos, o las frecuencias más altas a 2π

6

.

El desarrollo lineal del filtro lo resolvemos con el operador de retardos:

(

)(

a( L) = 1 + L2 + L3 + L4 + L5 + L6 0 + 0,5L + 1,5L2 + 2 L3 + 1,5L4 + 0,5L5 + 0 L6 239

)

Que una vez operado da lugar al siguiente filtro FIR tipo II:

(

a( L) = 0 + 0,5L + 2 L2 + 4 L3 + 5,5L4 + 6 L5 + 6 L6 + 5,5L7 + 4 L8 + 2 L9 + 0,5L10 + 0 L10

)

Cuya función de ganancia también puede calcularse como:

 9  7  5  3   1  G ( w) =  cos w  + 4 ⋅ cos w  + 8 ⋅ cos w  + 11 ⋅ cos w  + 12 ⋅ cos w   2  2  2   2   2 

Ejemplo 7.6

π ⋅t  π ⋅t  e  + sin   + et donde t es una distribución 3 12    

Generamos la serie temporal Yt = sin 

normal de números aleatorios con media cero y varianza 0,25 et → N (0;0,25) . Esta serie genera como vemos en la gráfica ciclos de periodo 24 y de periodo 6, y la irregularidad que introduce el error aleatorio incorporado. En la representación gráfica de la serie se puede comprobar los efectos de las ventanas boxcar21, la ventana Hanning, y la convolución de ambas, en la convolución se puede apreciar como se ha eliminado las pequeñas oscilaciones que presentaba la media móvil de 6 términos, quedando prácticamente aisladas las oscilaciones de periodo 24:

21

Para reducir la amplitud de las ventanas hay que dividir por 6 la boxcar y la ventan Hanning, y consecuentemente por 36 la convolución de las dos ventanas.

240

Los filtros de Butterworth, de Chebyshev (tipo I y tipo II) y de Jacobi (elípticos), son filtros RC analógicos cuya respuesta en frecuencia es bien conocida y ajustable de acuerdo a la selección apropiada de sus componentes. Su características es que los espectros de potencia de estos filtros se pueden expresar como funciones racionales de ω, lo que permite, en principio, su factorización.

No obstante diseñar filtros es una tarea compleja que requiere el uso de software matemático y un buen conocimiento de la teoría de filtros digitales. En general requiere tres pasos: •

Establecer las especificaciones del filtro para unas determinadas prestaciones (frecuencias de paso, atenuaciones, ganancias, etc…)



Determinar la función de transferencia que cumpla dichas especificaciones



Realizar la función de transferencia con el software estadístico utilizado

Ejemplo 7.7

El paquete Signal de R, ofrece diversas utilidades para el diseño de filtros, está disponible en CRAN-R / http://cran.r-project.org/web/packages/signal/index.html), su manual se descarga en : http://cran.r-project.org/web/packages/signal/signal.pdf

En primer lugar vamos a realizar una representación gráfica de las ventanas más usuales: >n <- 51 >op <- par(mfrow = c(3,3)) >plot(bartlett(n), type = "l", ylim = c(0,1)) >plot(blackman(n), type = "l", ylim = c(0,1)) >plot(boxcar(n), type = "l", ylim = c(0,1)) >plot(flattopwin(n), type = "l", ylim = c(0,1)) >plot(gausswin(n, 5), type = "l", ylim = c(0,1)) >plot(hanning(n), type = "l", ylim = c(0,1)) >plot(hamming(n), type = "l", ylim = c(0,1)) >plot(triang(n), type = "l", ylim = c(0,1)) >par(op)

241

0

20 40

Index

20 40 Index

20 40

0

20 40 Index

0.0

Index

triang(n)

0.0

hamming(n)

20 40

0

hanning(n)

0.0 0

Index

0

20 40 Index

gausswin(n, 5)

0.0

flattopwin(n)

Index

0.0

boxcar(n)

0.0 0

0.0

20 40

blackman(n)

0.0

bartlett(n)

0

0

20 40 Index

Ahora, vamos a desarrolla un ejercicio similar al ejercicio 7.3 utilizando la técnica de ventanas: > > > > > >

n <- length(x <- -20:24) y <- sin(pi*x/6) +sin(pi*x/12) + rnorm(x)/8 n <- length(x <- -20:24) Filtro <- function(y) convolve(y, hanning(6)/6, type = "filter") plot(x,y, main="Using Hanning(.) for filters") lines(x[-c(1:3 , (n-1):n) ], Filtro(y), col="red")

242

0 -2

-1

y

1

Using Hanning(.) for filters

-20

-10

0

10

20

x > Filtro <- function(y) convolve(y, convolve( boxcar(6)/6, hanning(6)/6) , type = "filter") > plot(x,y, main="Using convolve(.) for filters") > lines(x[-c(1:3 , (n-1):n) ], Filtro(y), col="red")

0 -1 -2

y

1

Using convolve(.) for filters

-20

-10

0

10 x

243

20

ANEXO I. SERIES DE FOURIER SERIE DE FOURIER

Una serie de Fourier es una serie infinita que converge puntualmente a una función continua y periódica. ∞

f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t ) 2 n =1 Donde ω 0 =

2π se denomina frecuencia fundamental; a n y bn se denominan T

COEFICIENTES DE FOURIER. Los coeficientes de una serie de fourier pueden calcularse gracias a la ortogonalidad de las

funciones seno y coseno. Una manera alternativa de presentar una la serie de Fourier es: ∞

f (t ) = C 0 + ∑ C n cos(nω 0 t − θ n ) n =1

Siendo;

Co =

a0

2

 bn  an

; Cn = an2 + bn2 y θ n = arctan

  

Ya que cada par de términos:

a n cos(nω 0 t ) + bn sen(nω o t ) se pueden expresar como:

  an bn cos(nω0t ) + sen(nω0t )  an2 + bn2   a 2 + b2  an2 + bn2  n n  haciendo

 an = cos θ n  2 2 a + b  n n   bn = senθ n  a2 + b2  n n y

 bn   a  n

θ n = arctan

244

la suma puede expresarse solo en función del coseno:

C n [cos θ n cos(nω 0 t ) + senθ n sen(nω 0 t )] = C n cos(nω 0 t − θ n ) ORTOGONALIDAD Se dice que las funciones del conjunto

{ f k (t )} son ortogonales

en el intervalo a < t < b si

dos funciones cualesquiera f m (t ) ; f n (t ) de dicho conjunto cumplen:

para m ≠ n

0 f m(t)f n(t)dt =  rn

b

∫ a

para m = n

Las funciones sen t y cos t son ortogonales en el intervalo − p < t < p ; ya que: π

∫ sent cos tdt =

−π

sen 2t 2

π

=0

−π

Las funciones del conjunto:

{1, cos(ω o t ), cos(2ω o t ), cos(3ω o t ),..., sin(ω o t ), sin(2ω o t ), sin(3ω o t ),...}; donde ω 0 =

2π T T son ortogonales en el intervalo − < t < ; T 2 2

Se verifica probándolo a pares: a) f n (t ) = 1 y . f m (t ) = cos(mω 0 t ) : T/ 2

sen(mω0t) 1 cos (mω0t)dt = ∫ mω0 −T/ 2 =

T/ 2

=

−T/ 2

2sen(mω0T/ 2 ) 2sen(mπ ) = =0 mω0 mω0

b) f n (t ) = 1 y . f m (t ) = sen(mω 0 t ) : T/ 2

∫ 1 sen(mω0t)dt =

−T/ 2

=

− cos (mω0t) mω0

T/ 2

=

−T/ 2

−1 [ cos (mω0T/ 2 )- cos (mω0T/ 2 )] = 0 mω0

c) f n (t ) = cos(nω 0 t ) y f m (t ) = cos(mω 0 t ) :

 0

T /2

∫ cos(mω t)cos(nω t)dt = T / 2 0

−T / 2

0

para m ≠ n para m = n ≠ 0

utilizando las identidades trigonométricas

245

cos A cos B = 1 [cos( A + B ) + cos( A + B)] 2

cos 2 θ = 1 (1 + cos 2θ ) . 2

y

d) f n (t ) = sen(nω 0 t ) y f m (t ) = sen(mω 0 t ) :

 0

T/ 2

∫ sen(mω t)sen(nω t)dt = T/ 2 0

0

−T/ 2

para m ≠ n para m = n ≠ 0

utilizando las identidades trigonométricas

senAsenB = 1 [− cos( A + B) + cos( A − B)] 2

sen 2θ = 1 (1 − cos 2θ ) . 2

y

d) f n (t ) = sen(nω 0 t ) y f m (t ) = cos(mω 0 t ) : T/ 2

∫ sen(mω t) cos (nω t)dt = 0 0

para cualquier m,n

0

−T/ 2

utilizando la identidades trigonométricas

senA cos B = 1 [sen( A + B) + sen( A − b)] 2 CÁLCULO DE LOS COEFICIENTES FOURIER Los coeficientes de fourier se calculan multiplicando f (t ) por cos(mω 0t )º e integrando de –

T/2 a T/2: T /2

∫ f (t ) cos(mω t )dt = 0

a0

−T / 2 ∞

T /2

n =1

−T / 2

∑ bn



T /2 1 2

T/2

∫ cos (mω t)dt + ∑ a ∫ cos (nω t) cos (mω t)dt + 0

n =1

−T / 2

n

0

0

−T / 2

∫ sen(nω t) cos (mω t)dt 0

0

que dada la ortogonalidad de las funciones de seno y coseno implica que: T /2

2 a0 = f (t )dt T −T∫/ 2 T /2

am =

2 T

∫ f (t ) cos(mω t )dt 0

m = 1, 2, 3,...

−T / 2 T /2

bm = T2

∫ f (t )sen(mω t )dt 0

m = 1, 2, 3,...

−T / 2

FORMA COMPLEJA DE LA SERIE DE FOURIER

Consideremos la serie de Fourier para una función periódica f (t ) ; con periodo T =

246



ω0

:



f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t ) 2 n =1 Es posible obtener una forma alternativa usando las fórmulas de Euler:

cos(nω0t ) = 12 (einω0t + e − inω0t ) sen(nω0t ) =

sustituyendo:

1 2i

(einω0t − e −inω0t )



dado que 1 = −i i

f (t ) = 12 a0 + ∑ [an 12 (e inω0t + e −inω0t ) + bn n =1

1 2i

(e inω0t − e −inω0t )]



f (t ) = 12 a0 + ∑ [ 12 (an − ibn )einω0t + 12 (an + ibn )e −inω0t ]

definiendo:

n =1

c0 ≡ 12 a0 , cn ≡ 12 (an − ibn ), c− n ≡ 12 (an + ibn )

quedaría como:

f (t ) =



∑c

n = −∞

n

e in ω 0 t

expresión que se conoce como forma compleja de fourier.

Y sus coeficientes c n pueden obtenerse a partir de los coeficientes a n ; bn como ya se dijo; o bien: T

cn =

1 T



f ( t ) e − in ω 0 t dt

0 TRANSFORMADA DE FOURIER. La Transformada de Fourier; F (ω ) ; se define para una función continua de variable real; f (t ) ;

mediante la siguiente formula:

F(ω ) =

+∞

∫ f(t)e

− 2π iω t

dt

−∞

siendo i =

− 1 ; e 2π i ωt = cos(2πω t ) + isen(2πω t ) y u una variable que representa las

distintas frecuencias. La Transformada de Fourier es una función compleja con una parte real y otra parte imaginaria; es decir:

F (ω ) = R (ω ) + I (ω ) donde R (ω ) es la parte real y I (ω ) es la parte imaginaria. La representación gráfica de la función de magnitud F (ω ) se le denomina Espectro de Fourier y se expresa en términos del modulo del número complejo:

F (ω ) = R 2 (ω ) + I 2 (ω )

247

y al cuadrado de dicha función F (ω ) se le denomina Espectro de potencias. 2

El gráfico de los módulos al cuadrado frente a la frecuencia es el periodograma o espectro empírico de la sucesión f (x) . El periodograma recoge la contribución que tiene cada armónico a la hora de explicar la varianza de cada serie; y cada armónico esta caracterizado por la frecuencia en que tienen lugar los ciclos. Los ciclos que tienen un elevado periodo (desde que tiene lugar un máximo al siguiente máximo) tendrán una baja frecuencia y viceversa. CÁLCULO DEL PERIODOGRAMA. Consideremos la serie temporal X t de la que disponemos de un conjunto discreto y finito de

observaciones T observaciones; generadas por un proceso aleatorio x(t ) como el descrito en el tema 1. Dado que se busca una representación de X t que se ajuste a T observaciones; ajustamos los datos a un polígono trigonométrico que se asemeje a una serie de fourier; escogiendo ω i como:

ω

i

=

2π ⋅ i T

es decir:

(

k

)

(

X t = 1 a o + ∑ a i cos i ⋅ 2π ⋅ t + bi sin i ⋅ 2π ⋅ t 2 T T i =1

(

k

xt = ( X t − µˆ ) = ∑ a i cos i ⋅ 2π ⋅ t i =1

T

)

)+ b sin (i ⋅ 2π ⋅ t T )

22

i

La forma habitual de obtener el periodograma; es estimar por mínimos cuadrados los coeficientes ai y bi para cada k = T

k = (T − 1)

2

2

armónico si el número de observaciones es par T o

si es impar; en un modelo especificado de la siguiente forma:

x t = a cos ω ⋅ t + b sin ω ⋅ t + v t En la que xt sería la serie armónica; ω = ω p =

2π ⋅ p ; T es el tamaño de la serie y coincide T

con el periodo de mayor ciclo que es posible estimar con el tamaño de la serie; p indica el orden del armónico de los

T v ciclos; t es un residuo no explicado al que se puede considerar 2

T

22

nótese que 1 a 0 = 2

∑X i =1

T

t

, lo que implica que a 0

248

=

2 T ∑ Xt T i =1

irrelevante (caso deterministico) o que verifica las propiedades clásicas de la perturbación de los modelos econométricos. El periodograma o estimador del espectro se obtendría entonces a partir de la representación de

I (ω i ) =

T (a 2p + b p2 ) 4π

frente a los p armónicos; en tanto que la contribución de la varianza por

(a cada armónico; sería

2 p

+ b p2 ) 2

.

Si una serie temporal de ciclos empíricos presenta en su periodograma unos pocos ciclos que explican un porcentaje significativo de su varianza; se puede obtener el ciclo teórico de dicha serie temporal a partir de los ω i y de los armónicos correspondientes a dichos ciclos. CALCULO DEL PERIODOGRAMA A TRAVÉS DE LA TRANSFORMADA DISCRETA DE FOURIER Tomando N muestras de una señal periodica y k = f (t k ) de periodo T en instantes separados

por intervalos regulares:

t 0 = 0, t1 =

T 2T kT ( N − 1)T , t2 = ,..., t k = ,..., t N −1 = N N T N

Cabe aproximarla mediante una combinación g (t ) de funciones T-periódicas conocidas que tome en dichos puntos el mismo valor que f. Este procedimiento se conoce como interpolación trigonométrica. Las funciones T-periódicas que se utilizan son los armónicos complejos e jnwt con w =

2π y T

puesto que hay N puntos; si queremos que el problema tenga solución única debemos combinar un total de N armónicos. La función g (t ) utilizada en la aproximación; toma entonces la forma general:

g (t ) =

(

)

1 1 β 0 + β1e jwt + β 2 e j 2 wt + ... + β N −1e j ( N −1) wt = N N

N −1

∑β n =0

n

e inwt

Tal que y k = g (t k ) para cada k=0;1;…;N-1. Entonces:

yk =

1 N

N −1

∑ βη e jnwt = k

n =o

Siendo wN = exp



j 2π

1 N

N −1

∑ βη e n=0

ink 2π

N

=

1 N

N −1

∑ βη w n=0

nk N

; k = 0,1,..., N − 1

 la raíz primitiva N-ésima de la unidad. N 

En forma matricial se expresa:

249

1  y0  1  y  1 w  1    y2  1 w 2   1  .  .  = N .  yk  1 w k    .  ,  . N y  1 w −1   N −1 

[ ]

donde FN = w nk

N −1

n ,k =0

1 w2 w4 . w2k . 2 ( N −1) w

. 1 . wη . w 2η . . . wηk . . η ( N −1) . w

. 1  β 0  . w N −1   β 1  . w 2( N −1)   β 2    . .  .  . w ( N −1)k   β k    . .  ,  . w ( N −1)( N −1)   β N −1 

la matriz de Fourier de orden N.

Al vector β se le denomina transformada discreta de Fourier del vector y ; denotándose como : β = DFT ( y ) . Una forma de obtener la DFT es a través del algoritmo

FFT (Fast Fourier Transform);

desarrollado por diseñado por J.W. Cooley y John Tukey en 1965. Si la función que interpolamos es una función real de periodo T; donde k = 0,1,..., N − 1 ; que utiliza la forma general:

g (t ) = ∑n (a n cos(nwt ) + bn sin(nwt ) ) con w = 2π

ao =

β0 N

T

; suponiendo que N = 2 M ; si β = DFT ( y ) ; entonces:

; an =

− 2 Im(β n ) 2 Re( β n ) β ; (n = 1,2,..., M − 1) ; a M = M ; ; bn = N N N

y el polinomio trigonométrico: M −1

g (t ) = a 0 + ∑ (a n cos(nwt ) + bn (nwt ) ) + a M cos( Mwt ) n =0

250

g (t k ) = y k ;

Ejemplo Utilizamos los datos del ejemplo 2; serie X t ; sin tendencia; que se cargan en R: >y <- c(0.323027827 2.604736789;

;

-0.738124684;

4.537192839;

2.548626219;

-0.281638647;

1.202761696;

2.505164067;

3.786603757;

2.882018343; 2.369627491; 0.852706545; -0.824994893; -1.637716864; 2.25061832; -4.212245866;

-4.628168995; -4.884516748; -4.606265808; -

4.832662799, -5.024859396

,

-5.264607805;

-3.795776075;

3.75917228; -3.827743607; -4.227666609; -2.146472166; 1.299914689;

0.741084701;

2.494315284;

-1.176118654;

0.969390431;

2.572570135; 4.566052768; 4.551800817; 4.093968956

-

1.591509703;

;

4.8307686;

4.506804092;

5.317472861;

3.922041704;

3.119257741;

1.637838373;

1.310811053;

1.30987963;

1.365242501;

1.065470411;

3.278613974;

1.550471324; 0.824032479; -1.747812061; -0.298707783; -1.581339071; 2.24208859;-1.495846423;

-1.044908103;

-0.190374706;

0.380989772;

-

1.01953942; -2.168259106; -1.511547698; -1.230496273; -2.216220919; 2.507357658;

-2.430312769;

1.020897877;

-0.609700176;

-1.93130783;

-1.855687473;

-0.617763633;

-2.8340453;

0.127473247;

-

0.900574754;

0.170835155; -0.849866595; 0.159510213; -1.147782448; -2.817090398; 2.220483265;

-1.701096798;

0.381269939;

1.697401014;

2

.869379435;

2.846112408;

2.707533939;

3.016404109;

2.841756183;

1.633645998;

-

0.298897198;

0.367395225;

0.645278822;

1.092542147;

1.131070577;

-

0.075107037; 0.979539535; 0.480475826; -0.551598408; -1.569180997; 2.198930053; -2.85734981)

Se calcula la transformada de Fourier >z <- fft(y)

A través de la inversa se obtiene de nuevo la serie y: >y2 <- fft(z;inverse=TRUE)/100

Para representar el periodograma solo se necesitan los (n/2)+1 valores de la FFT: >CF = abs(fft(y)/sqrt(100))^2 >P = (4/100)*CF[1:51]

Obtenemos las frecuencias armónicas de 1/100 en pasos de 0 a 0.5; > f=(0:50)/16

y realizamos la representación gràfica del periodograma: > plot(f; P; type="l")

251

4 3 0

1

2

P

0.0

0.5

1.0

1.5 f

Se puede calcular directamente el espectro con: > spec.pgram(y)

252

2.0

2.5

3.0

1e-03

1e-01

spectrum

1e+01

Series: y Raw Periodogram

0.0

0.1

0.2

0.3

0.4

0.5

frequency bandwidth = 0.00289 TEST SOBRE EL PERIODOGRAMA Una forma de contrastar la existencia de algún ciclo en el periodograma de una serie temporal es

el test de Fisher; estadístico g (Fisher; 1929) o relación entre la mayor varianza asociada a una determinada frecuencia ( ω i ); y la varianza total de la serie.

g=

max w p n

n

2

2

w 2∑ P =1

2

p

Para probar la significación del periodo p se contrasta el estadístico g contra la z de una distribución normal (0;1); siendo la regla de decisión rechazar la hipótesis nula sobre un componente periódico en Yt si la g calculada excede de la z en un nivel de significación del 100α%. La manera habitual de contrastar la existencia de algún ciclo en el periodograma de una serie temporal a través del estadístico es calculando:

253

G=

max S 2 2S 2

El ciclo es significativo si el valor G de esta relación es igual al valor crítico calculado según la siguiente fórmula:

Gc = 1 − e

ln( p ) − ln( m )

m −1

Siendo ln(p) el logaritmo neperiano del nivel de probabilidad elegido y m el número total de datos de la serie (en series de más de 30 datos). Una prueba para estudiar la dependencia serial (Durbin; 1969) en series de observaciones estacionarias y1 ,..., yT se realiza sobre la grafica del periodograma acumulado: j

pr

sj = ∑

m

∑p

r =1

r =1

r

donde r = 1,..., m es el periodograma ordinario:

2 pr = T

T

∑y e t =1

(2πirt ) T

2

t

El periodograma p j calculado para series y1 ,..., yT de variables independientes N ( µ , σ 2 ) ; se calcula:

aj =

2 T 2 T  2πjt   2πjt  1   2 2  y cos ; b = y i sin    ; p j = a j + b j ,  j = 1,...,  T  , ∑ ∑ i j T t =1 T t =1  T   T  2   1 

1

1

1

donde  T  = T para T y T − para el extremo de T; por simplicidad asumimos que el 2 2 2  2 extremo de T es T = 2m + 1 . Y su representación gráfica de p j contra j presenta una alta apariencia de irregularidad en su inspección visual. Por ello; una mejor manera de presentar la información de los p j ' s es hacerlo a través del gráfico del periodograma acumulado; s j . Se presupone que cuando y1 ,..., yT esta independientemente y normalmente distribuida;

s1 ,..., s m −1 se distribuye igual que el orden estadístico de m − 1 muestras independientes de la distribución uniforme (0;1). Bartlett’s (1954;1966; p 361) sugiere para probar la independencia serial; probar la máxima discrepancia entre s j y su expectativa; ie. j / m . Para una probar un exceso de bajas frecuencias relativas frente a altas frecuencias; que equivaldría a la expectativa de presencia de correlación serial positiva este enfoque conduce al estadístico:

j  c + = max s j −  j m 

254

Por el contrario un test contra excesos de variaciones de alta frecuencia el estadístico apropiado es:

 j  c − = max − s j  j m  El estadístico que corresponde a las dos partes de la prueba sería:

c = max s j − j

(

j = max c + , c − m

)

Este estadístico esta estrechamente relacionado con el de Kolmogoroiv-Smirnov Dn+ , Dn− , Dn y su forma modificada C n+ , C n− , C n considerado por Pyke (1959) y Brunk (1962). Por ejemplo;

Dn− = max{s j − ( j − 1) (m − 1)}y C n− = c + . j

Los valores críticos para estos estadísticos están dado en la Tabla nºI.1; y el procedimiento para utilizar estos valores es como sigue. Si deseamos probar el test de un exceso de bajas frecuencias frente a las altas frecuencias; entonces el valor obtenido en la tabla, c0 es el valor crítico apropiado al valor de c + ;se dibujaría en el gráfico la línea; y = co + j m y la trayectoria que muestra s j ; obteniendo los valores que sobrepasan la línea

(j

m , s j ) . Si s j

cruza la línea; se rechaza la hipótesis de independencia serial. De igual manera; un test sobre al exceso de altas frecuencias frente a las bajas frecuencias se rechaza si el trayectoria de s j cruza la línea y = −co + j m .

255

Ejemplo Partimos de una serie temporal generada a partir de un paseo aleatorio o random walk:

Yt = 0,5 + Yt −1 + u t .

La serie Yt presenta una tendencia estocástica; y vamos a descomponerla utilizando un modelo armónico; partiendo de una representación de la tendencia ó movimiento relevante de la serie

256

temporal obtenida a partir de una tendencia cuadrática; T

2

ciclos armónicos ( k ) y un residuo

aleatorio vt :

Yt = a + bt + ct 2 + ∑ (a p cos pω 0 t + b p sin pω o t ) + vt k

p

de manera que

Yt − a − bt − ct 2 = X t = ∑ (a p cos pω 0 t + b p sin pω o t ) + vt k

p

En las figuras siguientes se representa la serie de tendencia y la serie de ciclo en la que se va a estimar un modelo de regresión armónica: 60 50 40 30

serie tendencia

20 10 0 1

8

15

22

29 36

43

50 57

64 71

78

85 92

99

-10

(

El armónico de periodo 100 se elabora a partir de cos 2π ⋅ t

100

) y sin (2π ⋅ t 100)para

t=1;….;100. La representación gráfica de ambas series aparece en la figura siguiente:

257

La regresión minimo cuadrática entre ambas series y la serie libre de tendencia ( X t ); ofrece el siguiente resultado:

(

X t = 1,9645989 cos 2π ⋅ t

100

)+ 0,1982775 sin (2π ⋅ t 100)+ v

t

El armónico de periodo 100 tendrá la apariencia de la figura siguiente:

Este proceso repetido para los 50 periodos permite obtener los coeficientes con los que elaborar el peridograma y obtener la contribución de cada armónico a la varianza de la serie:

258

Frecuencia

Periodo

ap

bp

( I (ω ) =

T a 2p + bp2

i



) (a

2 p

+ b p2 2

1

100;0

1;9645989

0;1982775

31;0269598

1;94948138

2

50;0

-4;5393342

-1;2467640

176;3434804

11;0799877

3

33;3

-0;8601427

0;9799692

13;5296423

0;8500925

4

25;0

0;0835776

0;8487047

5;7875496

0;36364247

5

20;0

0;4166653

-0;3232265

2;2129323

0;13904264

6

16;7

-0;2059344

-0;3631882

1;3871519

0;08715732

7

14;3

0;4043324

-0;6204093

4;3639683

0;27419622

8

12;5

0;9442994

0;2493234

7;5906052

0;47693179

9

11;1

0;3926785

-0;0310192

1;2347129

0;0775793

10

10;0

0;1283672

-0;0894678

0;1948265

0;01224131

11

9;1

0;5348622

-0;1026948

2;3604572

0;1483119

12

8;3

0;4157705

-0;6015541

4;2552659

0;26736624

13

7;7

-0;0913588

-0;1203558

0;1816908

0;01141597

14

7;1

-0;3283259

-0;6568280

4;2909838

0;26961046

15

6;7

0;2314942

-0;3688880

1;5093294

0;09483396

16

6;3

0;0228915

-0;5384152

2;3110490

0;14520749

17

5;9

0;6861954

0;2823306

4;3813344

0;27528736

18

5;6

-0;0680460

0;2345241

0;4745347

0;02981589

19

5;3

0;3848785

-0;1703442

1;4097036

0;08857429

20

5;0

0;0347357

0;6665654

3;5453033

0;22275798

21

4;8

0;1779031

-0;4472488

1;8436590

0;11584051

22

4;5

-0;4350383

0;1164205

1;6139270

0;10140602

23

4;3

0;1130713

-0;3521380

1;0885109

0;06839315

24

4;2

0;1497142

-0;0947065

0;2497433

0;01569184

25

4;0

-0;0408499

-0;2790311

0;6328565

0;03976354

26

3;8

0;4000049

-0;0587758

1;3007618

0;08172927

27

3;7

-0;1788847

0;1668144

0;4760862

0;02991338

28

3;6

0;0722675

-0;0849189

0;0989451

0;0062169

29

3;4

0;3224180

-0;0273876

0;8332036

0;05235173

30

3;3

-0;2087289

0;0631024

0;3783880

0;02377482

31

3;2

0;1048227

-0;2653191

0;6476174

0;040691

32

3;1

0;1786666

-0;3176133

1;0567885

0;06639998

33

3;0

-0;1230019

-0;1984293

0;4337265

0;02725184

34

2;9

-0;0622384

0;0264338

0;0363857

0;00228618

35

2;9

-0;1590939

-0;1623496

0;4111630

0;02583413

36

2;8

0;1014609

-0;1111765

0;1802790

0;01132727

37

2;7

0;2002842

-0;1353838

0;4650711

0;02922128

38

2;6

0;0203165

-0;3006128

0;7224110

0;04539042

259

)

Frecuencia

Periodo

ap

bp

( I (ω ) =

T a 2p + bp2

i

) (a

2 p



+ b p2

)

2

39

2;6

-0;1624371

-0;1121361

0;3100362

0;01948015

40

2;5

0;0803258

-0;0195769

0;0543950

0;00341774

41

2;4

0;2538179

-0;0592717

0;5406229

0;03396834

42

2;4

0;1153917

0;0975809

0;1817332

0;01141864

43

2;3

0;0424267

-0;0466046

0;0316083

0;00198601

44

2;3

-0;1812651

0;0086732

0;2620665

0;01646612

45

2;2

0;1713397

-0;1175139

0;3435104

0;0215834

46

2;2

0;1209881

0;0456828

0;1330937

0;00836253

47

2;1

0;2881007

-0;3457646

1;6118830

0;1012776

48

2;1

0;0070527

0;0817615

0;0535929

0;00336734

49

2;0

0;0804486

-0;1183934

0;1630461

0;01024449

50

2;0

0;0000000

-0;0938575

0;0701016

0;00440461

Como vemos es el segundo armónico; el ciclo de periodo 50; el que más contribuye a la varianza de la serie.

La representación gráfica del periodograma de la serie de ciclo sería entonces el siguiente:

Para comprobar la significación estadística del ciclo de o periodo 50; calculamos es estadístico G =

max S 2 11,07999 = = 0,37605 2 2 × 18,0681 2S

El ciclo es significativo para un nivel de probabilidad del 95% ya que el valor G de esta relación superior al valor crítico calculado Gc = 1 − e

ln( 0 , 05 ) − ln( 50 ) 49

= 0,1315 .

La representación gráfica del test sobre el periodograma acumulado:

260

1,4000000 1,2000000 1,0000000 0,8000000 0,6000000 0,4000000 0,2000000 0,98

0,92

0,86

0,8

0,74

0,68

0,62

0,56

0,5

0,44

0,38

0,32

0,26

0,2

0,14

0,08

-0,2000000

0,02

0,0000000

Contrastar la presencia de ciclos de baja frecuencia frente a los ciclos de alta frecuencia; al cruzar la trayectoria de s j ; la banda superior de los valores críticos del test.

ENVENTANADO

Hasta ahora hemos supuesto que las frecuencias eran frecuencias de Fourier y por tanto

T ω = ω p = 2π ⋅ p T ; donde p indica el orden del armónico de los ciclos si T es par o 2

T −1 si T es impar; y se interpreta como el número de veces que un sinusoide (un armónico) de 2 frecuencia ω p ejecuta un ciclo completo en la muestra considerada; es decir si p = 4 ; la frecuencia asociada ω 4 = 2π ⋅ 4

T

al armónico determina que este ejecute 4 ciclos completos a

lo largo de T. A este tipo de frecuencias se denominan frecuencias de Fourier; Si suponemos que existe un armónico que se repite cuatro veces y media; dicha frecuencia no producirá ciclos enteros en la muestra y nos encontramos con una frecuencia que no es de Fourier.

Estas frecuencias originan un problema que se denomina “leakage” o distorsión; que determina que los pesos significativos del periodograma se repartan entre frecuencias contiguas. Una de las maneras de solucionar el “leakage” consiste en aplicar transformar la serie original multiplicándola por una expresión que se denominan “Data Windows” o “taper”; y obtener el periodograma a partir de la serie transformada.

Así es estimador de la función de densidad espectral puede considerarse como:

fˆ (ω ) = w ⋅ I

261

Donde w es la función de pesos o ventana espectral y I es el periodograma. Dado de que lo que se trata es de promediar algunos valores contiguos del periodograma; podría utilizarse una media móvil de amplitud n :

n −1 1  ; t = 0 ± 1 ± 2 ± ... ± wt =  n 2 0; en otro caso  Han sido propuestas gran número de ventanas; las más utilizadas son: Ventana de Tuckey

 t wt = 1 − 2a + 2a cos π  ; t = 1,2,...., T  T Cuando a = 1 ; tenemos la ventana de Tuckey-Hamming.

4



Ventana de Parzen

3 2   t  T t 1 − 6  + 6  , t = 1,2,..., 2 T  T    3 wt =   t  T 21 −  , t = ,..., T M  2   



“Boxcar”;

(

)

   π t + 1  1 2 , t = 1,2,..., m  1 − cos  2 m        wt =  1, t = m + 1, m + 2,...T − m    2π t + 1  1   2 , t = T − m + 1,..., T  2 1 − cos  T    

(

)

donde m es arbitrario; si bien suele elegirse un valor de m m tal que 2m

T

se sitúe entre 0;1 y

0;2. RELACIÓN DEL PERIODOGRAMA Y LA FUNCIÓN DE AUTOCOVARIANZA En un sentido amplio; para que un proceso sea estacionario es suficiente que su esperanza y su

función de autocovarianza sea independiente de t. Es decir;

262

E ( xt ) = E ( xt + k ); ∀k . Si un proceso es estacionario en media; entonces µˆ =

1 n ∑ xi es un estimador insesgado y n i =1

consistente de E ( xt ) . Si un proceso es estacionario en covarianza; se cumple la siguiente igualdad γ (t ,τ ) = E ({x(t ) − E[x(t )]}⋅ {x(t + τ ) − E [x(t + τ )]}) = γ (τ ) ; lo que significa que la función de autocovarianza no depende de t; γ (τ ) = γ (−τ ) ; y el estimador de γ (τ ) viene dado por

1 n−k ∑ ( xt − µˆ )( xt + k − µˆ ) . n t =1

C(K ) =

La varianza; γ (0) ; se estimaría a partir de C (0) =

1 n ∑ ( xt − µˆ )( xt − µˆ ) . n t =1

La idea básica del análisis espectral es que todo proceso estocástico estacionario admite una descomposición única de su varianza; en la aportación que a la misma realizan armónicos de diferentes frecuencias. Un armónico de frecuencia ω es una función de la forma:

aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) 23 En el análisis armónico; las series temporales no son consideradas funciones continuas como tal; sino que se obtienen a partir de una suma de n ciclos con una amplitud y un periodo determinado; o lo que es lo mismo n de diferentes armónicos: n

x(t ) = ∑ a i cos(ω i ⋅ t ) + bi sin(ω i ⋅ t ) ; 0 < ω1 < ω 2 < ... < ω n ≤ π i =1

Siendo a i y bi variables aleatorias con24

E (ai ) = E (bi ) = 0 σ 2 ; si i = j E (ai a j ) = E (bi b j ) =   0; si i ≠ j E (ai b j ) = 0 ∀i, j En este tipo de procesos la función de autocovarianza γ (τ ) se obtiene: n

γ (τ ) = ∑ σ i2 cos(ω i ⋅ τ ) i =1

23

La expresión

aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) da lugar a una función periódica de periodo 2π

24

ω

La estacionariedad de este proceso aleatorio puede seguirse en Contreras, D y Escolano J (1984): EI análisis espectral como instrumento para detectar la estacionalidad. ESTADISTICA ESPAÑOLA Núm. 104, i 984, págs. 101 a 144 http://www.ine.es/revistas/estaespa/104_6.pdf

263

En donde σ i es la varianza del armónico i-esimo; de manera que en γ (0) =

n

∑σ i =1

2 i

se muestra

que la varianza total del proceso es la suma de las varianzas de cada armónico. TEOREMA DE PASERVAL Sea f una función continua en el intervalo [− π , π ] de periodo 2π ; con desarrollo de Fourier

de f : ∞

∑c e

f ( x) =

x = −∞

inx

n

donde los coeficientes

c n han sido obtenidos a partir de los coeficientes a n , bn .

Entonces se verifica que: ∞

∑a

n = −∞

2

n

=

1 2π

π

∫ π f (x ) −

2

dx

Particularizando a la serie función periódica f (t ) , con periodo T =



ω0

:



f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t ) 2 n =1 La identidad de Paaserval quedaría: ∞

[ f (t )]2 = 1 ao2 + ∑ a n2 + bn2 ∫ π π 2 n =1 1

−π

Las series temporales no son consideradas funciones continuas como tal; sino muestras de señales continuas tomadas a una misma distancia temporal a partir de un valor inicial Yo y siendo T el tamaño de la serie. De acuerdo a lo anterior; en la función periódica f (t ) la potencia promedio está dada por: T

(

1 −T 2 1 2 1 2 2 2 [ f ( t ) ] = ao + ∑ a n + bn2 T ∫T 2 4 2 n =1

)

que muestra así que el periodograma estudia de hecho la distribución de la varianza o potencia de la serie en función de los diversos armónicos:

σ2 =

1 q −1 2 a n + bn2 + aT2 , q = T ∑ 2 2 2 n=1

(

)

CROSS-ESPECTRO DE UN PROCESO BIVARIANTE

264

Un proceso bivariante z (t ) es un par formado por dos procesos univariantes; x(t ) y y (t ) ; donde E [x(t )] = µ x (t ) y E [ y (t )] = µ y (t ) . La función de autocovarianza de x(t ) será:

γ x (t ,τ ) = E{( x(t ) − µ x (t ) )( x(t + τ ) − µ x (t + τ ) )} en tanto que la función de autocovarianza de y (t ) será:

γ y (t ,τ ) = E {( y (t ) − µ y (t ) )( y (t + τ ) − µ y (t + τ ) )} Se denomina función de cross-varianza o covarianza cruzada a:

γ xy (t ,τ ) = E {( x(t ) − µ x (t ) )( y (t + τ ) − µ y (t + τ ) )}

Hay que señalar que γ xy (t ,τ ) no es igual a γ yx (t ,τ ) ; pero existe una relación entre las dos funciones; ya que

γ xy (t ,τ ) = γ yx (t + τ ,−τ ) Señalar; por último; que la covarianza entre x(t ) y y (t ) sería γ yx (t ,0) . Si se asume la estacionariedad de x(t ) y y (t ) ; entonces E [x(t )] = µ x y E [ y (t )] = µ y ; y la función de cross-varianza no dependerá más que del retardo τ . Suponiendo que µ x = µ y = 0 ; se comprueba que γ xy (t ,τ ) ; no depende más que del retardo τ ; es decir γ xy (t ,τ ) = γ xy (τ ).

γ xy (t ,τ ) = E{(x(t ) )( y (t + τ ) )} = E{( x(t + s) )( y (t + s + τ ) )}, ∀s, t La función de correlación cruzada se define como:

ρ xy (τ ) =

γ xy (τ ) γ x (0)γ y (0)

Cuando τ = 0 ; γ xy (0) es la covarianza habitual y

ρ xy (0) =

γ xy (0) γ x (0)γ y (0)

el coeficiente de correlación de Pearson entre x(t ) y y (t ) . Los estimadores de γ xy (τ ) y ρ xy (τ ) se calculan así:

 1 T −k  T ∑ ( x(t ) − x )( y (t + k ) − y ) ; k = 0, 1, ... , T − 1 C xy (k ) =  T − k t =1  1 ∑ ( x(t ) − x )( y (t + k ) − y ) ; k = −1, −2, ... ,−(T − 1) T t =1

265

C xy (k )

rxy (k ) =

C x ( 0) ⋅ C y ( 0)

La función de autocovarianza que obtenemos en el dominio temporal; tiene también su correspondiente representación en el dominio frecuencial; esta es el cross-espectro o espectro cruzado. Así; si partimos de dos procesos estacionarios x(t ) y y (t ) ; con la siguiente representación espectral: π

π

0

0

π

π

0

0

x(t ) = ∫ cos ωt ⋅ dU x (ω ) + ∫ senωt ⋅ dV x (ω ) y (t ) = ∫ cos ωt ⋅ dU y (ω ) + ∫ senωt ⋅ dV y (ω ) Donde U i (ω ) e Vi (ω ) ; i = x, y son procesos estocásticos con dominio definido en (0, π ) ; con media 0 y de incrementos incorrelacionados. Dado que dichos procesos son conjuntamente estacionarios en covarianza; se demuestra que:

[

]

[

]

[

]

[

]

E dU x (ω ) ⋅ dU y (ω ' ) = E dV x (ω ) ⋅ dV y (ω ' ) = E dU x (ω ) ⋅ dV y (ω ' ) = E dV x (ω ) ⋅ dU y (ω ' ) = 0 si ω ≠ ω '

[ E [dU

] [ ] (ω )] = − E [dV (ω ) ⋅ dU (ω )] = q (ω )dω

E dU x (ω ) ⋅ dU y (ω ) = E dV x (ω ) ⋅ dV y (ω ) = C (ω )dω x

(ω ) ⋅ dV y

x

y

Funciones que permiten expresar la cross-varianza como: π

π

0

0

γ xy (τ ) = ∫ cos ωt ⋅ C (ω )dω + ∫ senωt ⋅ q (ω )dω Que implica que la covarianza entre x(t ) e y (t ) sea: π

γ xy (0) = ∫ C (ω )dω 0

El cross-espectro se formula como:

f xy (ω ) =

1



∑γ πτ = −∞

xy

(τ ) ⋅ e −iωτ ; 0 ≤ ω ≤ π

Dado que en general el cross-espectro es complejo; se define el cross-espectro (C) como la parte real de cross-espectro y el espectro de cuadratura (Q) como la parte imaginaria; que además coinciden con C (ω ) y q (ω ) :

f xy (ω ) = C (ω ) − iq (ω )

266

Entonces se deduce que:

1



C (ω ) =

∑ γ xy (τ ) ⋅ cos ωτ π τ =−∞

q (ω ) =

1



∑ γ xy (τ ) ⋅ senωτ π τ = −∞

Otra forma de presentar las funciones C (ω ) y q (ω ) ; sería la siguiente:

C (ω ) = C (ω ) =



1 2π

∑γ τ

1 2π

∑γ τ

= −∞

xy

(τ ) ⋅ cos ωτ

xy

(τ ) ⋅ cos ωτ ; − π ≤ ω ≤ π



= −∞

La representación trigonométrica del cross-espectro será:

f xy (ω ) = α xy (ω ) ⋅ e

iφ xy (ω )

Donde

α xy (ω ) = C 2 (ω ) + q 2 (ω ) Se conoce como espectro de cross-amplitud. Y

 − q(ω )    C (ω ) 

φ xy (ω ) = arctg 

Llamado espectro de fase. Del cross-espectro y de la función de densidad espectral individual de las dos series x(t ) e y (t ) se obtiene la función de coherencia:

R(ω ) =

C 2 (ω ) + q 2 (ω ) . f x (ω ) ⋅ f y (ω )

El cross-espectro representa la aportación a la covarianza entre x(t ) y y (t ) de sus diversos componentes armónicos. Como su interpretación no es simple; se utilizan las funciones de espectro de fase y coherencia; ya que el espectro de fase revela el desfase o retardo que en el comportamiento cíclico sigue una serie respecto a la otra; y el análisis de la función de coherencia permite identificar si la correlación que se da entre las dos series se debe a que ambas siguen un comportamiento cíclico en determinados periodos; permitiendo identificar la duración o periodo de los armónicos que dominan en ambas series a la vez y que producen una alta correlación.

267

La construcción del cross-espectro cuando τ = 0 ; y γ xy (0) es la covarianza habitual; da lugar a las siguientes funciones C (ω ) y q (ω ) :

γ xy (0) 2π

C (ω ) =

q (ω ) = 0 Ya que el coseno de ωτ = 0 ; es uno; y su seno es cero. Si E [x(t )] = µ x = 0 y E [ y (t )] = µ y = 0 ; es decir ambas series tienen un valor medio igual a cero; la covarianza entre xt e y t ; sería γ xy (0) =

T

∑x y t =1

t

t

;y la parte real del cross-espectro se

obtendría a partir de:

1 2π

C (ω ) =

T

∑x y t =1

t

t

TEOREMA DE PLANCHAREL Sean A(x) y B (x) dos funciones continuas de periodo 2π cuyos desarrollos de Fourier son

A( x) =



∑a e

x = −∞

inx

n

y

B( x) =



∑b e

x = −∞

inx

n

Entonces se verifica la relación de Plancharel entre los correspondientes productos escalares:



∑a b

n = −∞

n n

=

1 2π

π

∫ π A(x )B(x )dx −

Si A( x) = B ( x) se obtiene la identidad de Parseval ∞

∑a

n = −∞

2

n

=

1 2π

π

∫ π A(x ) −

2

dx

De igual manera que la identidad de Parseval estudia la distribución de la varianza de una serie desarrollada en sus armónicos, la de Plancharel estudia la covarianza entre dos series desarrolladas en sus armónicos.

268

Partiendo de una serie armónica xt = k

(

∑ (a k

p =1

p

cos pϖ 0 t + b p sin pω o t ) y otra definida como

)

yt = ∑ a *p cos pϖ 0 t + b *p sin pω o t , en donde k = T p =1

( ) observaciones es par T o k = T − 1

2

2

armónicos si el número de

si es impar, la expresión de la igualdad de Plancharel

sería: T

(

1 −T 2 1 2 * y x = a n a n + bn*bn ∑ t t ∫ T T 2 2 n =1

)

El producto escalar de xt por y t T  k  * * x ⋅ y = ∑ (a p cos pϖ 0 t + b p sin pϖ o t ) a p cos pϖ 0 t + b p sin pϖ o t  ∑ ∑ t t t =1 t =1  p =1  T * * 2 a a +b b p p T ∑ p p 2 t =1 2

(

T

(

equivale a

)

.

269

)

BIBLIOGRAFÍA Albright,R., Lerman,S. y Manski,C. (1977), “Development Of An Estimation Program For The M. Probit Model”. Federal Highway Administration

Akaike, H. (1974), “A new look at the statistical model identification”, IEEE Transactions on Automatic Control AC-19, pp. 716–723.

Amemiya, T. (1978), “On A Two-Step Estimation Of A Multivariate Logit Model”, Journal Of Econometrics 8.

Anderson, R. L. (1942), “Distribution of the Serial Correlation Coefficient”, Annals of Mathematical Statistics, 1942: 1-13.

Aznar, A. y Trívez, F. J. (1993), Métodos de Predicción en Economía II: Análisis de Series Temporales, Ed. Ariel.

Balestra, P. y Nerlove, M. (1966), “Pooling Cross Section And Time Series Data In The Estimation Of Coefficients In A Structural Equation”, Econometrica 34.

Bassmann, R. (1957). “A Generalized Classical Method Of Linear Estimation Of Coefficients In A Structural Equation.” Econometrica 25, pp. 77-83

Box, G.E.P., Jenkins, G.M. y Reinsel, G.C. (1994), Time Series Analysis - Forecasting and Control, 3rd Edition, Prentice Hall.

Breitung J, Bruggemann R, L Lutkepohl H (2004). “Structural Vector Autoregressive Modeling and Impulse Responses”. In H Lutkepohl, M Kratzig (eds.), “Applied Time Series Econometrics,” chapter 4, pp. 159–196. Cambridge University Press, Cambridge

Burns, A.F. y Mitchell, W.C. (1947), Measuring Business Cycles, New York: Columbia University Press For The NBER.

Chateld, Cris (2004). The Analysis of Time Series: An Introduction (6th edn.), 2004. CRC Press

270

Chow, G.C. (1983), Econometrics, McGraw-Hill, New York.

Christ (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28, pp. 835-845. Cleveland, R.B. , Cleveland W. S., McRae J. E, y Terpenning I. (1990). “STL: A SeasonalTrend Decomposition Procedure Based on Loess”. Journal of Official Statistics, 6, 3–73.

Cochrane, D. y Orcutt, G. H. (1949a), “Application Of Least Squares Regression To Relationships Containing Autocorrelated Error Terms”, Journal of American Statistical Association 44, pp. 32-61.

Cochrane, D. y Orcutt, G. H. (1949b), “A Sampling Study Of The Merits Of Autorregressive And Reduced Form Transformations In Regression Analysis” Journal of American Statistical Association 44, pp. 356-372.

Contreras, D y Escolano J (1984): “EI análisis espectral como instrumento para detectar la estacionalidad”. ESTADISTICA ESPAÑOLA Núm. 104, i 984, págs. 101 a 144 .

Dickey, D.A. y W.A. Fuller (1979), “Distribution of the Estimators for Autoregressive Time Series with a Unit Root,” Journal of the American Statistical Association, 74, p. 427–431.

Durbin, J. y Koopman, S. J. (2001), Time Series Analysis by State Space Models (Oxford Statistical Science Series, nº 24), Oxford University Press.

Durbin, J. y Watson, G. S. (1950), “Testing for Serial Correlation Least Squares Regressions”, Biometrika, vol 37. pp. 409-428.

Engle, Robert F. (1974), Band Spectrum Regression,International Economic Review 15,1-11.

Frisch, R. (1933). Pitfalls In The Statistical Construction Of Demand and Supply Analysis, Hans Buske Verlag. Leipzig.

Frisch, R. (1936). “Note On Term 'Econometrics' “, Econometrica 1, pp. 1-4. Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased Form." J. Econometrics 15(1981):211-45.

271

Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15 Goldfield, S. M. y Quandt, R. E. (1965), “Some test for Homocedasticy”, Journal of American Statistical Association. Vol 37. pp 539-547.

Granger, C. W. J. (1969), “Investigating causal relations by econometric models and crossspectral methods”, Econometrica 37, p. 424-438.

Granger, C.W.J.(1981), “Some properties of time series data and their use in econometric model specification”, Journal of Econometrics 16, pp. 121-130.

Granger, C.W.J., y Newbold, P. (1974), “Spurious regressions in econometrics”, Journal of Econometrics 2, pp. 111-120

Greene, W. H. (2000), Análisis Econométrico, Ed. Prentice Hall

Gujarati, D. (1997), Basic Econometrics, McGraw-Hill

Gujarati, D. (2003), Econometría, Ed. McGraw-Hill Haavelmo, T. (1943). “The Statistical Implications Of A System Of Simultaneous Equations.” Econometrica 11, pp. 1-12.

Haavelmo, T. (1944). “The Probability Approach In Econometrics”, Suplemento de Econometrica 12. pp. 1-118. Hamilton, J. D. (1994), Time Series Analysis, Princeton University Press.

Hannan, E.J. (1963), Regression for Time Series, in Rosenblatt, M. (ed.), Time Series Analysis, New York, John Wiley.

Harvey, A.C. (1978), Linear Regression in the Frequency Domain, International Economic Review, 19, 507-512.

Hausman, J.A. (1974), “Estimation and Inference in Nonlinear Structural Models”, Annals of Economic and Social Measurement, con Berndt E., Hall R.E. y Hall, B.H. October 1974.

272

Hausman, J.A. (1974): “Full Information Instrumental Variables Estimations of Simultaneas Equations Systems”, Annals of Economic and Social Measurement, Vol 3. nº 4. pp. 641-652.

Hausman, J.A. (1978), “Specification tests in econometrics”, Econometrica, 46, pp. 1251-71.

Hildreth, C. (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28, pp. 846-854.

Hyndman, R. (2014): Forecasting functions for time series and linear models. R-Package Version 5.5, URL http://cran.r-project.org/web/packages/forecast/index.html

Hsiao, C. (1986), Analysis of Panel Data. Cambridge University Press.

Johnston, J. (1997), Econometric Methods. McGraw-Hill.

Johnston, J. y Dinardo, J. (2001), Métodos De Econometría, Ed. Vicens-Vives 3ª Ed.

Intriligator, M. D. (1978). Econometrics Models. Techniques And Applications. North-Holland. New York.

Klein, L. R. (1960). “Single Equation Vs. Equation System Methods Of Estimation In Econometrics.” Econometrica 28, pp. 866-871.

Klein, L. R. y Goldberger, A. (1955), An Econometric Model Of United States, 1929-1952. North-Holland, Amsterdam.

Koopmans, T.C., Rubin, H. y Leipnik, R.B. (1950). “Measuring The Equation System Of Dinamic Economics”, en Statistical Inference In Dinamic Economic Models, Cowles Commision Monografico nº 10. John Wiley. Nueva York.

Kuh, L.M. (1959), “The Validity Of Cross-Sectionally Estimated Behavior Equations” Econometrica 27.

Liu, T. (1960), “Underidentification, Structural Estimation, And Forecasting” Econometrica 28, pp. 855-865.

273

Lucas, R.E. (1972), “Expectations And The Neutrality Of Money” Journal Of Economic Theory 4, pp. 103-124.

Lucas, R.E. (1973), “Some International Evidence On Output-Inflation Tradeoffs”, American Economic Review 63, pp.326-334.

Lucas, R. E. (1976), “Econometric Policy Evaluation: A critique”, Journal of Monetary Economics 1, nº 2, Supplementary Series: 19-46.

McFadden, D. (1974), “Conditional Logit Analysis Of Qualitative Choice Behaviour”, en Frontiers In Econometrics, Ed. P. Zarembka, Academic Press. Nueva York.

McFadden, D. (1976), “Quantal Choice Analysis: A Survey”, Annals Of Economic And Social Measurement.

Melis F.(1991):La estimación del ritmo de variación de las series económicas. Estadística Española Vol 22,Num. 126, pgs 7 a 56.

Mitchell, W. C. (1928), Business Cycles: The Problem In Its Setting. National Bureau Of Economic Research.

Mood, A. M. (1950), Introduction to the Theory of Statistics, McGraw-Hill.

Moore, H. L. (1914), Economic Cycles: Their Law And Causes. Macmillan Press. Nueva York.

Moore, H. L. (1917), Forecasting The Yield And The Price Of Cotton. Macmillan Press.

Muth, J.F. (1961), “Rational Expectations And The Theory Of Price Movements”, Econometrica 29, pp. 315-335.

Novales, A. (1993), Econometría, 2ª Edición, McGraw-Hill.

Parra F (2014): Seasonal Adjustment by Frequency Analysis. Package R Version 1.1. URL: http://cran.r-project.org/web/packages/descomponer/index.html

274

Pindyck, R. S. y Rubinfield, D. L. (1976), Econometric Models and Economic Forecast, McGraw-Hill.

Pindyck, R. S. y Rubinfield, D. L. (1980), Modelos Econométricos, Ed. Labor. Pfaff B (2008). “VAR, SVAR and SVEC Models: Implementation Within R Package vars." Journal of Statistical Software, 27(4). URL http://www.jstatsoft.org/v27/i04/.

Pfaff B (2013).”Unit root and cointegration tests for time series data”. Package R.Version 1.2-8. URL: http://cran.r-project.org/web/packages/urca/index.html

Pulido, A. (1983), Modelos Econométricos, Ed. Pirámide

R

CoreTeam

computing.

R

(2013).

R:

Foundation

A for

language Statistical

and

environment

Computing,

for

Vienna,

statistical Austria.

URL http://www.R-project.org/.

Rosenberg, B. (1973), “A Survey Of Stochastic Parameter Regression”, Annals Of Economic And Social Measurement 2.

Ripley, B (2002): “Time Series in R 1.5.0”. R News. The Newsletter of the R Project. Volume 2/2, June 2002.

Samuelson, P. A., Koopmans, T. C. y Stone, J. (1954), “Report Of The Evaluative Committe For Econometrica”, Econometrica 22, pp. 141-146.

Sargan, J. D. (1958), “The Estimation Of Economic Relationships Using Instrumental Variables”, Econometrica 26, pp. 393-415.

Sargent, T. (1973), “Rational Expectations, The Real Rate Of Interest And The Natural RateOf Unemployment”, Brookings Papers On Economic Activity 2, pp. 429-472.

275

Sargent, T.J. (1984), “Vector autoregressions, expectations and advice”, American Economic Review 74, pp.408-415

Sargent, T. y Wallace, N. (1975), “Rational Expectations And The Theory Of Economic Policy”, Journal Of Monetary Economics 2, pp. 169-184.

Schultz, M. (1938), “The Theory And Measurement Of Demand”, Chicago University Of Chicago Press.

Schwarz, G. (1978), “Estimating the dimension of a model”, Annals of Statistics 6, 461–464.

Signal

developers

(2013).signal:

Signal

processing

R-Package

URL

http://cran.r-

project.org/web/packages/signal/.

Sims, C. A. (1980), “Macroeconomics and Reality”, Econometrica, vol. 48, p. 1-48

Sims, C.A. (1982), “Policy Analysis With Economic Models”, Brookings Papers On Economic Activity 1, pp. 107-164.

Stewart, M. y Wallis, K. (1984), Introducción a la Econometría, Alianza Editorial. Swamy, P. A. y Menhta, J. S. (1977), “Estimation Of Linear Models With Time And CrossSectionaly Varying Coefficients”, Journal Of The American Statistical Association 72.

Theil, H. (1954), “Estimation Of Parameters Of Econometrics Models”, Bulletin Of International Statistics Institute 34, pp.122-128.

Tinbergen, J. (1930), “Bestimmung Und Deutung Von Angebotkurven”, Zeitschrift Für Nationalökonomie 1.

Venables, W. N. y Ripley, B. D. (2002), Modern Applied Statistics with S. 4ª Ed., Springer.

276

White, H. (1980), “An Heteroskedastic-Consistent Regression with Independent Observation”, Econometrica 48, pp. 817-838.

Working, E.J. (1927), “What Do Statistical Demand Curves Show?”, Quarterly Journal Of Economics 41.

Wright, P.G. (1915), “Review Of Economic Cycles By Henry Moore”, Quarterly Journal Of Economics 29.

Wright, P.G. (1928), “The Tariff On Animal And Vegetable Oils”, New York, The Mcmillan

277

Related Documents

Econometria Aplicada Ii
February 2021 1
Econometria Aplicada
February 2021 2
Econometria!!!!!
January 2021 1
Econometria
January 2021 1
Econometria Libro
February 2021 2