Heterocedasticidad

De Descuadrando

1.INTRODUCCIÓN AL INCUMPLIMIENTO DE HIPÓTESIS BÁSICAS DEL MLG. 2.HETEROCEDASTICIDAD.

La pertubarción es una variable aleatoria, por tanto, tiene esperanza y varianza, de modo que las hipótesis básicas del Modelo Lineal General son:

1.La esperanza de la perturbación es nula. 2.Todos los errores tienen la misma varianza (varianza constante). 3.Las covarianzas entre cada par de errores son nulas (no hay autocorrelación).

De esta manera, la perturbación sigue una normal con esperanza 0 y varianza constante. No obstante, la realidad es muy diferente a lo dicho anteriormente, y es que se incumplen dos de estas hipótesis básicas, es decir, hay heterocedasticidad (la varianza de la perturbación no es constante) y hay autocorrelación (las perturbaciones no son estocásticamente independientes), de manera que la perturbación es no esférica y la cual sigue una normal con esperanza 0 y varianza no constante y la cual va multiplicada por Omega, donde omega es una matriz simétrica, de orden n, definida positiva y no escalar.

Por otro lado, cuando se cumplen las hipótesis básicas, los estimadores son lineales, insesgados y óptimos, no obstante ante tan incumplimiento de las hipótesis los estimadores son lineales, insesgados pero no óptimos, lo que quiere decir, que existe otro estimador cuya varianza es menor a nuestro estimador (hay otro estimador más óptimo que el nuestro) y por tanto si utilizamos los estimadores MCO obtendremos sesgos en tales.

  Pero ¿podemos hacer que nuestro nuevo modelo cumpla con las hipótesis básicas?

Sí, para ello se transformará el modelo original mediante una matriz denominada “matriz de transformación”; es decir, lo que se hace es premultiplicar el modelo original por la matriz de transformación T. Tras esto, se hará la varianza a la perturbación del nuevo modelo y se igualará a la Identidad con el objetivo de hacer que cumpla con las hipótesis básicas que decíamos.

Ante esta nueva situación, aplicaremos el Teorema de Aitken, que dice: dada una matriz Omega conocida, definida positiva, simétrica y de orden n, entonces existe una matriz P que cumple: Ώ = PP´. Ahora bien, si Omega no es conocida, la tendremos que estimar aplicando entonces Mínimos Cuadrados Generalizados Factibles.

Si seguimos avanzando, ahora toca saber lo que tiene que valer T (matriz de Transformación) para que la expresión cumpla la condición de igualdad; siendo la respuesta: P ^ -1. Esto es, para que el modelo original cumpla con las hipótesis básicas, éste se debe de premultiplicar por la matriz P^-1 y a partir de ahí, aplicar MCO ya que no hay ningún tipo de sesgo. (La matriz Omega es la estimación del comportamiento de la varianza de las perturbaciones y la cual es necesaria para obtener P^-1 como hemos mencionado en el Teorema de Aitken).

  Claro ¿pero qué pasa si la matriz Omega no es conocida? La tendremos que estimar, para ello vamos a utilizar diferentes métodos que nos van a ayudar a llegar a la conclusión de cuál es la variable que está causando la Heterocedasticidad e incluso obtener el comportamiento de la varianza de la perturbación. No obstante, antes de verlo, se hará mención a las causas y consecuencias que tiene consigo la Heterocedasticidad.


CAUSAS DE LA HETEROCEDASTICIDAD.

-La heterocedasticidad suele ser frecuentes en series de corte transversal. -Por la naturaleza de la variable, y es que en un mismo modelo es normal que existan diferentes varianzas. -Porque se trabaja con datos que han sido manipulados (agregados…) -Por la especificación del modelo, ya que si de un modelo original al estimar se omite una variable relevante, el resultado es que la perturbación recoja la información de esa variable omitida, lo cual no puede ser, causando así Heterocedasticidad.


CONSECUENCIAS DE LA HETEROCEDASTICIDAD.

-Los Estimadores Mínimo Cuadráticos (EMCO) ya no son óptimos, pero sí lineales e insesgados. -Los contrastes elaborados a partir de los EMCO ya no son válidos. -Como las varianzas de las perturbaciones no son constantes, el modelo va a dar más importancias a las observaciones que tienen mayor varianza ( y viceversa)


Pues bien, para detectar la Heterocedasticidad se pueden realizar métodos gráficos y analíticos, no obstante los gráficos son muy subjetivos, ofreciendo tan solo una idea intuitiva, por tanto éstos tienen que venir apoyados por los métodos analíticos, los cuales son:

                         GLESJER

Está indicado cuando la muestra es pequeña y es una la variable que está causando la Heterocedasticidad. Fases:

-Se ajusta el modelo original por MCO y se obtienen los residuos.

-Se realiza la regresión auxiliar por MCO de los residuos anteriores en términos absolutos respecto de la variable que se supone que puede provocar la heterocedasticidad.

-Contrastamos con el estadístico t- student para cada valor de h; en el caso de que rechacemos tal hipótesis, se concluye que la variable es significativa, y por tanto se dice que este es el comportamiento que suele seguir la heterocedasticidad.

                     Goldfeld – Quandt.

Este está indicado para muestras pequeñas y cuando es una variable la que esta causando la heterocedasticidad. Fases:

-Se ordenan las observaciones respecto de la variable X que esta causando la heterocedasticidad. -Omitimos C observaciones centrales, quedando dos grupos con igual número de observaciones y con suficientes datos para poder estimar. -Ajustamos por MCO y por separado las regresiones de los dos grupos de observaciones restantes, obteniendo la Suma de Cuadrados de los Residuos de ambos. -Se contrasta la hipótesis nula de Homocedasticidad con la alternativa de Heterocedasticidad; siendo el estadístico a utilizar para ello la relación entre la SCR del grupo segundo dividido por sus grados de libertad entre la SCR del primer grupo dividida por sus grados de libertad (evidentemente este estadístico sigue una F de Snedecor con los grados de libertad correspondientes a los dos grupos).

En el caso de que la F experimental sea superior a la F teórica se rechaza la hipótesis nula y entonces se concluye que hay Heterocedasticidad.

                             White.

El test de White está indicado cuando la muestra es grande, cuando un conjunto de variable son las causantes de la heterocedasticidad; además es un test que no requiere que se especifique la naturaleza de la heterocedasticidad. No obstante, éste no nos dirá el esquema de comportamiento que sigue la varianza de la perturbación, aunque si dice si hay o no heterocedasticidad. Fases:

-Se establecen las hipótesis del modelo: Hipótesis nula de Homocedasticidad frente a la hipótesis alternativa de Heterocedasticidad.

-Se obtienen los MCO del modelo original.

-Se calcula una regresión auxiliar de los residuos al cuadrado en función de un término constante, todas las variables del modelo orinal sus cuadrados y los productos cruzados, omitiendo los elementos redundantes.

-Por último, aplicaremos el estadístico Chi- Cuadrado con k-1 grados de libertad (es el tamaño de la muestra multiplicado por el Coeficiente de Determinación de la regresión auxiliar) y a partir de aquí obtendremos conclusiones.

Si la Chi- Cuadrado experimental es superior a la teoría, entonces rechazamos la hipótesis nula y por tanto hay Heterocedasticidad.


                      Breusch- Pagan

Este test se realizará cuando la muestra es grande, cuando no se requiere conocer la forma funcional de la heterocedasticidad y cuando un conjunto de variables son las que están causando la heterocedasticidad. Pues bien, sus fases son:

-Se establecen las hipótesis: Hipótesis nula de Homocedasticidad frente a la hipótesis alternativa de Heterocedasticidad.

-Se obtienen los residuos MCO del modelo.

-Obtenemos la regresión auxiliar; de la cual conseguiremos la SCE y aplicaremos el estadístico Chi- Cuadrado con k-1 grados de libertad (consiste en relacionar la SCE entre 2). Claro, si la Chi- Cuadrado experimental es superior a la teórica, entonces se rechaza la hipótesis nula, y por tanto hay Heterocedasticidad.

Herramientas personales
Espacios de nombres

Variantes
Acciones