Ejemplos ?
n estadística se dice que un modelo de regresión lineal presenta heterocedasticidad cuando la varianza de las perturbaciones no es constante a lo largo de las observaciones.
El estimador por lo tanto se puede utilizar para mejorar los mínimos cuadrados ordinarios (MCO) de regresión cuando las variables tienen heterocedasticidad o autocorrelación.: w_ ell=1 - frac ell L+1
La lista de las hipótesis en este caso es: Observaciones iid: (x i, y i) son independientes entre si, y tiene la misma distribución, x j, y j) para todo; Hay multicolinealidad perfecta: Q xx = E x i x′ i es una matriz indefinida positiva; Endogeneidad: E x i = 0; Heterocedasticidad: Var x i ≠ σ 2.
Cuando este requisito se viola esto se llama heterocedasticidad, en tal caso, un estimador más eficiente sería mínimos cuadrados ponderados.
Esta situación se presenta cuando las varianzas de los valores observados son diferentes (es decir, la heterocedasticidad está presente), pero donde no existen correlaciones entre las variaciones observadas.
Véanse también los modelos ARCH (modelos de heterocedasticidad condicional autorregresivos) y los modelos autorregresivos integrados de medias móviles ARIMA (modelos autorregresivos integrados de medias móviles).
No obstante, nosotros no conocemos el verdadero valor del parámetro bold beta, sino sólo su estimación bold hat beta y esto provoca que no manejemos los verdaderos errores cometidos, sino su estimación, a la que llamaremos residuos y que vienen dados por: boldsymbol hat varepsilon = bold y - bold X boldsymbol hat beta En nuestros cálculos, tampoco manejaremos la suma de los cuadrados de los errores, sino la suma de los cuadrados de los residuos: SCR 1 n hat varepsilon_i 2 (bold y - bold X boldsymbol hat beta) ' (bold y - bold X boldsymbol hat beta) Se dice que los errores son homocedásticos cuando: exist sigma2 quad forall i quad E(varepsilon _i2)= sigma2 Si el error presenta una varianza distinta en cada caso, hablamos de heterocedasticidad.
El GLS se aplica cuando las varianzas de las observaciones son desiguales, es decir, cuando se presenta heterocedasticidad, o cuando existe un cierto grado de correlación entre las observaciones.
Cuando no se cumple esta situación, se dice que existe heterocedasticidad, que es cuando la varianza de cada término de perturbación (u_i) no es un número constante sigma 2.
Si se regresiona un modelo a través de Mínimos Cuadrados Ordinarios con presencia de heterocedasticidad, los coeficientes siguen siendo lineales e insesgados pero ya no poseen mínima varianza (eficiencia).
La mayor varianza por empleo de MCO en presencia de heterocedasticidad puede producir un incremento de más de 10 veces en la varianza estimada del parámetro constante.
No obstante, el problema se complica considerablemente, sobre todo a la hora de hacer contrastes de hipótesis, si se cree que la varianza de los errores del modelo cambia con el tiempo. Es el fenómeno conocido como heterocedasticidad (el fenómeno contrario es la homocedasticidad).