class: center, middle, inverse, title-slide .title[ # Macroeconometría ] .subtitle[ ## Series de Tiempo Estacionarias: Efectos Causales Dinámicos (Parte I) ] .author[ ### Mauricio Tejada ] .institute[ ### Ingeniería Comercial ] --- layout: true <div class="my-footer"><img src="img/logo2.png" style="height: 35px;"/></div> --- class: separator-blue, middle # Modelos de regresión con series de tiempo --- ## El modelo estático - Consideremos las siguientes series de tiempo: `\(y\)`, `\(z_1\)`, `\(z_2\)`, ..., `\(z_k\)`. Un modelo estático representa una **relación contemporánea** y es: `$$y_{t}=\beta_{0}+\beta_{1} z_{1t}+...+\beta_{k} z_{kt}+u_{t}, \ \ \ t=1,2, \ldots, T$$` - Diferenciando totalmente: `$$y_t - y_{t-1} = \Delta y_{t}=\beta_{1} \Delta z_{1t}+...+\beta_{k} \Delta z_{kt}+ \Delta u_{t}$$` - El efecto **ceteris paribus** de `\(z_1\)` sobre `\(y\)` se da cuando `\(\Delta z_{2t} = ... = \Delta z_{kt} = \Delta u_{t} = 0\)`, entonces: `$$\Delta y_{t}=\beta_{1} \Delta z_{1t} \rightarrow \frac{\Delta y}{\Delta z_{1t}} = \beta_1$$` - Note que el efecto *ceteris paribus* en este tipo de modelo es un **efecto contemporáneo o inmediato**. --- ## El modelo de rezagos distribuidos finitos (RDF) - En un modelo de rezagos distribuidos finitos (RDF) se permite que una o más variables tengan un **efecto rezagado** en la variable dependiente. Consideremos dos series de tiempo `\(y\)`, `\(z\)` y un `\(RDF(q)\)`: `$$y_{t}=\alpha_{0}+\delta_{0} z_{t}+\delta_{1} z_{t-1}+...+\delta_{q} z_{t-q}+u_{t}, \ \ \ t=1,2, \ldots, T$$` - Diferenciando totalmente: `$$y_t - y_{t-1} = \Delta y_{t} = \delta_{0} \Delta z_{t}+ \delta_{1} \Delta z_{t-1} + ...+\delta_{q} \Delta z_{t-q} + \Delta u_{t}$$` - Efecto **ceteris paribus** de un cambio permanente en `\(z\)` en `\(t\)` sobre `\(y\)`: `\(\Delta z_t \neq 0\)`, `\(\Delta u = 0\)` para todo `\(t\)` y `\(\Delta z_{t - j} = \Delta z_{t+j} = 0\)` para todo `\(j>0\)`. $$ `\begin{aligned} \Delta y_{t} &= \color{#ee6c4d}{\delta_{0} \Delta z_{t}}+ \delta_{1} \Delta z_{t-1} + \delta_{2} \Delta z_{t-2} + ...+\delta_{q} \Delta z_{t-q} + \Delta u_{t} \\ \Delta y_{t+1} &= \delta_{0} \Delta z_{t+1}+ \color{#ee6c4d}{\delta_{1} \Delta z_{t}} + \delta_{2} \Delta z_{t-1} + ...+\delta_{q} \Delta z_{t+1-q} + \Delta u_{t+1} \\ \Delta y_{t+2} &= \delta_{0} \Delta z_{t+2}+ \delta_{1} \Delta z_{t+1} + \color{#ee6c4d}{\delta_{2} \Delta z_{t}} + ...+\delta_{q} \Delta z_{t+2-q} + \Delta u_{t+2} \\ \vdots \end{aligned}` $$ --- ## El modelo de rezagos distribuidos finitos (RDF) - El efecto **ceteris paribus** es: - Efecto en `\(t\)` es `\(\frac{\Delta y_t}{\Delta z_{t}} = \delta_0\)` (propensión de impacto o *multiplicador de impacto*). - El efecto un periodo adelante es `\(\frac{\Delta y_{t+1}}{\Delta z_{t}}= \delta_1\)` (*multiplicador un periodo adelante*). Efecto acumulado `\(\delta_0+\delta_1\)`. - El efecto un periodo adelante es `\(\frac{\Delta y_{t+2}}{\Delta z_{t}}= \delta_2\)` (*multiplicador dos periodos adelante*). Efecto acumulado `\(\delta_0+\delta_1+\delta_2\)`. - El **multiplicador de largo plazo** es la suma de todos los coeficientes de las variables `\(z\)`. `$$PLP=\delta_{0}+\delta_{1}+\ldots+\delta_{q}$$` - Una alta correlación entre entre `\(z\)` y sus diferentes rezagos (multicolinealidad) hace difícil obtener estimadores precisos de cada `\(\delta\)` individual. No obstante, a menudo se pueden obtener buenas estimaciones de la `\(PLP\)`. --- ## El modelo de rezagos distribuidos finitos (RDF) **Ejemplo**: La tasa de fertilidad podría depender de excepciones tributarias, pero por razones biológicas y psicológicas el efecto podrías darse con rezago. `$$tf_t = \alpha_0 + 0.15 et_t + 0.3 et_{t-1} + 0.1 et_{t-2} + 0.05 et_{t-3} + u_t$$` donde `\(tf\)` es la tasa de fertilidad (niños nacidos / 1000 mujeres) y `\(e_t\)` son las exempciones tributarias. .pull-left[ <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/multiplicadores-1.png" width="75%" style="display: block; margin: auto;" /> ] .pull-right[ <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/multiplicadores_acum-1.png" width="75%" style="display: block; margin: auto;" /> ] --- class: separator-blue, middle # Estimación --- ## Estimación en el modelo clásico de regresión - Suponga que el **proceso generador de datos** (*modelo poblacional*) es: `$$y_{t}=\beta_{0}+\beta_{1} x_{t 1}+\ldots+\beta_{k} x_{t k}+u_{t},$$` - `\(y_t\)`: variable dependiente. - `\(x_{kt}\)`: variables independientes (puede contener variables en `\(t\)` y varios de sus rezagos, e incluso rezagos de `\(y\)`). - Tenemos una **realización de las series de tiempo** (*muestra*) de tamaño `\(T\)` y con ella estimamos los parámetros en el modelo: `$$y_t = \hat{y}_{t} + e_t \rightarrow \hat{y}_{t}=\hat{\beta}_{0}+\hat{\beta}_{1} x_{t 1}+\ldots+\hat{\beta}_{K} x_{t K}, \ \ t=1,2, \ldots T$$` usando el criterio de **mínimos cuadrados ordinarios** (MCO): `$$\min_{\hat{\beta}_{0},...,\hat{\beta}_{K}} \sum^T_{t=1} (y_t - \hat{y}_t)^2$$` --- ## MCO y el sistema de ecuaciones normales - Criterio de Mínimos Cuadrados Ordinarios: `$$\min\sum_{i=1}^{T}(y_{i}-\hat{\beta}_{0}-\hat{\beta}_{1} x_{t 1}-\ldots-\hat{\beta}_{K} x_{t K})^2 = \min SRC$$` - Condiciones de primer orden (sistema de ecuaciones normales): `\begin{eqnarray*} \frac{\partial SRC}{\widehat{\beta}_{0}} & = & -2\sum_{t=1}^{T}(y_{i}-\hat{\beta}_{0}-\hat{\beta}_{1} x_{t 1}-\ldots-\hat{\beta}_{tK} x_{t K})=0\\ \frac{\partial SRC}{\widehat{\beta}_{1}} & = & -2\sum_{t=1}^{T}(y_{i}--\hat{\beta}_{0}-\hat{\beta}_{1} x_{t 1}-\ldots-\hat{\beta}_{K} x_{t K})x_{t1}=0\\ & \vdots\\ \frac{\partial SRC}{\widehat{\beta}_{K}} & = & -2\sum_{t=1}^{T}(y_{i}-\hat{\beta}_{0}-\hat{\beta}_{1} x_{t 1}-\ldots-\hat{\beta}_{K} x_{t K})x_{tK}=0 \end{eqnarray*}` - Tenemos un sistema lineal con `\(K+1\)` ecuaciones y `\(K+1\)` incógnitas. --- ## Interpretación de los estimadores MCO - Tomemos el caso de dos variables relacionadas contemporáneamente: `$$\hat{y}_{t}=\hat{\beta}_{0}+\hat{\beta}_{1}x_{t}$$` - Estimadores MCO: `\begin{eqnarray*} \hat{\beta}_{0} & = & \bar{y}-\hat{\beta}_{1}\bar{x}\\ \hat{\beta}_{1} & = & \frac{\sum_{t=1}^{T}(y_{t}-\bar{y})(x_{t}-\bar{x})}{\sum_{i=1}^{T}(x_{t}-\bar{x})^{2}} \end{eqnarray*}` - Si en la realización `\(x\)` y `\(y\)` están correlacionadas positivamente (negativamente), `\(\hat{\beta}_{1}>0\)` `\((\hat{\beta}_{1}<0)\)`. - *Requerimiento*: `\(x\)` tiene varianza positiva. --- ## Interpretación de los estimadores MCO - Ahora consideremos el caso de `\(K\)` variables. `$$\hat{y}_{t}=\hat{\beta}_{0}+\hat{\beta}_{1}x_{t1}+\hat{\beta}_{2}x_{t2}+...+\hat{\beta}_{K}x_{tK}$$` - Concentrémonos en `\(\hat{\beta}_{1}\)`. La CPO de MCO es: `$$\sum_{i=1}^{n}(y_{i}-\hat{\beta}_{0}-\hat{\beta}_{1}x_{t1}-\hat{\beta}_{2}x_{t2}-...-\hat{\beta}_{K}x_{tK})\left(\hat{x}_{t1}+e_{t1}\right)=0$$` donde los `\(e_{t1}\)` son los residuos MCO de la regresión `\(x_{t1}\)` sobre `\(x_{t2},...,x_{tK}\)`. `$$\hat{\beta}_{1}=\frac{\sum_{i=1}^{T}y_{i}e_{t1}}{\sum_{t=1}^{T}e_{t1}^{2}}$$` - `\(e_{1i}\)`: Parte de `\(x_{t1}\)` no correlacionada con `\(x_{t2},...,x_{tK}\)`. Entonces, `\(\hat{\beta}_{1}\)` es la relación entre `\(y_t\)` y `\(x_{t1}\)` después de **descontar (controlar) los efectos** de `\(x_{t2},...,x_{tK}\)`. --- class: separator-blue, middle # Propiedades de MCO en muestras finitas --- ## Supuestos I: Linealidad en Parámetros **Supuesto T1: Linealidad en Parámetros** *El proceso estocástico `\(\{x_{t1},x_{t2},\dots,x_{tk},y_{t}\}\)`, con `\(t=1,2,\dots,T\)` sigue el modelo lineal* `$$y_{t}=\beta_{0}+\beta_{1} x_{t 1}+\ldots+\beta_{k} x_{t K}+u_{t}$$` *donde `\(u_{t}\)` es una secuencia de errores o perturbaciones. `\(T\)` es el número de observaciones (periodos).* - Relaciones válidas bajo **T1**: `\begin{eqnarray*} \log(y)_{t} &=& \beta_{0} + \beta_{1} \log(x)_{t 1} + u_{t} \\ \log(y)_t &=& \beta_{0} + \beta_{1} x_{t 1} + u_{t} \\ y^2_t &=& \beta_{0} + \beta_{1} x^2_{t 1} + u_{t} \\ \frac{y^{\lambda}_t - 1}{\lambda} &=& \beta_{0} + \beta_{1} \frac{x^{\lambda}_{t 1} - 1}{\lambda} + u_{t} \end{eqnarray*}` --- ## Supuestos II: No hay colinealidad perfecta **Supuesto T2: No hay colinealidad perfecta** *En la muestra (y, por ende, en los procesos de series de tiempo subyacentes) no hay variables independientes que sean constantes ni que sean una combinación lineal perfecta de las otras.* - El supuesto **T2** permite identificar individualmente los parámetros. Por ejemplo, suponga que en el modelo `$$y_t = \beta_{0} + \beta_{1} x_{t 1} + \beta_{2} x_{t 2} + \beta_{3} x_{t 3} + u_{t}$$` `\(x_{t1}\)` es una combinación lineal perfecta de `\(x_{t2}\)` y `\(x_{t3}\)`: `\(x_{t 1} = x_{t 2} + x_{t 3}\)`. - Note que no es posible determinar separadamente los parámetros `\(\beta_{1}\)`, `\(\beta_{2}\)` y `\(\beta_{3}\)`, `\begin{eqnarray*} y_t &=& \beta_{0} + (\beta_{1} + \beta_{2}) x_{t 2} + (\beta_{1} + \beta_{3}) x_{t 3} + u_{t} \\ y_t &=& \beta_{0} + \tilde{\beta}_{2} x_{t 2} + \tilde{\beta}_{3} x_{t 3} + u_{t} \end{eqnarray*}` solo es posible identificar `\(\tilde{\beta}_{2}\)` y `\(\tilde{\beta}_{3}\)`. --- ## Supuestos III: Media condicional cero **Supuesto T3: Media condicional cero** *Para cada `\(t\)`, dadas las variables explicativas para todos los periodos, el valor esperado del error `\(u_t\)` es cero. Matemáticamente,* `$$\mathbb{E}\left(u_{t} \mid \mathbf{X}\right)=0, t=1,2, \ldots, T$$` .pull-left[ Definamos la matriz que contiene información de las trayectorias completas de las variables dependientes: `$$\mathbf{X}=\left(\begin{array}{cccc} x_{11} & x_{12} & \cdots & x_{1 K} \\ \vdots & \vdots & \cdots & \vdots \\ x_{t 1} & x_{t 2} & \cdots & x_{t K} \\ \vdots & \vdots & & \vdots \\ x_{T 1} & x_{T 2} & \cdots & x_{T K} \end{array}\right)$$` ] .pull-right[ - **Exogeneidad débil**: las variables explicativas y el error no correlacionan de manera contemporánea: `\(Corr(x_{tj},u_t ) = 0\)`, para toda `\(j\)`. - **Exogeneidad estricta**: las variables explicativas y el error nunca correlacionan `\(Corr(x_{kj},u_t ) = 0\)`, para toda `\(j\)` y `\(k\)`. *No existe retroalimentación del futuro sobre la variable dependiente hoy*. ] --- ## Propiedad I: Insesgamiento **Teorema** *Bajo los supuestos ST1, ST2 y ST3, los estimadores de MCO son insesgados condicionales sobre `\(\mathbf{X}\)`, esto es `\(\mathbb{E}[\hat{\beta}_k | \mathbf{X}] = \beta_k\)`, y por tanto también incondicionalmente: `\(\mathbb{E}[\hat{\beta}_k ] = \beta_k\)` para todo `\(k\)`.* .pull-left[ *Estimador insesgado:* <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/insesgado-1.png" width="100%" style="display: block; margin: auto;" /> ] .pull-right[ *Estimador sesgado:* <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/sesgado-1.png" width="100%" style="display: block; margin: auto;" /> ] --- ## Supuestos IV: Homocedasticidad **Supuesto T4: Homocedasticidad** *La varianza de `\(u_t\)` condicional en `\(\mathbf{X}\)`, es la misma para cualquier `\(t\)`, esto es `\(\mathbb{V}(u_t | \mathbf{X}) = \mathbb{V}(u_t)=\sigma^2\)`, con `\(t=1,2,...,T\)`.* - Una condición suficiente para que se cumpla este supuesto es que la varianza del error no dependa de las variables explicativas y que sea constante en el tiempo. - En el contexto de series de tiempo, el supuesto de homocedasticidad es fácilmente violado. Por ejemplo, esto puede ocurrir cuando la varianza de `\(y\)` depende de cambios en el régimen político/económico. --- ## Supuestos V: No autocorrelación **Supuesto T5: No hay correlación serial** *Los errores, condicionales sobre `\(\mathbf{X}\)`, en dos periodos distintos, no están correlacionados, esto es `\(Corr(u_t,u_s | \mathbf{X})=0\)` para cualquier `\(t \neq s\)`.* - El supuesto de no correlación serial (o autocorrelación) no supone nada sobre la correlación temporal de las variables independientes. - Cuando trabajamos con datos de corte transversa el supuesto de muestreo aleatorio previene de la ocurrencia de autocorrelación ya que las observaciones son independientes entre si. Esto es, `\(u_i\)` y `\(u_h\)` son independientes para las observaciones `\(i\)` y `\(h\)`. - En series de tiempo este supuesto es fácilmente violado si variables omitidas (incluidas en el eeror) están correlacionadas en el tiempo. --- ## La varianza de los estimadores MCO **Teorema** *Bajo los supuesto ST1 a ST5, la varianza de `\(\hat{\beta}_k\)`, condicional sobre `\(\mathbf{X}\)`, es* `$$\mathbb{V}(\hat{\beta}_{k}|\mathbf{X})=\frac{\sigma^{2}}{\sum_{t=1}^{T}(x_{t k}-\bar{x}_{k})^{2}(1-R_{k}^{2})} \ \ \ k = 1,...,K$$` *donde `\(R_{k}^{2}\)` es el `\(R^{2}\)` de la regresión de `\(x_{tk}\)` sobre todas las otras variables independientes (e incluyendo un intercepto). Más aún, el estimador insesgado de `\(\sigma^2\)` es:* `$$\hat{\sigma}^2=\frac{\sum^T_{t=1}(y_t-\hat{y_t})}{T-K-1}$$` - La estimación de `\(\hat{\beta}_{k}\)` será menos precisa si: - Hay más *ruido* en la ecuación (una `\(\sigma^{2}\)` más grande) - Hay menor variación muestral en `\(x_{k}\)`. - Si hay correlación entre `\(x_{k}\)` y otras variables explicativas, `\(R_{k}^{2}\rightarrow1\)`. --- ## Propiedad II: Eficiencia **Teorema** *Bajo los supuestos ST1 a ST5, los estimadores de MCO `\(\hat{\beta_{0}}\)`, `\(\hat{\beta}_{1}\)`, ..., y `\(\hat{\beta}_{K}\)` son los mejores estimadores lineales insesgados (MELI) condicionales sobre `\(\mathbf{X}\)` de `\(\beta_{0}\)`, `\(\beta_{1}\)`, ..., y `\(\beta_{K}\)`.* .pull-left[ - Tenemos dos estimadores `\(\beta^*\)` y `\(\hat{\beta}\)` linealmente insesgados, `\(\hat{\beta}\)` es mejor si `\(\mathbb{V}(\hat{\beta}|\mathbf{X})\leq\mathbb{V}(\beta^*|\mathbf{X})\)`. ] .pull-right[ <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/varianza MCO-1.png" width="100%" style="display: block; margin: auto;" /> ] --- class: separator-blue, middle # Inferencia --- ## Supuesto VI: Normalidad en los errores **Supuesto T6** *Los errores `\(u_t\)` son independientes de `\(\mathbf{X}\)` y son independientes e idénticamente distribuidos como `\(\mathcal{N}(0,\sigma^2)\)`.* - El supuesto ST6 comprende los supuestos ST3, ST4 y ST5, pero es más fuerte debido a los supuestos de independencia y normalidad. --- ## Inferencia bajo los supuestos del modelo lineal clásico **Teorema** *Bajo los supuestos ST1 a ST6 para series de tiempo, los estimadores de MCO se distribuyen de forma normal, condicionales sobre `\(\mathbf{X}\)`. Esto es* `$$\hat{\beta}_{k}|\mathbf{X}\sim \mathcal{N}\left(\beta_{k},\mathbb{V}(\hat{\beta}_{k}|\mathbf{X})\right)$$` *Además, bajo la hipótesis nula, cada estadístico `\(t\)` tiene una distribución `\(t\)` y cada estadístico `\(F\)` tiene una distribución `\(F\)`. También es válida la construcción usual de los intervalos de confianza.* - Todo lo aprendido acerca de la estimación y la inferencia para las regresiones con cortes transversales se aplica de manera directa a las regresiones con series de tiempo. - Los estadísticos `\(t\)` pueden emplearse para probar la significancia estadística de las variables explicativas individuales y los estadísticos `\(F\)` pueden utilizarse para probar la significancia conjunta. --- ## Inferencia bajo los supuestos del modelo lineal clásico - El **estadístico `\(t\)`** bajo la hipótesis nula `\(H_{0}:\beta_{k}=\beta_{k}^{o}\)` es: `$$t=\frac{\hat{\beta}_{k}-\beta_{k}^{o}}{\sqrt{\hat{\mathbb{V}}(\hat{\beta}_{k}|\mathbf{X})}} \sim t_{T-K-1} \ \ \ \ con \ \ \ \ \hat{\mathbb{V}}(\hat{\beta}_{k}|\mathbf{X})=\frac{\hat{\sigma}^{2}}{SRC_k(1-R_{k}^{2})}$$` .bigskip[ ] - El **estadístico `\(F\)`** bajo la hipótesis nula `\(H_{0}:\beta_{1}=\beta_{2}=...=\beta_{K}=0\)` es: `$$F=\frac{(SRC_{R}-SRC_{NR})/q}{SRC_{NR}/n-K-1}\sim F_{q,T-K-1}$$` con `\(SRC_{R}\)` y `\(SRC_{NR}\)` la suma de residuos al cuadrado de los modelo restringido y no restringido, respectivamente. --- class: regression ## Ejemplo 1: La Curva de Phillips estática Consideremos el siguiente modelo estático: `\(inf_t =\beta_0 + \beta_1 unem_t + u_t\)`. Estimamos el modelo con los datos *phillips* del libro de Wooldridge: .pull-left[ - La teoría indica que en el corto plazo hay una disyuntiva entre inflación y desempleo. - Para determinar si existe dicha disyuntiva, probamos `\(H_0: \beta_1 = 0\)` contra `\(H_1: \beta_1 < 0\)` en la ecuación anterior. - Según esta regresión, **no existe una disyuntiva entre inflación y desempleo** ya que `\(\beta_1=0.5>0\)`. - El estadístico `\(t=0.5/0.27=1.85\)` para `\(H_0: \beta_1 = 0\)` permite rechazar la hipótesis nula al 10%. - ¿Qué problemas puede tener este modelo? ] .pull-right[ <table style="text-align:center"><tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"></td><td><em>Dependent variable:</em></td></tr> <tr><td></td><td colspan="1" style="border-bottom: 1px solid black"></td></tr> <tr><td style="text-align:left"></td><td>inf</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">unem</td><td>0.50<sup>*</sup> (0.27)</td></tr> <tr><td style="text-align:left">Constant</td><td>1.05 (1.55)</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">Observations</td><td>56</td></tr> <tr><td style="text-align:left">R<sup>2</sup></td><td>0.06</td></tr> <tr><td style="text-align:left">Adjusted R<sup>2</sup></td><td>0.04</td></tr> <tr><td style="text-align:left">Residual Std. Error</td><td>2.97 (df = 54)</td></tr> <tr><td style="text-align:left">F Statistic</td><td>3.58<sup>*</sup> (df = 1; 54)</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"><em>Note:</em></td><td style="text-align:right"><sup>*</sup>p<0.1; <sup>**</sup>p<0.05; <sup>***</sup>p<0.01</td></tr> </table> ] --- ## Ejemplo 1: La Curva de Phillips estática - El resultado hallado es **contrario a la teoría**. ¿Los supuestos del modelo clásico se cumplen? - *Nota:* `\(u_t\)` contiene shocks monetarios, shocks de demanda, shocks de oferta, shocks en el tipo de cambio, entre otros. .pull-left[ - **TS1** restrictivo pero buena aproximación. - **TS2** no es problema si `\(unemp\)` varia en el tiempo. - **TS3** `\(\mathbb{E}(u_t|unem_1,...,unem_T)=0\)` es probable de ser violado (el estimador sería **sesgado**). - `\(unem_{t-1} \uparrow \Rightarrow \text{Demanda}\downarrow \Rightarrow u_t \downarrow\)`. - `\(u_{t-1} \uparrow \Rightarrow inf_{t-1} \uparrow \Rightarrow unem_t \uparrow\)` ] .pull-right[ - **TS4** `\(\mathbb{V}(u_t|unem_1,...,unem_T)=\sigma^2\)` no se cumple si - la política monetaria responde agresivamente a mayor desempleo. - **TS5** `\(Corr(u_t,u_s|unem_1,...,unem_T)=0\)` no se cumple si - el efecto de otras variables en `\(unemp\)` persiste en el tiempo. - **TS6** `\(\mathcal{N}(0,\sigma^2)\)` cuestionable en muestras pequeñas. ] --- class: separator-blue, middle # Formas funcionales, variables binarias, transformaciones y números índices --- ## Formas funcionales - Todas las **formas funcionales** para transformar *variables* son válidas en el contexto de series de tiempo. - Una particularmente útil es el **logaritmo** ya que permite estimar *elasticidades o semielasticidades*. - En la regresión `\(\log y_t = \alpha + \beta \log x_t + u_t\)`, el multiplicador de impacto es una elasticidad `\(\frac{\Delta y}{y} = \beta \frac{\Delta x}{x}\)`. - En la regresión `\(\log y_t = \alpha + \beta x_t + u_t\)`, el multiplicador de impacto es una semi-elasticidad `\(\frac{\Delta y}{y} = \beta \Delta x\)`. - Lo anterior aplica también para multiplicadores a diferentes periodos adelante. Por ejemplo, en la regresión `\(\log y_t = \alpha + \beta_0 \log x_t + \beta_1 \log x_{t-1} + ... + \beta_q \log x_{t-q} + u_t\)`, la elasticidad de impacto o corto plazo es `\(\beta_0\)`, mientras que la elasticidad de largo plazo es `\(\beta_0 + ... + \beta_q\)`. --- ## Variables binarias - Una **variable binaria** (variable categórica, también denominada cero-uno) representa si, en cada periodo, ha ocurrido un evento determinado. - Se emplean para aislar periodos sistemáticamente distintos de otros en los datos. - Las variables binarias explicativas son el componente clave en lo que se denomina **estudio de evento**. El objetivo es ver si un determinado evento influye en algún resultado. - Considere el modelo de regresión poblacional: `$$y_t=\alpha + \delta_0 d_t + u_t$$` con `\(d_t\)` una variable dummy que toma el valor 1 para `\(t \geq \tau\)` y 0 en otro caso. - Si suponemos que se cumple el supuesto `\(\mathbb{E}[u_t|d_t]=0\)` tenemos: `$$\mathbb{E}[y_t|d_t]=\alpha + \delta_0 d_t$$` --- ## Variables binarias - ¿Qué **interpretación** tiene `\(\delta_0\)`? Como `\(d_t\)` toma sólo dos valores tenemos: `\begin{eqnarray*} \mathbb{E}[y_t|d_t=1]&=&\alpha+\delta_0 \\ \mathbb{E}[y_t|d_t=0]&=&\alpha \end{eqnarray*}` por tanto: `$$\delta_0 = \mathbb{E}[y_t|d_t=1]- \mathbb{E}[y_t|d_t=0]$$` - Note que `\(\delta_0\)` no es una pendiente, es la diferencia de los promedios de `\(y\)` para los periodos de tiempo considerados. - En el contexto de **regresión múltiple** (como un modelo estático o un RDF) tenemos: `$$y_t=\alpha+\beta_0 x_t + ... + \beta_q x_{t-q} + \delta_0 d_t + u_t$$` con `\(d_t\)` que toma el valor 1 para `\(t \geq \tau\)` y 0 en otro caso. --- ## Variables binarias - ¿Qué **interpretación** tiene `\(\delta_0\)` en este nuevo contexto? `\begin{eqnarray*} \mathbb{E}[y_t|x_t,...,x_{t-q},d_t=1]&=&\alpha + \delta_0 + \beta_0 x_t + ... + \beta_q x_{t-q} \\ \mathbb{E}[y_t|x_t,...,x_{t-q},d_t=0]&=&\alpha + \beta_0 x_t + ... + \beta_q x_{t-q} \end{eqnarray*}` al igual que antes: `$$\delta_0 = \mathbb{E}[y_t|x_t,...,x_{t-q},d_t=1] - \mathbb{E}[y_t|x_t,...,x_{t-q},d_t=0]$$` para cualquier nivel de `\(x_t,...,x_{t-q}\)`. - Dos comentarios: - Note que ahora el estimador de `\(\delta_0\)` descontará la correlación entre `\(d_i\)` y `\(x_t,...,x_{t-q}\)`. - También `\(\delta_0\)` representa la diferencia de interceptos en la función de esperanza condicional. --- ## Variables binarias - Ahora considere el modelo de regresión (usamos como ejemplo un modelo estático) con un **término de interacción**: `$$y_t=\alpha+\beta x_t + \delta_0 d_t + \delta_t d_t x_t + u_i$$` - ¿Qué interpretación tienen `\(\delta_0\)` y `\(\delta_1\)` en este nuevo contexto? `\begin{eqnarray*} \mathbb{E}[y_t|x_t,d_i=1]&=&(\alpha+ \delta_0) + (\beta + \delta_1)x_t \\ \mathbb{E}[y_t|x_t,d_i=0]&=&\alpha + \beta x_t \end{eqnarray*}` - Ahora `\(\mathbb{E}[y_t|x_t,d_t=1]- \mathbb{E}[y_t|x_t,d_t=0]=\delta_0 + \delta_1 x_t\)`. La diferencia de promedios depende de `\(x_t\)`. - Dos comentarios: - `\(\delta_0\)` es la diferencia de interceptos en la función de esperanza condicional, mientras que `\(\delta_1\)` es la diferencia en los multiplicadores de impacto en dicha función. - Estas ideas aplican también para un modelo RDF. --- ## Transformaciones - En algunas ocasiones es útil hacer **transformaciones para cambiar la interpretación de los parámetros** a estimar. Consideremos el siguiente modelo de regresión RDF(3) como ejemplo: `$$y_t = \alpha + \beta_0 x_t + \beta_1 x_{t-1} + \beta_2 x_{t-2} + u_t$$` - Recordemos que los parámetros son el multiplicador de impacto y los multiplicadores a 1 y dos 2 periodos adelante. - Consideremos las siguientes transformaciones: - Sumar y restar `\(\beta_0 x_{t-1}\)` al lado derecho: `$$y_t = \alpha + \beta_0 (x_t - x_{t-1}) + (\beta_0 + \beta_1) x_{t-1} + \beta_2 x_{t-2} + u_t$$` - Sumar y restar `\((\beta_0 + \beta_1) x_{t-2}\)` al lado derecho: `$$y_t = \alpha + \beta_0 (x_t - x_{t-1}) + (\beta_0 + \beta_1) (x_{t-1} - x_{t-2}) + (\beta_0 + \beta_1 + \beta_2) x_{t-2} + u_t$$` --- ## Transformaciones - El modelo RDF transformado queda como: `$$y_t = \alpha + \gamma_0 \Delta x_t + \gamma_1 \Delta x_{t-1} + \gamma_2 x_{t-2} + u_t$$` - Note que los parámetros estimados ahora son **efectos acumulados**: - `\(\gamma_0 = \beta_0\)`: multiplicador de impacto. - `\(\gamma_1 = \beta_0 + \beta_1\)`: efecto acumulado un periodo adelante. - `\(\gamma_2 = \beta_0 + \beta_1 + \beta_2\)`: efecto acumulado dos periodos adelante (efecto de largo plazo) - Esta transformación es muy útil para realizar **pruebas de hipótesis sobre efectos acumulados** y funciona en general para modelo RDF(q). `$$y_t = \alpha + \gamma_0 \Delta x_t + \gamma_1 \Delta x_{t-1} + ...+ \gamma_{q-1} \Delta x_{t-(q-1)} + \gamma_q x_{t-q} + u_t$$` --- ## Números índices - Un **número índice** por lo general agrega un gran volumen de información a una sola cantidad y por tanto su magnitud en un determinado periodo no tiene un sentido cuantitativo. - Son muy comunes en macroeconomía. Ejemplos hay muchos: - Índice mensual de actividad económica (IMACEC) - Índice de precios al consumidor (IPC) - Índice de la producción industrial (IPI), y un largo etc. - Para **interpretar la magnitud** de un índice se debe conocer el periodo base y el valor base. - *Ejemplo: Si el IMACEC de 2020 fue 107.7, su año base es 2010 y el valor base es 100, entonces decimos que el IMACEC fue 7.7% mayor en 2020 que en 2010.* --- ## Números índices - Es fácil **modificar el periodo base** de un número índice. Esto se hace para dar un año base común a los números índices reportados con años base distintos. `$$nuevo\_indice_{t}=100\left(\frac{viejo\_indice_{t}}{viejo\_indice_{nuevabase}}\right)$$` - *Ejemplo: con un año base 2010, el IMACEC en 2020 fue 107.7; si se modifica el año base a 2005 (cuyo valor es 81.9) tendríamos: `\(100\left(\frac{107.7}{81.9}\right) = 131.5\)`.* - Un índice clave es el índice de precios al consumidor (IPC) porque es utilizado para **transformar variables macroeconómicas nominales en reales** (a precios constantes del año base del índice). `$$variable\_real_{t}=100\left(\frac{variable\_nominal_{t}}{IPC_{t}}\right)$$` --- ## Ejemplo 2: Efectos de la exención personal en las tasas de fertilidad - Whittington, Alm y Peters (1990) analizaron el efecto de las exenciones tributarias personales (como deducciones por jardín infantil o educación básica) sobre la tasa de fertilidad (datos *fertil3* del libro de Wooldridge). - Estimaron la siguiente ecuación: `$$g f r_{t}=\beta_{0}+\beta_{1} p e_{t}+ \beta_{2} pe_{t-1} + \beta_{3} pe_{t-2} + \beta_{4} ww2_{t}+\beta_{5} pill_{t}+u_{t}$$` donde: - `\(gfr\)` es el número de niños nacidos por cada 1000 mujeres en edad de concebir. - `\(pe\)` es el valor en dólares reales de la exención personal de impuestos promedio. - `\(ww2\)` toma el valor 1 para los años de 1941 a 1945 (Segunda Guerra Mundial) y cero en otro caso. - `\(pill\)` toma el valor 1 para el periodo 1963 en adelante (salió al mercado la píldora anticonceptiva) y cero en otro caso. --- ## Ejemplo 2: Efectos de la exención personal en las tasas de fertilidad .pull-left[ .regression[ <table style="text-align:center"><tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"></td><td><em>Dependent variable:</em></td></tr> <tr><td></td><td colspan="1" style="border-bottom: 1px solid black"></td></tr> <tr><td style="text-align:left"></td><td>gfr</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">pe</td><td>0.07 (0.13)</td></tr> <tr><td style="text-align:left">L(pe)</td><td>-0.01 (0.16)</td></tr> <tr><td style="text-align:left">L(pe, 2)</td><td>0.03 (0.13)</td></tr> <tr><td style="text-align:left">ww2</td><td>-22.13<sup>**</sup> (10.73)</td></tr> <tr><td style="text-align:left">pill</td><td>-31.30<sup>***</sup> (3.98)</td></tr> <tr><td style="text-align:left">Constant</td><td>95.87<sup>***</sup> (3.28)</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">Observations</td><td>70</td></tr> <tr><td style="text-align:left">R<sup>2</sup></td><td>0.50</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"><em>Note:</em></td><td style="text-align:right"><sup>*</sup>p<0.1; <sup>**</sup>p<0.05; <sup>***</sup>p<0.01</td></tr> </table> ]] .pull-right[ - Los coeficientes en las variables `\(pe\)` se estiman de forma muy imprecisa y cada uno por separado es insignificante. - La alta correlación entre `\(pe_t\)`, `\(pe_{t-1}\)` y `\(pe_{t-2}\)` (multicolinealidad) dificulta la estimación del efecto de cada rezago. - Test F de significancia conjunta `$$H_0: pe_t = pe_{t-1} = pe_{t-2}=0$$` es 3.972964 con un p-value de 0.011652. ] --- ## Ejemplo 2: Efectos de la exención personal en las tasas de fertilidad .pull-left[ .regression[ <table style="text-align:center"><tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"></td><td><em>Dependent variable:</em></td></tr> <tr><td></td><td colspan="1" style="border-bottom: 1px solid black"></td></tr> <tr><td style="text-align:left"></td><td>gfr</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">diff(pe)</td><td>0.07 (0.13)</td></tr> <tr><td style="text-align:left">L(diff(pe))</td><td>0.07 (0.13)</td></tr> <tr><td style="text-align:left">L(pe, 2)</td><td>0.10<sup>***</sup> (0.03)</td></tr> <tr><td style="text-align:left">ww2</td><td>-22.13<sup>**</sup> (10.73)</td></tr> <tr><td style="text-align:left">pill</td><td>-31.30<sup>***</sup> (3.98)</td></tr> <tr><td style="text-align:left">Constant</td><td>95.87<sup>***</sup> (3.28)</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">Observations</td><td>70</td></tr> <tr><td style="text-align:left">R<sup>2</sup></td><td>0.50</td></tr> <tr><td colspan="2" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"><em>Note:</em></td><td style="text-align:right"><sup>*</sup>p<0.1; <sup>**</sup>p<0.05; <sup>***</sup>p<0.01</td></tr> </table> ]] .pull-right[ - El multiplicador de largo plazo, `\(MLP = pe_t +pe_{t-1} +pe_{t-2}\)`, es 0.1007191. - Test F para la hipótesis `$$H_0: pe_t + pe_{t-1} + pe_{t-2}=0$$` es 11.4212385 con un p-value de 0.0012408 - Alternativamente, podemos obtener el multiplicador de largo plazo directamente usando la siguiente transformación: `\begin{eqnarray*} gfr_{t}&=&\beta_{0}+\beta^*_{1} \Delta pe_{t}+ \beta^*_{2} \Delta pe_{t-1} + \beta^*_{3} pe_{t-2} \\ &+& \beta_{4} ww2_{t}+\beta_{5} pill_{t}+u_{t} \end{eqnarray*}` con `\(\beta^*_{3}\)` el MLP. ] --- class: separator-blue, middle # Tendencias y estacionalidad --- ## Tendencias - Para hacer inferencias causales con datos de series de tiempo, se debe reconocer que ciertas series muestran **tendencia en el tiempo**. - Ignorar la existencia de tendencias conduce a conclusiones erróneas sobre los efecto causales. - ¿Qué clase de modelos estadísticos representanel comportamiento de la tendencia? .pull-left[ **Modelo de tendencia lineal** `$$y_{t}=\alpha_{0}+\alpha_{1} t+u_{t}, t=1,2, \ldots$$` - `\(u_t\)` es *i.i.d.* con `\(\mathbb{E}(u_t)=0\)` y `\(\mathbb{V}(u_t)=\sigma^2\)`. - `\(\alpha_1 = \Delta y_t\)`. El signo indica si la serie aumenta o disminuye en promedio (variación constante). ] .pull-right[ <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/tend_lineal-1.png" width="75%" style="display: block; margin: auto;" /> ] --- ## Tendencias .pull-left[ **Modelo de tendencia exponencial** `$$\log(y_{t})=\alpha_{0}+\alpha_{1} t+u_{t}, t=1,2, \ldots$$` alternativamente: `$$y_{t}=e^{\alpha_{0}+\alpha_{1} t+u_{t}}, t=1,2, \ldots$$` - `\(u_t\)` es *i.i.d.* con `\(\mathbb{E}(u_t)=0\)` y `\(\mathbb{V}(u_t)=\sigma^2\)`. - `\(\alpha_1 = \Delta \log(y_t) \approx \frac{y_t-y_{t-1}}{y_{t-1}}\)`. El signo indica si la serie crece o decrece en promedio (crecimiento porcentual constante). ] .pull-right[ <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/tend_exp-1.png" width="75%" style="display: block; margin: auto;" /> ] --- ## Tendencias .pull-left[ **Tendencias más complejas** Por ejemplo, tendencias cuadráticas. `$$y_{t}=\alpha_{0} + \alpha_{1} t + \alpha_2 t^2 + u_{t}, t=1,2, \ldots$$` - `\(u_t\)` es *i.i.d.* con `\(\mathbb{E}(u_t)=0\)` y `\(\mathbb{V}(u_t)=\sigma^2\)`. - La pendiente aproximada (manteniendo a `\(e_t\)` fijo): `\(\frac{\Delta y_t}{\Delta t} = \alpha_1 + \alpha_2 t\)`. - Si `\(\alpha_1>0\)` y `\(\alpha_2>0\)` la pendiente de la tendencia aumenta aumentando. - Si `\(\alpha_1>0\)` y `\(\alpha_2<0\)` la tendencia tiene una forma de U invertida. ] .pull-right[ <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/tend_polinomica-1.png" width="75%" style="display: block; margin: auto;" /> ] --- ## El modelo de regresión y la tendencia - Nada respecto de las variables (explicadas o explicativa) con tendencia viola necesariamente los supuestos TS1 a TS6. - El tipo de tendencia con el que trataremos es **tendencia deterministica**. Después analizaremos otro tipo de tendencia que puede generar no estacionariedad. - El problema surge con **variable omitidas con tendencia** (posiblemente inobservables) que están correlacionadas con las variables explicativas. - Si ignora esta posibilidad podemos encontrar una relación falsa (sesgo). Este problema se conoce como **regresión espuria**. - La adición de una tendencia en el tiempo elimina este problema. Por ejemplo: `$$y_t = \beta_0 + \beta_1 x_{1t} + ... + \beta_{Kt} x_{Kt} + \gamma t + u_t, t=1,2, \ldots$$` --- ## El modelo de regresión y la tendencia - Incluir una tendencia en el modelo es equivalente a la **eliminación previa de la tendencia** en las series de datos originales. - En el modelo anterior `$$y_t = \beta_0 + \beta_1 x_{1t} + ... + \beta_{Kt} x_{Kt} + \gamma t + u_t, t=1,2, \ldots$$` podemos interpretar los estimadores MCO como descuento de efectos parciales. - Podemos **eliminar ("descontar") la tendencia** antes de estimar el modelo anterior. Esto es estimar por MCO: `$$y_t = \alpha_0 + \alpha_1 t + \tilde{y_t}, t=1,2, \ldots$$` para todas las variables del modelo. - Luego MCO del siguiente modelo genera los mismos estimadores que el modelo original. `$$\tilde{y}_t = \beta_1 \tilde{x}_{1t} + ... + \beta_{Kt} \tilde{x}_{Kt} + \tilde{u}_t, t=1,2, \ldots$$` --- ## Ejemplo 3: Inversión y precios de vivienda - Para analizar si la inversión real en vivienda per cápita está relacionada con el precio de las viviendas usamos los datos *hseinv* del libro de Wooldridge. - El modelo de regresión es: `$$\log (invpc)= \beta_0 + \beta_1 \log (price) + \beta_3 t + u_t$$` donde: - `\(invpc\)` es la inversión real en vivienda per cápita (en miles de dólares). - `\(price\)` es un índice del precio de vivienda (igual a 1 en 1982). - `\(t\)` es una tendencia lineal. - Este ejemplo busca resaltar al **importancia de controlar por la tendencia** cuando las series muestra comportamientos ascendentes o descendentes en el tiempo, ya que la relación podría deberse únicamente a la presencia de tendencia (**relación artificial o espurea**). --- ## Ejemplo 3: Inversión y precios de vivienda <img src="3_Series_de_Tiempo_Estacionarias_ECD1_files/figure-html/precio_vivienda-1.png" width="70%" style="display: block; margin: auto;" /> --- ## Ejemplo: Inversión y precios de vivienda .pull-left[ .regression[ <table style="text-align:center"><tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"></td><td colspan="3"><em>Dependent variable:</em></td></tr> <tr><td></td><td colspan="3" style="border-bottom: 1px solid black"></td></tr> <tr><td style="text-align:left"></td><td colspan="2">log(invpc)</td><td>resid(linv_reg)</td></tr> <tr><td style="text-align:left"></td><td>(1)</td><td>(2)</td><td>(3)</td></tr> <tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">log(price)</td><td>1.24<sup>***</sup> (0.38)</td><td>-0.38 (0.68)</td><td></td></tr> <tr><td style="text-align:left">trend(ts.data)</td><td></td><td>0.01<sup>***</sup> (0.004)</td><td></td></tr> <tr><td style="text-align:left">resid(lprice_reg)</td><td></td><td></td><td>-0.38 (0.66)</td></tr> <tr><td style="text-align:left">Constant</td><td>-0.55<sup>***</sup> (0.04)</td><td>-0.91<sup>***</sup> (0.14)</td><td></td></tr> <tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">Observations</td><td>42</td><td>42</td><td>42</td></tr> <tr><td style="text-align:left">R<sup>2</sup></td><td>0.21</td><td>0.34</td><td>0.01</td></tr> <tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"><em>Note:</em></td><td colspan="3" style="text-align:right"><sup>*</sup>p<0.1; <sup>**</sup>p<0.05; <sup>***</sup>p<0.01</td></tr> </table> ]] .pull-right[ - En la primera regresión, la elasticidad es grande y significativa (1.2409432). Debe ser cuidadoso aquí, porque la relación puede deberse solamente a la existencia de tendencia. - Al controlar por tendencia, regresión 2, la elasticidad estimada del precio es negativa (-0.3809613) y en términos estadísticos no es diferente de cero (el estadístico t para `\(H_0: \beta = 0\)` es -0.5611985). - Note que controlar por la tendencia es equivalente a eliminar la tendencia primero usando: `$$x_t = \beta_0 + \beta_1 t + e_t$$` y luego user `\(e_t\)` como variable sin tendencia. ] --- ## Estacionalidad - Una serie de tiempo en **frecuencia interanual** (trimestral, mensual, semanal o diaria) puede presentar estacionalidad. - Una manera de modelar este fenómeno es permitir que el valor esperado de la serie de tiempo sea distinto (de forma deterministica) en cada periodo interanual. - Para lograr este objetivo podemos incluir **variables binarias estacionales** en el modelo de regresión. - Por ejemplo, si la serie de tiempo es mensual tenemos: `$$y_t = \beta_0 + \beta_1 x_{1t} + ... + \beta_{Kt} x_{Kt} + \gamma_1 feb_t + ... + \gamma_{11} dic_t + u_t$$` donde `\(mes_t\)` es 1 en el mes correspondiente y 0 en otro caso. Note que hemos omitido una variable binaria `\(ene_t\)` para evitar colinealidad perfecta. --- ## Estacionalidad - Incluir variables binarias estacionales en una regresión es equivalente a la **eliminación de la estacionalidad de los datos**. - De igual forma que con la tendencia, podemos **eliminar ("descontar") la estacionalidad** antes de estimar el modelo. Esto es estimar por MCO: `$$y_t = \gamma_0 + \gamma_1 feb_t + ... + \gamma_{11} dic_t + \tilde{y_t}$$` para todas las variables del modelo. - Luego MCO para el siguiente modelo genera los mismo estimadores que el modelo original. `$$\tilde{y}_t = \beta_1 \tilde{x}_{1t} + ... + \beta_{Kt} \tilde{x}_{Kt} + \tilde{u}_t$$` - Finalmente, alguna series de tiempo pueden presentar **tendencias y patrones estacionales**. En este caso se usa un modelo de regresión con una tendencia y variables binarias estacionales. --- ## Ejemplo 4: Demandas antidumping e importaciones químicas - Krupp y Pollard (1996) analizaron los efectos de las demandas antidumping de las industrias químicas estadounidenses sobre la importación de diversas sustancias químicas (usamos los datos *barium* del libro de Wooldridge). - Antecedentes: - A principios de los 80s, la industria de cloruro de bario en EEUU consideró que China estaba ofreciendo sus exportaciones a EEUU a precios injustamente bajos. - Interpusieron una demanda ante la Comisión Estadounidense de Comercio Internacional (CCI) en 10/1983 y la CCI falló a favor en 10/1984. - Modelo: `\begin{eqnarray*} \log (chnimp) &=& \beta_0 + \beta_1 \log (chempi) + \beta_2 \log (gas) + \beta_3 \log (rtwex) +\beta_4 befile6 \\ &+& \beta_5 affile6 + \beta_6 afdec6 + \sum_{i=2}^{12} \delta_i s_{i,t} + u_t \end{eqnarray*}` donde: - `\(chnimp\)`: volumen de importaciones de cloruro de bario de China. --- ## Ejemplo 4: Demandas antidumping e importaciones químicas - Modelo (continuación ...) - `\(chempi\)`: índice de la producción química (para controlar la demanda general de cloruro de bario) - `\(gas\)`: volumen de la producción de gasolina (otra variable de demanda). - `\(rtwex\)`: índice del tipo de cambio. - `\(befile6\)` es igual a 1 durante los seis meses anteriores a la demanda. - `\(affile6\)` es igual a 1 durante los seis meses posteriores a la demanda. - `\(afdec6\)` es igual a 1 durante los seis meses que siguieron al fallo positivo. - Preguntas relevantes: - ¿Las importaciones eran demasiado altas en el periodo anterior a la demanda inicial? - ¿Las importaciones cambiaron de manera notable después de la demanda? - ¿Cuál es la reducción en las importaciones luego del fallo? --- ## Ejemplo 4: Demandas antidumping e importaciones químicas .pull-left[ .regression[ <table style="text-align:center"><tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"></td><td colspan="3"><em>Dependent variable:</em></td></tr> <tr><td></td><td colspan="3" style="border-bottom: 1px solid black"></td></tr> <tr><td style="text-align:left"></td><td colspan="2">log(chnimp)</td><td>resid(r_lchnimp)</td></tr> <tr><td style="text-align:left"></td><td>(1)</td><td>(2)</td><td>(3)</td></tr> <tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">log(chempi)</td><td>3.12<sup>***</sup> (0.48)</td><td>3.27<sup>***</sup> (0.49)</td><td></td></tr> <tr><td style="text-align:left">log(gas)</td><td>0.20 (0.91)</td><td>-1.28 (1.39)</td><td></td></tr> <tr><td style="text-align:left">log(rtwex)</td><td>0.98<sup>**</sup> (0.40)</td><td>0.66 (0.47)</td><td></td></tr> <tr><td style="text-align:left">befile6</td><td>0.06 (0.26)</td><td>0.14 (0.27)</td><td></td></tr> <tr><td style="text-align:left">affile6</td><td>-0.03 (0.26)</td><td>0.01 (0.28)</td><td></td></tr> <tr><td style="text-align:left">afdec6</td><td>-0.57<sup>*</sup> (0.29)</td><td>-0.52<sup>*</sup> (0.30)</td><td></td></tr> <tr><td style="text-align:left">resid(r_lchempi)</td><td></td><td></td><td>3.27<sup>***</sup> (0.47)</td></tr> <tr><td style="text-align:left">resid(r_lgas)</td><td></td><td></td><td>-1.28 (1.32)</td></tr> <tr><td style="text-align:left">resid(r_lrtwex)</td><td></td><td></td><td>0.66 (0.45)</td></tr> <tr><td style="text-align:left">resid(r_befile6)</td><td></td><td></td><td>0.14 (0.25)</td></tr> <tr><td style="text-align:left">resid(r_affile6)</td><td></td><td></td><td>0.01 (0.26)</td></tr> <tr><td style="text-align:left">resid(r_afdec6)</td><td></td><td></td><td>-0.52<sup>*</sup> (0.29)</td></tr> <tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left">R<sup>2</sup></td><td>0.30</td><td>0.36</td><td>0.32</td></tr> <tr><td style="text-align:left">Adjusted R<sup>2</sup></td><td>0.27</td><td>0.26</td><td>0.29</td></tr> <tr><td style="text-align:left">Residual Std. Error</td><td>0.60 (df = 124)</td><td>0.60 (df = 113)</td><td>0.57 (df = 125)</td></tr> <tr><td style="text-align:left">F Statistic</td><td>9.06<sup>***</sup> (df = 6; 124)</td><td>3.71<sup>***</sup> (df = 17; 113)</td><td>9.78<sup>***</sup> (df = 6; 125)</td></tr> <tr><td colspan="4" style="border-bottom: 1px solid black"></td></tr><tr><td style="text-align:left"><em>Note:</em></td><td colspan="3" style="text-align:right"><sup>*</sup>p<0.1; <sup>**</sup>p<0.05; <sup>***</sup>p<0.01</td></tr> </table> ]] .pull-right[ - (1) no controla por efecto estacional. (2) incluye variable dummy estacionales mensuales. El test F de `\(H_0: \delta_2 = ... = \delta_{12} = 0\)` es 0.8559459 con un p-value de 0.5851983. - `\(befile6\)` es positiva pero no es significativa. No hay evidencia de importaciones inusitadamente altas. - `\(affile6\)` es negativo pero es pequeño (indica una disminución de -3.2406368% en las importaciones). - `\(afdec6\)` muestra una disminución sustancial y significativa en las importaciones luego del fallo (aprox. -56.5244799%). - Note de (3) que incluir variable dummy estacionales es equivalente a eliminar el efecto estacional de todas las variables primero. ]