Название: El lado oscuro de la econometría
Автор: Walter Sosa Escudero
Издательство: Bookwire
Жанр: Зарубежная деловая литература
isbn: 9789873887208
isbn:
Tengo la impresión de que chequear los supuestos clásicos es como verificar si en la práctica se da el movimiento rectilíneo uniforme de la secundaria. Es más seguro pensar que no. De modo que la preocupación no es si se cumplen o no (no se cumplen), sino cuáles son las consecuencias, cuantitativas y cualitativas, de que no se cumplan. Hacer un test de heterocedasticidad en un corte transversal es más o menos como hacerle un test de embarazo a un tipo: ya sabemos la respuesta antes de hacer el test (hay heterocedasticidad). Entonces, la utilidad de un test de heterocedasticidad no es ver si simplemente la hay o no, sino si existe algún patrón de heterocedasticidad que sea relevante evaluar desde un punto de vista económico, quizás en términos de heterogeneidad, es decir, ver la presencia de heterocedasticidad no como una patología, sino como un fenómeno conceptual relevante. De esto mismo se dio cuenta David Hendry casi 40 años atrás en términos de la autocorrelación: la pregunta de si hay autocorrelación o no no es relevante en sí misma, sino desde un punto de vista de incorrecta especificación dinámica, de modo que la presencia de autocorrelación no debería conducir a “corregir la autocorrelación” sino a repensar la estructura dinámica del modelo, cuya mala especificación conduce a la autocorrelación. Este es el gran aporte a la causa de la así llamada escuela de econometría dinámica encabezada por Hendry.
El pragmatismo vigente se basa en que hacer las cosas bien es estimar consistentemente los parámetros de interés y luego poder hacer una “inferencia válida”. De ahí que, mayoritariamente, la profesión haya gravitado hacia el método de MCO acompañado de un estimador robusto de la varianza, como el de White, que es consistente haya heterocedasticidad o no. En este marco, ¿qué rol cumple el supuesto de normalidad? ¿Y el de heterocedasticidad? ¿Y el de linealidad? El de normalidad, a nadie le importa, si va a confiar en una teoría asintótica. El de heterocedasticidad, tampoco, ya que el estimador MCO y el estimador robusto son consistentes independientemente de este supuesto, precisamente. ¿Y el de linealidad? Vamos, con un R2 tan bajo (común en economía), ajusta tan mal una recta como cualquier curva suave, por compleja que sea.
Aquí coincido con el reciente texto de Bruce Hansen, en el sentido de que “chequear los supuestos” es importante en la medida en que las hipótesis nula y alternativa detrás de los supuestos sean relevantes desde un punto de vista económico y no estadístico. En este marco, la pregunta sobre la heterocedasticidad es relevante si sugiere heterogeneidad; la de correlación serial, si apunta a una dinámica más rica; y la de no normalidad, si habla de no observables asimétricos o de colas pesadas, o con fines predictivos, como es de interés en finanzas.
Quizás haya llegado la hora de abandonar los supuestos clásicos, y con ellos el teorema de Gauss Markov. A la larga, las consecuencias de que los supuestos clásicos no valgan no parecen ser terriblemente graves, y las ganancias de que se cumplan son bastante pobres (como pobre es el teorema de GM, como discutimos anteriormente). Quizás en algún momento haya reales ganancias de eficiencia en explotar las violaciones a los supuestos clásicos, es decir, acciones tales como implementar el método de mínimos cuadrados generalizados bajo heterocedasticidad. Pero, así como están las cosas, la estructura pedagógica del “modelo lineal bajo los supuestos clásicos” parece darse de patadas con la práctica habitual econométrica.
¿No habrá llegado la hora de una nueva forma de enseñar econometría?
Referencias
Angrist, J. y Pischke, J., 2010, The credibility revolution in empirical economics: How better research design is taking the con out of econometrics, Journal of Economic Perspectives, 24(2), 3-30.
Hansen, B. 2015, Econometrics, mimeo. Disponible en http://www.ssc.wisc.edu/~bhansen/econometrics/.
Hendry, D. y Mizon, G., 1978, Serial correlation as a convenient simplification, not a nuisance: Acomment on a study of the demand for money by the Bank of England, Economic Journal, 88(351), 549-63.
UN AÑO SIN EL R2
Supongamos que viene nuestro hijo (hermano, amigo, lo que sea), de 16 años y nos dice “me saqué un 10 en un examen” (cuyas calificaciones van de 0 a 10). ¿Es una buena noticia? Bueno, si es en uno de Mecánica Cuántica, del doctorado en Física, seguro. ¿Y si el tipo volvió a sentarse con los niñitos de la primaria y tomó el examen de Matemática de primer grado? Mmmm. Esta ambivalencia de reacciones debería provocarle a uno la noticia de que el modelo que acaba de estimar tiene un R2 alto.
Como todos sabemos, el R2 es una medida de la contribución relativa del modelo lineal estimado por el método de mínimos cuadrados. Relativa a un modelo naive consistente en la media muestral de la variable de interés.
El R2 es una medida de calidad en relación con la pregunta que uno se hizo inicialmente, es decir, el R2 no juzga la respuesta ni la pregunta, sino la adecuación de la respuesta a la pregunta. Por ejemplo, si en un modelo la variable explicada es el activo de una empresa, y las variables explicativas son el pasivo y el patrimonio neto, a menos que cometamos algún error al ingresar los datos, el R2 será exactamente igual a uno. Es decir, el modelo proporciona una respuesta perfecta a una pregunta demasiado estúpida: siempre el activo es igual al pasivo más el patrimonio neto, por lo menos desde la época de fray Luca Pacioli, como discutimos antes. En el otro extremo está cualquier modelo de economía laboral, que aun con miles de datos no puede proporcionar un R2 mayor a 0.3. ¿Cuál de los dos modelos es mejor? Comparar modelos nada más que sobre la base del R2 es como comparar coches sobre la base de su tamaño. Sin otra mención en particular, creer que un modelo es mejor que otro porque tiene R2 más alto es como creer que un desvencijado ómnibus es mejor que un Porsche solo porque es más grande.
La enorme popularidad del R2 tiene que ver con hacerles creer a los principiantes que se trata de “la” medida de calidad. La estadística clásica tiene enormes dificultades en definir con precisión qué significa que un modelo sea bueno y, de hecho, recurre a un conjunto de propiedades deseables, dejándole al usuario que defina (explícita o implícitamente) su mapa de preferencias sobre ellas, por ejemplo, si es preferible más sesgo que varianza o que un estimador sea robusto o no.
Cualquier modelo es obviamente erróneo como representación de la realidad, y la discusión de si es bueno o malo es, en realidad, una discusión de si es útil o no, en el sentido de lo que decía George Box, eso de que “todos los modelos están mal, pero algunos son útiles”. En el caso de las ecuaciones de Mincer, ¿es el R2 igual a 0.3 bajo? Depende. Depende de para qué se quiera usar al modelo. Si es para estimar el efecto de la edad sobre los salarios, posiblemente el modelo sea excelente, a juzgar por la ínfima varianza con la que dicho efecto puede ser estimado. Ahora si el objetivo es usar el modelo para predecir salarios, el modelo es bastante malo. No existe forma de decir si 0.3 es bajo o alto, a menos que explicitemos qué pretendíamos del modelo. En el caso de los activos antes mencionados, un R2 de 0.99999 es patéticamente bajo: ya sabíamos cómo funcionaba el modelo sin necesidad de estimar absolutamente nada.
A veces pienso si no es mejor tirar СКАЧАТЬ