Modelos macroeconómicos. ¿De dónde venimos y hacia dónde vamos?

Desde mediados de los 1980s hasta el comienzo de la crisis financiera de 2008-2009, la teoría macroeconómica se mantuvo en una suerte de calma, de círculo virtuoso. Los economistas académicos estaban más o menos de acuerdo con respecto a ciertas estructuras fundamentales que los modelos debían satisfacer, y la investigación consistía en estudiar distintas desviaciones con respecto a esa estructura común. Usualmente, el estudio de estas desviaciones estaba motivado por alguna incapacidad del modelo básico para explicar cómo funciona la economía.

Dentro de esta evolución, una rama de la macroeconomía aplicada se esforzó en dotar de fundamentos microeconómicos a la idea tradicional de rigideces de precios y salarios nominales. Uno de los fines de esta agenda de investigación es el de capturar ciertas intuiciones keynesianas en modelos que no estén sujetos a (o más resguardados de) la crítica de Lucas.[1] Versiones de estos modelos (neo-keynesianos) se usan de manera habitual en los bancos centrales del mundo.[2]

¿Modelos para predecir o para evaluar cambios en la política económica? La crítica de Lucas.

La diferencia es fundamental. Si queremos predecir en un contexto de incertidumbre, pero sin grandes cambios estructurales en la economía, no es necesario usar modelos con fundamentos microeconómicos o internamente consistentes. Regresiones de series de tiempo de una o más variables, o estimaciones de sistemas de ecuaciones, son suficientes.  Estos son los que llamaré modelos en forma reducida y que son muy útiles para hacer predicciones.[3]

La situación es distinta si el objetivo es estudiar el impacto de cambios en la política económica. Cuando estimamos un modelo en forma reducida, los coeficientes estimados dependen del proceso por el cual los agentes económicos toman decisiones. Estas, a su vez, dependen de las reglas de política económica que rigen al momento de estimar las regresiones. Si cambiamos la regla de política económica, los agentes cambiarán sus decisiones y, por lo tanto, cambiarán los parámetros estimados del modelo en forma reducida. De este razonamiento surge que analizar cambios de política usando regresiones estimadas con las reglas anteriores al cambio darán resultados erróneos porque estas no tienen en cuenta que los agentes económicos responden a incentivos.[4]

Basta un ejemplo simple para comprender la crítica. Supongamos que nuestro ingreso es de 100 pesos y hay un impuesto del 20 por ciento sobre los ingresos. La recaudación es, entonces, de 20 pesos. Con esta estructura impositiva, concluimos que de cada 100 pesos de ingresos el estado recauda 20. Supongamos ahora que el gobierno aumenta el impuesto a 90 por ciento. Entonces, razona el analista poco ducho en la crítica de Lucas, la recaudación aumentará a 90 pesos por cada 100 pesos de ingresos.  Evidentemente, el razonamiento es erróneo porque los trabajadores no van a trabajar la misma cantidad de horas que antes del cambio impositivo. Esta lógica está, de una manera u otra, en todas las regresiones en forma reducida que relacionan variables económicas con instrumentos de política económica.

La crítica de Lucas junto con la revolución de las “expectativas racionales” de los 60s y 70s, impulsaron un cambio de paradigma en la manera de pensar la macroeconomía.[5] Se buscó trabajar con modelos internamente consistentes, con fundamentos microeconómicos y con sistemas de formación de expectativas tales que los actores económicos no pudiesen ser engañados sistemáticamente por otros agentes o por las autoridades monetaria y fiscal.[6]

La gran recesión y la “crisis” de la macroeconomía

Desde la irrupción de la crisis financiera de 2008-2009 la teoría macroeconómica está siendo cuestionada por muchos analistas. Las críticas van desde la incapacidad de los modelos para predecir la crisis hasta críticas sobre los supuestos fundamentales sobre los que se basan, por ejemplo, el mecanismo de formación de expectativas. Es usual escuchar la queja de que la teoría se mantuvo alejada de cuestiones relevantes de política económica y que los modelos no son más que una mera diversión donde los académicos compiten por ver quién tiene la idea más inteligente o forma elegante de resolver cierto problema. Economistas con contribuciones importantes a la economía, como Brad Delong, Paul Krugman o Paul Romer, se quejan de la “matematicidad” de los modelos económicos.[7] Y en su forma extrema, proponen eliminar de lleno la macroeconomía moderna y volver a modelos del estilo IS-LM o de los multiplicadores keynesianos.[8]

Críticas más amigables y constructivas se pueden encontrar en una serie de posts de Olivier Blanchard[9], Larry Christiano, y en el discurso del vicepresidente del Banco Central Europeo, Vítor Constâncio del 25 de septiembre.

¿Hacia dónde vamos?

Entender cómo funciona la economía para luego analizar cambios de política económica es difícil. Los agregados económicos se construyen sumando las decisiones de millones de hogares y empresas, las decisiones del sector público (cuyos actores tienen sus propios incentivos) y de agentes externos. Las decisiones, a su vez, se toman sujeto a una gran cantidad de restricciones: restricciones tecnológicas, restricciones presupuestarias, restricciones financieras, diferencias de información entre los distintos actores económicos y restricciones en la capacidad de procesar información o de hacer deducciones lógicas, entre otras.[10] ¿Implica lo anterior que debemos barajar y dar de nuevo volviendo, como proponen Krugman y otros, a modelos simples y estáticos como el IS-LM de Hicks escrito hace más de 80 años? No lo creo. Esos modelos fueron útiles en su momento, pero hemos aprendido mucho desde entonces. Preguntas complejas requieren de herramientas complejas; de más matemática, no de menos.

Los economistas no estuvieron 30 años dándose palmadas en la espalda congratulándose de lo bien que entienden el mundo. Siguieron estudiando formas de incorporar fricciones, heterogeneidades, problemas de información y diferentes mecanismos de formación de expectativas en los modelos. Muchas de esas novedades no llegaron a incorporarse a los modelos que usan los bancos centrales para tomar decisiones precisamente porque, hasta la irrupción de la crisis, no se consideraban imprescindibles. O porque todavía no habían pasado el principal test de relevancia: el tiempo.

La crisis financiera quizás ayudó a enfocar y acelerar ciertas investigaciones que ya se estaban produciendo de manera natural en las universidades. También ayudó a generar nuevas preguntas de investigación. Esta es precisamente la forma en que usualmente avanza la ciencia: hay algún hecho u observación que es difícil de explicar con la estructura aceptada por la mayoría y se construye sobre esa base.[11]

La comunicación entre academia, bancos centrales y economistas aplicados no se detuvo. En todo caso, aumentó durante los últimos años. Un ejemplo de interacción fructífera entre academia y trabajo aplicado es el siguiente. En el modelo canónico neo-keynesiano, la política monetaria se describe con una regla de Taylor por la cual la tasa de interés nominal aumenta cuando aumenta la inflación y disminuye cuando el producto se encuentra por debajo de su valor potencial. En un contexto donde la tasa de interés nominal es cero (desde fines de 2008 hasta fines de 2015 en Estados Unidos), es imposible seguir bajando la tasa de interés para “estimular” a la economía para que llegue a su nivel potencial. Una serie de trabajos de investigación se dedicaron a analizar los efectos de preanuncios de la política monetaria en el mediano y largo plazo (forward guidance) de tal manera de afectar las decisiones de los agentes hoy.[12] El impacto de preanuncios de política monetaria sobre la demanda agregada actual se da a través de la ecuación de Euler del consumo, que resume la decisión de los hogares de consumir hoy versus consumir en el futuro. Sin embargo, se observó que el efecto de los preanuncios monetarios predicho por los modelos tiende a ser demasiado fuerte en relación a los valores estimados.[13] Como respuesta a esta deficiencia empírica del modelo básico, algunos trabajos estudiaron desviaciones de expectativas racionales para reducir el impacto de los preanuncios monetarios sobre la demanda agregada de hoy.[14]

Este es solo un ejemplo, entre muchos, de la cooperación fructífera entre trabajo académico y aplicado. Hay muchos más y no es el objetivo de este post hacer un resumen de la literatura. Basta mencionar que no creo que la discusión fundamental sea la de neoclásicos versus keynesianos. El hecho de que históricamente los modelos macroeconómicos usaron la abstracción del agente representativo, de mercados financieros que funcionan más o menos bien, de horizontes de planeamiento infinito y del supuesto de expectativas racionales, parece más el resultado del avance lento pero constante de la ciencia, con sus idas y vueltas, que de prejuicios ideológicos alejados de toda evidencia empírica sobre cómo funciona el mundo.

Olivier Blanchard propone una separación entre los modelos teóricos que se producen en universidades y los modelos que se usan para tomar decisiones en los bancos centrales. Blanchard argumenta que, para tomar decisiones, no es necesario el nivel de consistencia interna que tienen los modelos que terminan publicados en las revistas de investigación de primer nivel, y que modelos con supuestos ad-hoc pueden ser muy útiles. Puede que lo sean, pero creo que el objetivo final de la ciencia es el de encontrar un modelo que sea internamente consistente y que pueda ser usado para la toma de decisiones. En el camino a esa meta, parece razonable usar una familia de modelos con distintos grados de formalidad (con más o menos fundamentos microeconómicos) para analizar cambios en la política económica y tomar decisiones informadas luego de ver todas las posibilidades.[15]

 

 

[1] Robert E. Lucas Jr. Econometric policy evaluation: a critique. Carnegie-Rochester Series on Public Policy, Vol 1, 1976, pp-19-46.

[2] Las referencias obligadas son Smets and Wouters (2003), “An estimated dynamic stochastic general equilibrium model of the euro area”, Journal of the European Economic Association, 1:5 (September), 1123-1175, y Christiano, Eichenbaum and Evans (2005), “Nominal rigidities and the dynamic effects of a shock to monetary policy,” Journal of Political Economy, vol 113, No. 1, 1-45. Una presentación reciente que explica métodos de resolución y estimación de modelos macroeconómicos neo-keynesianos se encuentra en Herbst and Schorfheide, “Bayesian Estimation of DSGE models,” Princeton University Press. 2016. Sin embargo, ver la crítica a estos modelos de John Cochrane.

[3] Que no necesariamente coincide con lo que un econometrista llama “la forma reducida de un modelo”.

[4] Para una visión más benigna de los métodos econométricos en forma reducida, ver Christopher Sims (1982) “Policy analysis with econometric models,” Brooking Papers on Economic Activity, 1, pp 109-132; y Thomas Sargent (1984) “Autoregressions, expectations, and Advice,” The American Economic Review, Vol 74, Issue 2, pp 408-415.

[5] Thomas Kuhn (1962) “La estructura de las revoluciones científicas,” University of Chicago Press.

[6] Esta es una manera muy informal de definir la teoría de expectativas racionales. Una discusión de la teoría de expectativas racionales, aprendizaje y modelos de racionalidad acotada requeriría de varios posts.

[7] Romer incluso afirma que muchos economistas usan fórmulas matemáticas complicadas adrede para ocultar ciertos prejuicios ideológicos en sus trabajos de investigación y que tienen una agenda política que va más allá de su honestidad académica.

[8] Pero ver la respuesta de John Cochrane a la crítica de Paul Krugman.

[9] Blanchard escribió tres artículos que se pueden encontrar aquí: primero, segundo y tercero.

[10] Ver también la evaluación de la macroeconomía moderna de Ricardo Reis.

[11] No creo que estemos en una situación de cambio de paradigma al estilo Kuhn.

[12] Ver la discusión de Ben Bernanke del 19 de noviembre de 2013; Gauti B. Eggerston and Michael Woodford (2003) “The zero bound on interest rates and optimal monetary policy,” Brooking Papers on Economic Activity, No 1; y J. Campbell, C. Evans, J. Fisher, and A. Justiniano (2012) “Macroeconomic effects of FOMC forward guidance,” Brooking papers on Economic Activity, vol 43 (spring) pp. 1-54.

[13] Del Negro, M. M. Giannoni, and C. Patterson (2015) “The Forward Guidance Puzzle”. Federal Reserve Bank of New York.  Alisdair McKay & Emi Nakamura & Jón Steinsson, 2016. “The Power of Forward Guidance Revisited,” American Economic Review, vol 106(10), pages 3133-3158

[14]Ver E. Farhi and I. Werning (2017) “Monetary Policy, Bounded Rationality, and Incomplete Markets” y Xavier Gabaix (2017) “A Behavioral New Keynesian Model.  La dificultad de alejarse de expectativas racionales es que fácilmente se entra en lo que se conoce como la “jungla de la irracionalidad”. El problema consiste en cómo modelar desviaciones de expectativas racionales sin ser completamente arbitrarios. Si uno puede manipular las expectativas de los agentes del modelo de manera arbitraria, uno puede explicar todo. Y un modelo que explica todo y no pone restricciones sobre sus predicciones es inútil; es el mapa perfecto de Borges.

[15] Quizás dando más peso a los modelos que predicen los peores resultados, como propone la teoría de control robusto de Lars Hansen y Thomas Sargent (2008) “Robustness.” Princeton University Press.