15 noviembre 2018

ORO, Otra vez indicador de problemas 11-2018

Según declaraciones de junio del 2018 del estratega en materias primas de TD Ameritrade Securities, Bart Melek, el oro comenzará a repuntar durante el último trimestre de este año, para avanzar hacia un promedio de US$ 1.375 dólares la onza a finales del 2019, es más el oro podría superar los US$ 1,400 dólares, el oro no podido superar ese nivel desde el 2013.

"Con el tiempo, habrá cada vez menos razones para seguir apostando por el dólar, permitiendo revertir algunos de flujos de dinero, resultando positivo para el mercado del oro".

"Pensamos que el dólar se irá debilitando a inicios del 2019, lo que resulta en un buen combustible para el oro", dijo Melek, en una conferencia de metales preciosos, que tiene su lugar en Singapur.

"En el corto plazo, no hay razones para pensar que el oro pueda seguir subiendo, esto debido un dólar fuerte y una creciente expectativa ante una inminente subida de los tipos de interés por parte de la FED".

-
Crisis anteriores:
https://brujulaeconomica.blogspot.com/search?q=Oro%20indicador&fbclid=IwAR119s9R6NMMOO_SdMBj5rVuK265X3nzRxxNx1FgU29ZuZ5dspSYRClfI0w 

-
El índice dólar que mide la evolución del billete verde frente a una canasta de monedas, subía un 0.32% hasta los 94.38 puntos, cerca de su máximos de once meses, el dólar le ha quitado cierto protagonismo al oro como valor refugio ante las creciente tensiones comerciales entre Estados Unidos y China, pues el oro es utilizado como un valor refugio en momento de inestabilidad economice y geopolítica.

El oro no ha podido reaccionar positivamente ante el aumento de las preocupaciones en torno a las tensiones comerciales, pues la administración Trump planea implementar una limitación para prohibir a las empresas que tengan un 25% de propietarios chinos la compra de acciones de empresas tecnológicas estadounidenses

--
La prevision actual  de un escenario coyote en E2020, es de un 20 %.
.... 
Aun es pronto para hacer diagnosticos, pero estar atentos a las señales,los balances, las cuentas macroeconomicas, en Febrero del 2019, es necesario.
---

30 octubre 2018

El poder del ciclo económico.José García Montalvo

El poder del ciclo económico

José García Montalvo
Catedrático de Economía (UPF)
Los economistas hemos dado por muerto al ciclo económico muchas veces. Durante los años sesenta y los primeros setenta se generalizó la idea de que los ciclos habían pasado a la historia y que el futuro sería un fase continua de permanente crecimiento. Las herramientas keynesianas de política económica (cambios en el gasto público, impuestos, etcétera) habían acabado con las fluctuaciones. La crisis del petróleo demostró con especial virulencia lo erróneo de dicha creencia. Algo similar sucedió durante los años ochenta hasta que comenzó el ciclo recesivo de los primeros años noventa. Pero quizás la situación más paradójica, y más reciente, se produjo con la finalización del ciclo expansivo de los años 2000. Simultáneamente al desplome de la economía mundial en 2008-09 todavía se publicaban en revistas científicas, normalmente tras un largo proceso de revisión por otros académicos, artículos sobre lo que se conoció como la gran moderación. Los macroeconomistas habían decidido durante los anteriores diez años que la economía ya no sufriría las grandes oscilaciones del pasado, fundamentalmente por la capacidad de una sofisticada política monetaria para mantener la economía en una senda de moderación perpetua. Tampoco esta vez la realidad dio tregua a las teorías sobre la desaparición de los ciclos. Larry Summers, autoproclamado enfant terrible de la economía académica, recuperó y popularizó en el 2013 el concepto de estancamiento secular. La recuperación de la economía tras la Gran Depresión sería breve pues los ciclos económicos habían cambiado: a breves periodos de recuperación les seguirían largos periodos de recesión. Su predicción, referida fundamentalmente a Estados Unidos, se ha demostrado errónea y ya prácticamente nadie habla de estancamiento secular. La economía sigue en expansión con tasas de crecimiento altas y desempleo en mínimos históricos. Los ciclos económicos tradicionales siguen vivos y gozando de buena salud.
-
Junto con la muerte de los ciclos económicos también ha sido popular, más en los medios de comunicación que en círculos académicos, la visión de que la macroeconomía puede estar en un ciclo expansivo pero eso no significa nada para la microeconomía, para la vida de la gente. En el caso español esta ha sido una constante desde que comenzara la recuperación económica en el 2014. En las últimas semanas, la DGT ha puesto en marcha una campaña para intentar reducir las víctimas de accidentes de tráfico cuya tendencia decreciente cambió… en el 2014. Todos los picos anteriores de víctimas en accidentes de tráfico coincidieron con el último año de expansión de un ciclo económico, y el comienzo de la fase descendiente marca una caída de víctimas con una única excepción: la introducción del carnet por puntos.
-
La semana pasada los sindicatos se mostraban lógicamente alarmados por el sustancial incremento de los accidentes laborales que después de una reducción continuada desde 2008 hasta 2013 empezó a aumentar… en el 2014. La anterior caída de la siniestralidad laboral se produjo con el comienzo de la crisis de 1990 y volvió a aumentar nada más comenzar la recuperación económica. El absentismo laboral cayó significativamente desde 2008 hasta que comenzó a incrementarse de nuevo… en el 2014. En el 2017 ya había superado el máximo del 2007.
El precio de la vivienda empezó a caer a finales de 2008 y en 2013 las casas habían perdido un 40% de su valor hasta que los precios comenzaron a recuperarse… en 2014. El número de matrimonios se redujo de forma significativa a partir del 2008 hasta que comenzó a repuntar de nuevo… en 2014. Y así podríamos seguir con muchos otros procesos, por no hablar de variables que están directamente relacionadas con la situación económica como el empleo, el desempleo, el consumo...
En algunos casos se pueden producir retrasos en el efecto del ciclo económico sobre algunos fenómenos pero, en general, la macroeconomía y lo que se denomina popularmente microeconomía van de la mano. Y así tiene que ser puesto que la macroeconomía es simplemente la agregación de la microeconomía. Muchos de estos efectos retardados son comunes a otras recuperaciones. Tras los primeros años de recuperación de los beneficios, los trabajadores empiezan a ganar poder de negociación y a exigir un reparto más equilibrado de la mejora económica. La conflictividad laboral aumenta y los salarios reales tienden a recuperarse.
-
Es cierto que además de los retardos en la actualidad se podría estar produciendo un cambio estructural. La sospecha es que la cuarta revolución industrial pueda provocar una variación sustancial en la economía. De hecho la polarización de la renta observada en países que comenzaron antes la transición tecnológica no tardará en extenderse al resto de países. Pero este es un cambio estructural que se superpone al efecto del ciclo y que debe afrontarse con políticas diferentes a las medidas contracíclicas. Estos cambios requerirán modificaciones en el viejo sistema de contabilidad nacional, prácticamente inalterado desde su introducción hace décadas, que todavía utilizamos para medir la evolución de la producción y, por tanto, los ciclos. En una economía cada vez más centrada en los servicios, la economía colaborativa, los algoritmos e internet el sistema de contabilidad nacional requiere una transformación sustancial.
-
A pesar de los problemas de medición y el cambio estructural, es sorprendente la capacidad del ciclo económico para afectar todo tipo de procesos sociales. Y lo más sorprendente es que después de muchos años buscando el origen de los ciclos, e intentando predecir los cambios de ciclo, seguimos teniendo en Keynes la interpretación más probable ante el fracaso de la mayoría de las alternativas: los animal spirits o la psicología colectiva de consumidores e inversores

18 octubre 2018

William D. Nordhaus / Paul M. Romer premio nobel de economia 2018

El Premio Nobel en Ciencias Económicas se dividió en partes iguales entre William D. Nordhaus "por integrar el cambio climático en el análisis macro-económico a largo plazo" y Paul M. Romer "por integrar las innovaciones tecnológicas en el análisis macro-económico a largo plazo":





La Academia Sueca ha decidido otorgar el premio Nobel de Economía (de hecho, el premio del Banco Nacional de Suecia para las Ciencias Económicas) a William Nordhaus y a Paul Romer por su integración, respectivamente, del cambio climático y de la innovación tecnológica en el análisis macroeconómico de largo plazo. Como ya nos tiene acostumbrados, el comité Nobel hace equilibrios para dar el premio. Por un lado, premia a Romer por demostrar cómo la generación de ideas y la innovación pueden inducir un crecimiento perpetuo. Por otro, premia a Nordhaus por estudiar las consecuencias negativas para el cambio climático de este crecimiento y apuntar posibles paliativos. 
Todo un ejercicio de corrección política. Hay más.
- El comité ha sido valiente al dar el premio a Romer pues este lanzó en el 2016 una crítica feroz al análisis macroeconómico contemporáneo del que dijo que ha representado “tres décadas de regresión intelectual”. Una crítica que es reminiscente de la conferencia de Hayek en 1974 en la ceremonia del premio Nobel, criticando también treinta años de análisis macroeconómico. Romer centró su crítica en el modelo del ciclo económico dominante (el modelo del “ciclo económico real”) que se basa según el autor en “fuerzas imaginarias” para explicar las fluctuaciones de la economía, haciendo un paralelo con la teoría de cuerdas en la física de partículas. Líderes de la teoría del ciclo económico real llegaron a afirmar, antes de la Gran Recesión del 2008-2009, que el ciclo había sido dominado. Además, Romer dimitió a principios de este año como economista jefe del Banco Mundial después de 15 meses, desilusionado y crítico con la organización de la investigación en el banco.
-
Los dos economistas se han preocupado de los problemas a largo plazo y han basado sus análisis en el modelo de crecimiento de Solow (premio Nobel en 1987). En este modelo la acumulación de capital tiene rendimientos decrecientes (es decir, un mayor nivel de capital genera un retorno adicional menor), y este hecho implica que la distancia entre países ricos y pobres debería acortarse, cosa que no siempre sucede. Romer explica las diferencias en las tasas de crecimiento entre países en que hay distintos incentivos para generar ideas e innovar. La innovación es precisamente lo que puede evitar el efecto de los rendimientos decrecientes. En efecto, una mayor innovación hace que los trabajadores sean más productivos debido al progreso tecnológico. Sin embargo, el mercado no tiende a generar suficiente innovación puesto que esta proporciona beneficios que no son apropiados plenamente por el inventor o innovador. En la jerga económica, la innovación genera una externalidad positiva para la sociedad. Esta es una razón de ser del sistema de patentes que protege a los inventores y de la subvención pública a la investigación básica. Según Romer el conocimiento es el fundamento del desarrollo económico y aquello que posibilita superar los rendimientos decrecientes asociados a la inversión en capital físico.
-
Nordhaus extiende el modelo de Solow incorporando la interacción entre la economía, las emisiones y el clima. Aquí la externalidad analizada, la contribución al calentamiento global por las emisiones de carbono, es negativa. Nordhaus integra en el modelo de crecimiento económico el ciclo del carbono, con una tendencia para la concentración de CO2 en la atmósfera y la variación de la temperatura global según el balance de los flujos de energía desde y a la Tierra. De esta manera puede simular el efecto de distintas políticas, tales como impuestos o cuotas a las emisiones, en la economía y al nivel de emisiones. Según Nordhaus, el mejor remedio para paliar los efectos de las emisiones de gases que provocan el efecto invernadero es imponer una tasa global al carbono. El principio según el cual el que contamina paga se basa en las propuestas que Pigou formuló ya en los años 1920: el que crea una externalidad negativa debe enfrentarse al coste social de su actividad. Naturalmente, en lugar de un impuesto al carbono se puede obtener el mismo resultado con un sistema bien diseñado de permisos para polucionar. El modelo de Nordhaus permite estimar qué impuesto al carbono sería necesario para contener las emisiones a un cierto nivel o para mantener el incremento de la temperatura global por debajo de 2 grados Celsius. Por cierto, el reciente panel de las Naciones Unidas sobre el cambio climático recomienda que el aumento no exceda de 1,5 grados. Hay que considerar que existe un grado de incertidumbre muy elevado sobre los efectos de las emisiones en el clima y la temperatura global. El mejor argumento para la lucha contra el cambio climático es que, aunque la probabilidad de un desastre sea pequeña, los efectos son potencialmente devastadores, y por ello vale la pena invertir en prevención. Los modelos de Nordhaus también consideran ocho regiones en el mundo y, por tanto, permiten un análisis más afinado de las consecuencias de políticas públicas diferenciadas.
-
Una conclusión consistente con los trabajos de los flamantes premiados es que la inversión en ciencia y tecnología es rentable en términos sociales. Esperemos que se generen suficientes ideas brillantes para que seamos capaces a la vez de controlar las emisiones y aumentar el nivel de vida de las generaciones futuras.
-
Según Nordhaus, el mejor remedio para paliar el efecto invernadero es imponer una tasa global al carbono



https://www.lavanguardia.com/opinion/20181018/452412188563/nobel-al-crecimiento.html






09 octubre 2018

Causalidad e Inteligencia Artificial.Daniel García

Causalidad e Inteligencia Artificial

A muchos de ustedes quizá no les suene el nombre de Judea Pearl. Sin embargo, se trata de una de las mentes más importantes de los últimos 50 años, y quizá solo Alan Turing haya tenido mayor impacto en el mundo de la inteligencia artificial. A Pearl se le considera el creador de las redes Bayesianas que introdujeron el aprendizaje probabilístico en la inteligencia. Estas redes permiten a los sistemas informáticos agregar y resumir millones de observaciones y generar predicciones acertadas a partir de ellos, y han dado lugar a innovaciones cruciales en ámbitos tan dispares como la telefonía móvil y la predicción meteorológica (aquí algunas de ellas). Las redes neuronales que están detrás de los algoritmos de aprendizaje profundo más avanzados no hubieran sido posibles sin ellas.

Tras este gran éxito, Pearl decidió dar un giro completo a su carrera. Su "revelación" fue comprender que la inteligencia humana no se sustenta en una gran capacidad de análisis de datos complejos sino en una comprensión profunda de las reglas de causa y efecto y una habilidad prodigiosa de imaginar mundos alternativos (o contra-factuales). Y junto a esa revelación llegó un desafío: cómo lograr condensar en lenguaje probabilístico las relaciones de causa y efecto que le resultan tan naturales a un niño de tres años y tan ajenas a un algoritmo como el de AlphaGo.
En su Libro del Porqué (The Book of Why), Pearl se propone tres desafíos. Primero, introducir al lector en las técnicas que ha desarrollado para capturar relaciones de causalidad en términos matemáticos. Segundo, mostrar sus aplicaciones a campos tan diversos como las ciencias sociales, la medicina y la inteligencia artificial. Y tercero, narrar, desde su particular perspectiva, una historia del concepto de causalidad en la ciencia y la estadística.
Para ilustrar el método "prodigioso" que nos presenta Pearl vamos a utilizar un ejemplo clásico. Desde los años 50, se sabe que existe una clara asociación estadística entre el consumo de tabaco y el cáncer de pulmón. Un fumador habitual tiene un factor de riesgo entre 10 y 20 veces superior a contraer cáncer de pulmón. La pregunta relevante es, sin embargo, si fumar incrementa la probabilidad de contraer cáncer o existe un tercer factor que "confunde" nuestro análisis. Por ejemplo, podría existir un gen que incrementase tanto la probabilidad de contraer cáncer como de convertirse en fumador habitual. Para responder a esa pregunta, Pearl utiliza dos herramientas: el diagrama de causalidad y el denominado "do-calculus".
El diagrama de causalidad (ver Figura) representa de manera sucinta las relaciones entre las variables, de modo que si existe una flecha de una variable a otra entendemos que la primera influye en la segunda. Este diagrama no es el resultado de "mirar a los datos" sino que antecede la investigación empírica. Se trata de una representación formal de los supuestos del "modelo" que el investigador debe utilizar para extraer relaciones de causalidad. Sin supuestos no hay causas.

El do-calculus es un conjunto de reglas deductivas que permiten establecer la conexión entre las variables que observamos en los datos (proporción de fumadores entre los pacientes) y las relaciones de causalidad (probabilidad de contraer el cáncer para un fumador). A través de ellas, Pearl proporciona varios ejemplos de lo que podríamos llamar técnicas empíricas para extraer relaciones de causalidad sin necesidad de llevar a cabo experimentos aleatorios.
Si ha llegado hasta aquí, el lector se estará preguntando... ¿qué hay de nuevo en esto? ¿acaso no hemos escuchado eso de "correlación no es causalidad" lo suficiente? ¿qué hay de las variables instrumentales, los diseños de regresión de discontinuidad o las estrategias de diferencias en diferencias de las que tanto me han hablado en este blog?ç
-
Aunque Pearl no responde a estas preguntas, podríamos decir que sus técnicas pueden ser utilizadas cuando no dispongamos de ninguna de estas técnicas “cuasi-experimentales”. Su principal debilidad es que requieren supuestos "fuertes" sobre los mecanismos a través de los cuales unas variables afectan a otras. Volviendo al ejemplo de las causas del cáncer, podríamos utilizar las ideas de Pearl para obtener una estimación causal del efecto del tabaco si asumimos que (i) el impacto del tabaco depende únicamente de su contenido de alquitrán, y (ii) el gen del fumador no tiene un impacto en el procesamiento del alquitrán ni en las preferencias de los fumadores por distintos tipos de tabaco. A este tipo de supuestos los llamaríamos en economía "estructurales" (que no paramétricos) y nos costaría mucho utilizarlos al hablar de "causalidad".[i]
El problema es que Pearl no hace prisioneros. Todo aquel que no sigue sus ideas es "una isla de resistencia". El avance de la "revolución causal" es inexorable y gente como Heckman, Card, Angrist, Imbens y Rubin son reliquias. Como consuelo, les queda que sus pecados palidecen respecto a los de los dos enemigos públicos de la revolución: Pearson y Fisher. En un ejercicio de whigismo y de revisión histórica, Pearl reduce las contribuciones de estos dos padres de la estadística matemática al bloqueo de cualquier avance que pusiera en contradijera sus creencias, resultando en décadas de atraso de las disciplinas no experimentales que sólo él ha podido subsanar.
Por último, Pearl deja sin responder la pregunta con la que inició su investigación: ¿cómo programar relaciones de causalidad? Sabemos que cualquier intento basado en la descripción del mundo mediante descripciones exhaustivas está condenado al fracaso, pues el mundo es demasiado complejo. En su lugar, debemos crear un sistema de inteligencia artificial que sea capaz de crear sus propios "diagramas de causalidad". Para ello el sistema debe comprender que existen variables que no observa y que, por tanto, debe imaginar. Pero la imaginación es, sin duda, el mayor nivel de inteligencia y no su requisito previo.
En definitiva, el libro de los porqués nos deja más preguntas que respuestas. Quizá ese sea, a pesar de todo, su verdadero triunfo.
-
[i] En términos del diagrama, estos supuestos garantizan que no existe flecha de X a Y, ni del factor oculto a Z, ni existe ningún otro factor que determine esta relación.

Daniel García

Daniel Garcia es doctor en Economía por la Universidad Carlos III de Madrid. Actualmente trabaja como Profesor Asistente en la Universidad de Viena
 fuente:
http://nadaesgratis.es/daniel-garcia/causalidad-e-inteligencia-artificial-pearl-y-sus-porques

 

El Premio Nobel de Economía 2018: Los límites y las fuentes del crecimiento económico The Prize in Economic Sciences 2018

Press release: The Prize in Economic Sciences 2018

English
English (pdf)
Swedish
Press release in Swedish (pdf)
Logo
8 October 2018
The Royal Swedish Academy of Sciences has decided to award the Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel 2018 to
William D. Nordhaus
Yale University, New Haven, USA
“for integrating climate change into long-run macroeconomic analysis”
and
Paul M. Romer
NYU Stern School of Business, New York, USA
“for integrating technological innovations into long-run macroeconomic analysis”

Integrating innovation and climate with economic growth

William D. Nordhaus and Paul M. Romer have designed methods for addressing some of our time’s most basic and pressing questions about how we create long-term sustained and sustainable economic growth.
At its heart, economics deals with the management of scarce resources. Nature dictates the main constraints on economic growth and our knowledge determines how well we deal with these constraints. This year’s Laureates William Nordhaus and Paul Romer have significantly broadened the scope of economic analysis by constructing models that explain how the market economy interacts with nature and knowledge.
Technological change – Romer demonstrates how know- ledge can function as a driver of long-term economic growth. When annual economic growth of a few per cent accumulates over decades, it transforms people’s lives. Previous macroeconomic research had emphasised technological innovation as the primary driver of economic growth, but had not modelled how economic decisions and market conditions determine the creation of new technologies. Paul Romer solved this problem by demonstrating how economic forces govern the willingness of firms to produce new ideas and innovations.
Romer’s solution, which was published in 1990, laid the foundation of what is now called endogenous growth theory. The theory is both conceptual and practical, as it explains how ideas are different to other goods and require specific conditions to thrive in a market. Romer’s theory has generated vast amounts of new research into the regulations and policies that encourage new ideas and long-term prosperity.
Climate change – Nordhaus’ findings deal with interactions between society and nature. Nordhaus decided to work on this topic in the 1970s, as scientists had become increasingly worried about the combustion of fossil fuel resulting in a warmer climate. In the mid-1990s, he became the first person to create an integrated assessment model, i.e. a quantitative model that describes the global interplay between the economy and the climate. His model integrates theories and empirical results from physics, chemistry and economics. Nordhaus’ model is now widely spread and is used to simulate how the eco- nomy and the climate co-evolve. It is used to examine the consequences of climate policy interventions, for example carbon taxes.
The contributions of Paul Romer and William Nordhaus are methodological, providing us with fundamental insights into the causes and consequences of technological innovation and climate change. This year’s Laureates do not deliver conclusive answers, but their findings have brought us considerably closer to answering the question of how we can achieve sustained and sustainable global economic growth.

Read more about this year’s prize

Popular science background: Integrating nature and knowledge into economics
Pdf 464 kB
Scientific Background: Economic growth, technological change, and climate change
Pdf 1265 kB
To read the text you need Acrobat Reader.
https://www.nobelprize.org/prizes/economics/2018/press-release/
 

William D. Nordhaus, born 1941 in Albuquerque, USA.
Ph.D. in 1967 from Massachusetts Institute of Technology, Cambridge, USA. Sterling Professor of Economics, Yale University, New Haven, USA.
https://economics.yale.edu/people/william-d-nordhaus
Paul M. Romer, born 1955 in Denver, USA.
Ph.D. in 1983 from University of Chicago, USA. Professor at NYU Stern School of Business, New York, USA.
https://www.stern.nyu.edu/faculty/bio/paul-romerhttp://www.stern.nyu.edu/faculty/bio/paul-romer

The Prize amount: 9 million Swedish krona, to be shared equally between the Laureates
Further information: http://www.kva.se and http://www.nobelprize.org
Press contact: Kajsa Waaghals, Press Officer, +46 8 673 95 44, +46 70 878 67 63, kajsa.waaghals@kva.se
Experts: Per Krusell, +46 70 276 13 34, krusell@iies.su.se and John Hassler, +46 70 811 72 63, john@hassler.se, members of the Committee for the Prize in Economic Sciences in Memory of Alfred Nobel

 

El Premio Nobel de Economía 2018: Los límites y las fuentes del crecimiento económico

Juan Francisco Jimeno
 

La Real Academia Sueca de Ciencias decidió ayer otorgar el Premio Sveriges Riksbank en Ciencias Económicas en Memoria de Alfred Nobel 2018 a William D. Nordhaus (Universidad de Yale) y a Paul M. Romer (NYU Stern School of Business) "por integrar el cambio climático (Nordhaus) y la innovación tecnológica (Romer) en el análisis macroeconómico de largo plazo”.  En su comunicado, el jurado señala que ambos han construido modelos que explican como las economías de mercado interactúan con el medio ambiente y el conocimiento científico y, por tanto, permiten comprender los límites y las fuentes del crecimiento económico sostenible y sostenido. No cabe duda de que se tratan de contribuciones muy relevantes, pues proporcionan las bases para desarrollar políticas que actúen sobre dos acontecimientos que pueden cambiar radicalmente el rumbo de la Humanidad.
En esta entrada se enmarcan las contribuciones de Nordhaus y Romer en la historia del pensamiento sobre crecimiento económico y se describen, con algún detalle, las de Nordhaus. En una entrada aneja, escrita por Diego Comin, se comentan con mayor detalle las de Romer.
Antecedentes
Para entender la importancia de las contribuciones de Nordhaus y Romer hay que remontarse al estado de la teoría del crecimiento económico hace unos cincuenta años (justo cuando un grupo de académicos escandinavos ideó y empezó a otorgar este premio). Por entonces, tras la archiconocida controversia de Cambridge, la teoría del crecimiento económico se resumía básicamente en dos postulados: i) el crecimiento económico en el largo plazo es el resultado de dos factores, la acumulación de capital y el progreso tecnológico, y ii) con rendimientos constantes a escala en la función de producción agregada, la acumulación de capital no puede continuar indefinidamente y, por tanto, solo el progreso tecnológico puede sostener el crecimiento en el largo plazo. Robert Solow, también galardonado con el Premio Nobel de Economía (en 1987), no solo había desarrollado el modelo matemático capaz de demostrar ambos postulados, sino que había propuesto una manera de medir el progreso tecnológico mediante lo que después se llamó Productividad Total de los Factores (o “residuo de Solow”).
A pesar de la importancia de las contribuciones de Solow, esta era, en el mejor de los casos, una teoría del crecimiento económico incompleta. Por una parte, no había un tratamiento detallado de las fuentes del progreso tecnológico (en palabras del propio Solow, este era como “un maná caído del cielo”, es decir, se consideraba exógeno). Por otra parte, en este enfoque no había lugar para restricciones al crecimiento económico derivadas de la existencia de recursos naturales no renovables.
Hacía falta pues desarrollar el conocimiento sobre crecimiento económico en dos direcciones. Una era entender las fuentes del progreso tecnológico, motor único del crecimiento en el largo plazo, para así aspirar a comprender (y gestionar) los efectos de políticas que pudieran promover el crecimiento económico (el hecho de que el “residuo de Solow” explicara la mayor parte del  crecimiento económico no era otra cosa que una prueba de la ignorancia de los economistas, según el propio Solow). Otra era averiguar si el crecimiento económico se podía sostener indefinidamente en un mundo con recursos naturales limitados o en el que el crecimiento económico se produce degradando el medio ambiente. Por una parte, ya a principios de los 1970s había informes como el del Club de Roma sobre los limites del crecimiento que, en modo malthusiano, profetizaban que no era posible sostener el crecimiento económico durante mucho tiempo. Por otra, Joseph Stiglitz  y Partha Dasgupta y Geoffrey Heal mostraron, respectivamente, que la innovación, mediante la sustitución de tecnologías, y los rendimientos crecientes a escala podrían vencer los limites del crecimiento y que existía una tasa óptima de agotamiento de los recursos naturales compatible con un crecimiento económico sostenido.
Saliendo del túnel
En relación con la innovación tecnológica, había tres barreras que el conocimiento económico no había podido superar. Una era entender la actividad económica que subyace al progreso tecnológico: cómo se producen y por qué hay  innovaciones tecnológicas.  Las otras dos se derivan de dos características fundamentales de la innovación tecnológica. Una es que proporciona poder de mercado a quien la realiza y, por tanto, su análisis hay que abordarlo en modelos con monopolios o competencia monopolística que entonces estaban muy poco desarrollados. Otra es que, dado que las ideas pueden utilizarse por otros distintos a los que las tienen, la innovación tecnológica produce economías externas (y, por tanto, rendimientos crecientes a escala a nivel agregado). Aunque muchos otros lo intentaron, no fue hasta finales de los 1980s cuando Paul Romer encontró una manera satisfactoria de introducir rendimientos crecientes a escala y competencia monopolística en modelos en los que el crecimiento se produce de manera sostenida y equilibrada. (En la entrada de Diego Comin, aneja a esta, se explica en mayor detalle cómo lo hizo y el enorme impacto que sus contribuciones tuvieron sobre el análisis macroeconómico de largo plazo y sus implicaciones de política económica).
Por lo que respecta a los límites del crecimiento, la contribución de Nordhaus ha sido fundamental en muchas dimensiones. Por una parte, se le considera el padre de una nueva rama: la Economía del medio ambiente. Por otra, sus trabajos han permitido fundamentar influyentes informes sobre las consecuencias económicas del cambio climático, como, por ejemplo, el famoso “informe Stern” (dirigido por otro economista, Sir Nicholas Stern,  galardonado en 2010, como también lo fue Nordhaus en 2017, con el Premio Fundación BBVA Fronteras del Conocimiento en la categoría de cambio climático).
William Nordhaus fue de uno de los que, con menos éxito que Romer, intentó “endogeneizar” el progreso tecnológico en modelos de crecimiento económico (su tesis doctoral, dirigida por Robert Solow y presentada en 1967 en MIT, lleva por título “A Theory of Endogenous Technical Change”).  Tras realizar diversas contribuciones en varios campos de la macroeconomía y ser co-autor con Paul Samuleson de uno de los libros de introducción a la economía más utilizados, su interés por la economía del cambio climático nació de trabajos sobre el uso eficiente de recursos energéticos (algunos resultados recientes y muy interesantes sobre la interacción entre progreso tecnológico y eficiencia energética, aquí).  A medida que crecía la conciencia sobre los efectos de la emisión de gases de efecto invernadero en el cambio climático, pasó a dedicarse a la construcción de modelos con los que analizar los efectos económicos de dichas emisiones y con los que evaluar medidas para reducirlas (ver aquí). Básicamente se trata de modelos de equilibrio general en los que la producción de bienes y servicios lleva aparejada emisiones de gases que aumentan la temperatura global del planeta y por ello tienen efectos negativos sobre la demanda y la oferta. Dichos modelos, alimentados por estimaciones de los parámetros de las preferencias temporales de los agentes, de las emisiones asociadas al crecimiento de la producción de bienes y servicios, de los efectos (lineales o no) de estas emisiones sobre la temperatura, y de los consecuencias económicas de aumentos de la temperatura en distintas zonas del planeta, constituyen el mejor instrumental disponible para vencer la resistencia a implementar políticas necesarias para combatir el cambio climático. Por ejemplo, simulaciones de sus modelos permiten sostener la conclusion de que, en la mayoría de los escenarios, la política más eficiente para hacer frente a las emisiones de gases de efecto invernadero es gravarlas con un impuesto implementado uniformemente por todos los países. (Curiosamente, una derivación del impuesto óptimo sobre el consumo de hidrocarburos se debe al presidente del jurado que ha concedido el premio, Per Krusell).
En definitiva, se trata de un Premio Nobel que reconoce los avances en la teoría económica del crecimiento realizados durante las tres ultimas décadas y su gran relevancia para la formulación de políticas económicas que influyen decisivamente en el bienestar social.

Juan Francisco Jimeno

Doctor en Economía por MIT, 1990. Ha sido profesor en varias universidades españolas y extranjeras, investigador en FEDEA hasta 2004 y en la actualidad trabaja en la Dirección General de Economía y Estadística del Banco de España. Es autor de numerosos artículos de investigación y de libros sobre macroeconomía y economía laboral, investigador asociado al CEPR y a IZA y editor del IZA Journal of Labor Policy. Los puntos de vista expresados en mis entradas son estrictamente personales y no reflejan, necesariamente, los del Banco de España

Fuente
http://nadaesgratis.es/juan-francisco-jimeno/el-premio-nobel-de-economia-2018-los-limites-y-las-fuentes-del-crecimiento-economico

Cuando Paul cogió su bulldozer

admin
de Diego Comin
-
Hay veces en que lo incierto no es el qué, sino el cuándo. Este era el caso de Paul Romer y el Premio Nobel de Economía. Estaba claro que lo iba a recibir. Así se lo hice saber a mi hijo tras toparnos con Paul mientras paseábamos por Nueva York hace exactamente un año. “A este señor le van a dar el Nobel de economía.” Aún recuerdo su cara de extrañeza ante la rotundidad con la que hice tal afirmación.
Lo tenía claro desde hace mucho tiempo. Posiblemente desde que leí por primera vez esas 33 páginas que publicó en 1990 en un suplemento especial sobre crecimiento económico en el Journal of Political Economy. Era el invierno de 1995. Antonio Ciccone enseñaba “Economic Growth II” en la Pompeu Fabra. En su lista de lecturas estaba “Endogenous Technological Change” de Paul Romer. Un día antes de discutirlo en clase le pregunté a Enric Fernández que qué tal era el artículo que tocaba al día siguiente. “Caviar”, fue su escueta respuesta. Así era. Ese artículo me impactó. Un año después, Antonio Rangel, nuestro TA de micro, preguntó a cada estudiante cuál era para nosotros un buen modelo. Recuerdo que una compañera, Elena Rangelova, propuso el modelo de Hekscher-Ohlin; cuando llegó mi turno anuncié “Romer (1990)”. Así pues, para mí hoy se cierra un círculo. El artículo que más me ha influido como economista ha sido premiado.
La contribución de Romer (1990) a la macroeconomía es gigante. ¿Por dónde empezar a describirla? Al igual que Berlin a finales de los años 1980s, la literatura sobre crecimiento económico también tenía su muro. Al menos desde Solow (1958),[1] los economistas entendíamos que el crecimiento en el largo plazo sólo es sostenible si mejora la tecnología. Pero en Solow (1958) y el resto de modelos neoclásicos, la tecnología es exógena. De forma que el crecimiento en el largo plazo es ajeno al modelo. ¡No parece un problema menor en un modelo de crecimiento! Es como si los hermanos Wright inventaran un avión que solo fuera capaz de volar suponiendo que volara.
Sin embargo, al tratar de resolver el problema nos chocábamos con un muro. La frontera tecnológica avanza cuando se inventan nuevas tecnologías. Inventar nuevas tecnologías requiere recursos. ¿De dónde salen estos recursos? Si los mercados de productos y factores son competitivos, la retribución de los factores de producción agota por completo el output que se produce. De forma que no hay recursos disponibles para compensar a los innovadores por el coste fijo de desarrollar nuevas tecnologías. Durante 30 años no hubo forma de franquear este muro. Aquí se acababa el camino hacia construir un modelo donde el crecimiento ocurriera como consecuencia de acciones conscientes de los agentes económicos.
Romer (1990) derribó este muro con dos contribuciones. Primero, siguió la estela de otras áreas e incorporó los avances microeconómicos sobre competencia imperfecta para argumentar que el problema de la remuneración de los innovadores desaparece si éstos tienen poder monopolístico. En ese caso, podrán vender a los productores los bienes que contienen las nuevas tecnologías a un precio superior al coste marginal de producción. Con ese margen pueden recuperar el coste fijo que incurrieron para desarrollar la nueva tecnología. La segunda contribución es incluso más bella. La sección II de Romer (1990) contiene una discusión (casi platónica) sobre la naturaleza de la tecnología. Argumenta que lo que realmente inventan los innovadores no es un bien o un servicio sino una receta para combinar factores de producción y producir los bienes intermedios que contienen la tecnología. A estas recetas las llama ideas. Las ideas son “non-rival” en el sentido de que una vez inventadas, en principio, las puede utilizar cualquier agente. Además, son “excludable” porque hay instituciones como el sistema de patentes que pueden asignar derechos sobre que agentes pueden usar una idea. La combinación de “non-rivalry” y “excludability” de las ideas es clave dado que crean monopolios naturales y la posibilidad que los inventores los exploten para así cubrir los costes de desarrollar la innovación.
Con estas dos piezas, el avión vuela. La tasa de crecimiento de la economía es una variable endógena, y el modelo puede predecir qué factores afectan la cantidad de recursos que dedicamos a innovar y como estos generan crecimiento en el largo plazo.
Parte del valor de las obras galardonadas con un Nobel reside en el efecto que tienen en otras áreas. En este sentido, Romer (1990), y más generalmente los modelos de crecimiento endógeno, han tenido un impacto importante. Para empezar, la manera imperfecta con que las patentes permiten a los innovadores capturar las consecuencias de sus innovaciones en la sociedad introduce una motivación para la política de innovación de los gobiernos. Los modelos de crecimiento endógeno se han usado para entender mejor las consecuencias del comercio internacional, la relación entre la innovación y el desempleo, o las dinámicas de creación y destrucción de empresas. Asimismo, los modelos de crecimiento endógeno ofrecen un nuevo caballo de batalla para analizar las consecuencias de los shocks que generan ciclos en la economía. En éste contexto, es fácil entender por qué las recesiones pueden tener consecuencias muy prolongadas en la economía incluso cuando los shocks que las generan son relativamente transitorios.
Finalmente, me gustaría concluir esta nota con una mención a otros investigadores que fueron clave en levantar los pilares del crecimiento endógeno en los bulliciosos años 1990s. Siempre es difícil determinar el padre de la criatura. Así que yo no me voy a meter en ese berenjenal. Cualquier reseña sobre crecimiento endógeno tiene que incluir a Philippe Aghion, Peter Howitt, Elhanan Helpman y Gene Grossman. El caso de Helpman es aun más notable dado que también merecía haber recibido el Premio Nobel de Economía en 2008, con Krugman, por sus contribuciones al comercio internacional.
[1] Es cuanto menos curiosa la coincidencia en fechas entre el muro de Berlin (1961-1990) y el periodo que marcan Solow (1958) y Romer (1990).
fuente
http://nadaesgratis.es/admin/cuando-paul-cogio-su-bulldozer
--
 https://www.nobelprize.org/uploads/2018/10/popular-economicsciencesprize2018.pdf
https://www.nobelprize.org/uploads/2018/10/popular-economicsciencesprize2018.pdf
-
https://www.casadellibro.com/libro-el-informe-stern-la-verdad-sobre-el-cambio-climatico/9788449320323/1144657
https://www.barcelonagse.eu/research/working-papers/investment-technological-progress-and-energy-efficiency
https://www.amazon.es/dp/B00G2C1374/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1





 

La Hipótesis de los Mercados Adaptativos. Andrew W

Los economistas no se ponen de acuerdo sobre si los inversores y los mercados son racionales y eficientes, tal y como supone la moderna teoría de las finanzas, o irracionales e ineficientes, tal y como creen los economistas del comportamiento y como sugieren las burbujas y las crisis financieras. De cómo se resuelva este debate depende que se gestionen bien las inversiones financieras. Con este libro Andrew W. Lo zanja esta cuestión dándole un nuevo marco conceptual: la Hipótesis de los Mercados Adaptativos, en la que la conviven racionalidad y la irracionalidad.
-
Basándose en profundos conocimientos de psicología, biología evolutiva, neurociencia e inteligencia artificial, esta obra sostiene que la teoría de los mercados eficientes no es errónea sino incompleta. Cuando los mercados son inestables, los inversores reaccionan instintivamente, creando ineficiencias que otros pueden aprovechar. El nuevo paradigma del autor explica cómo la evolución de las finanzas, que ocurre a la velocidad del pensamiento, condiciona el comportamiento de los inversores y de los mercados. Un hecho que ponen de manifiesto los vaivenes entre estabilidad y crisis, ganancia y pérdida, e innovación y regulación.

La Hipótesis de los Mercados Adaptativos. 

Andrew W. la resumen así:
-
Esta hipótesis se basa en las recientes investigaciones en psicología, neurociencia, biología evolutiva e inteligencia artificial, para mostrar que el comportamiento humano es el resultado de varios componentes del cerebro, algunos de los cuales producen un comportamiento racional, mientras que otros producen un comportamiento emocional más instintivo. Estos componentes a menudo trabajan juntos, pero ocasionalmente compiten entre sí. Por razones evolutivas, la racionalidad puede ser superada por la emoción y el instinto cuando nos enfrentamos a circunstancias extremas como amenazas físicas, y eso afecta a los mercados.
La naturaleza adaptativa de las cogniciones humanas también significa que los inversores están sujetos a percepciones erróneas de vez en cuando. Después de un período en el que no experimentamos ningún evento negativo, nuestra percepción es que el riesgo ha disminuido. Así que naturalmente, respondemos asumiendo un riesgo adicional.
El problema es que, en muchos casos, el riesgo no ha disminuido en absoluto - sólo que hemos experimentado un periodo en el que nada malo ha pasado. El resultado es que nos estamos exponiendo a más riesgo del que somos conscientes. Cuando ocurre un evento negativo, nos enfurecemos y nos vamos al extremo opuesto. Después de que nuestro temor disminuye, nos damos cuenta de que este extremo tampoco es el adecuado, así que comenzamos el ciclo de nuevo.

Andrew W. Lo

Economista

Andrew W. Lo es catedrático de administración de empresas en la Sloan School of Management, del MIT, y director del Laboratorio de Ingeniería Financiera de esa misma universidad. Reconocido autor de varias obras de actualidad económica, es además el fundador de Alpha Simplex Group, una empresa de gestión cuantitativa de inversiones con sede en Cambridge, Massachusetts.

06 octubre 2018

James Mirrlees (RIP): Haciendo justicia a los impuestos Blog NesG

James Mirrlees (RIP): Haciendo justicia a los impuestos

admin
 

de Xavier LabandeiraJosé María Labeaga
El pasado 30 de agosto murió, a la edad de 82 años, James Mirrlees, influyente economista británico y premio Nobel de Economía en 1996 (conjunto con William Vickrey) por “sus contribuciones fundamentales a la teoría económica de los incentivos bajo información asimétrica”. Para aquellos interesados en su vida, creemos que lo mejor es leer la autobiobrafía que él mismo escribió cuando le concedieron el Nobel. En cuanto a su contribución fundamental a la Economía, esta hay que buscarla en la introducción de una forma de pensar nueva tanto sobre los incentivos como sobre la desigualdad, que tiene implicaciones directas sobre el diseño de políticas públicas, en general, (con aplicaciones prácticas en numerosas áreas de la economía) y de los sistemas impositivos óptimos, en particular.

Imposición optima, en teoría y en la práctica 

En esta entrada nos centramos de forma especial en sus contribuciones al diseño de impuestos óptimos. Una conferencia que tuvo lugar en el Banco de España justo la semana siguiente a la muerte de Mirrlees muestra la enorme relevancia e influencia de su trabajo en este campo, en el que muchas de las cuestiones que él abordó todavía siguen bajo análisis y discusión (como por ejemplo demuestra la presentación de Florian Scheuer que no por casualidad tiene el sugerente título “Mirrlees meets Diamond-Mirrlees: Simplifying Nonlinear Income Taxation”). Pero la importancia de las contribuciones de Mirrlees es apreciable no sólo porque un importante número de trabajos actuales en Economía Publica las citan, de una u otra forma, sino porque han quedado plasmadas en documentos con relevancia práctica y política: Jame Mirrlees junto con un grupo de colaboradores (algunos participantes en la conferencia citada) participaron de forma activa en un informe publicado por Oxford University Press en dos volúmenes (Dimensions of Tax Design y Tax by Design), conocido como “Informe Mirrlees” que sentó las bases de las futuras reformas impositivas en el Reino Unido.
En efecto, la influencia de los trabajos de imposición óptima realizados por Mirrlees (solo o conjuntamente con Peter A. Diamond) hace casi 50 años (aquí, aquí o aquí) está presente en todo el informe y también en la mente de quienes diseñan impuestos desde un punto de vista práctico. Una prueba clara es el enorme debate que generó entre académicos y responsables políticos como prueba el monográfico publicado por Fiscal Studies dedicado en exclusiva a resúmenes, conclusiones, reflexiones y comentarios al informe (aquí). El informe también ha tenido impacto en varios países, principalmente desarrollados (ejemplo), y España no ha sido una excepción. La Fundación Ramón Areces organizó una conferencia de la que salió una monografía con las principales opciones para la reforma del sistema tributario español derivadas de las propuestas del Informe Mirrlees (aquí).

Fundamentando la disyuntiva entre eficiencia y equidad
El primer trabajo de Mirrlees (aquí) tiene la importancia de reformular el problema utilitarista de imposición óptima sobre la renta, de forma que tenga en cuenta los posibles efectos distorsionantes y la pérdida de eficiencia. De esta forma, introduce teóricamente discusiones relevantes sobre los principios que deben regir el diseño impositivo, las características que debe tener un impuesto óptimo o la redistribución que se consigue tras la introducción de un impuesto (o tras la reforma de un impuesto existente). Esta última pregunta tiene implicaciones en los efectos que el impuesto (o la reforma) tiene sobre la desigualdad. Por tanto, introduce numerosos aspectos teóricos que no habían sido tratados con anterioridad y, en particular, la discusión entre eficiencia y equidad (o redistribución) implícita en el diseño de cualquier impuesto. Sobre esta disyuntiva giran los trabajos contenidos en el Informe Mirrlees, que reconocen desde el principio la imposibilidad de optimizar ambas a la vez y, por tanto, la necesidad de buscar soluciones de segundo óptimo. Este trabajo es el origen de líneas de investigación muy fructíferas de autores relevantes (Atkinson, Dasgupta, Feldstein, Deaton, Stiglitz, Newberry, Sandmo o Stern, por citar sólo contribuciones de la década de los 70), que continúan hasta la fecha, como antes hemos relatado. Mirrlees introdujo, por tanto, los principios básicos para el diseño (o la reforma) del impuesto sobre la renta. Su trabajo tiene, además, la virtud de proporcionar ilustraciones numéricas con propuesta de tipos impositivos y cálculo de los efectos distorsionadores que los diferentes esquemas conllevan.
-
En los dos trabajos de Diamond y Mirrlees se analiza la imposición indirecta óptima, extensión del famoso modelo de Ramsey, a varios consumidores. De acuerdo al modelo de Ramsey, la imposición indirecta es óptima bajo condiciones muy estrictas (oferta de trabajo inelástica, utilidad separable entre consumo y ocio y homotética en consumo y preferencias aditivas). La regla de Ramsey, con estos supuestos, establece que el vector de impuestos óptimos sobre los n bienes produce la misma reducción proporcional en la demanda de todos ellos. En palabras de Mirrlees, la imposición indirecta será óptima cuando el índice de desaliento de todos los bienes sea igual. Con varios consumidores, podemos encontrar un resultado muy destacable cuando en el modelo se introducen precios variables a la producción, el teorema de eficiencia productiva, que establece que los bienes intermedios no deben ser gravados, sugiriendo, en términos de política fiscal, la necesidad de esquemas como el del Impuesto sobre el Valor Añadido que permiten la desgravación de los impuestos sobre los inputs, de modo que la imposición indirecta recaiga únicamente sobre los bienes finales.
Aunque existe otras contribuciones, individuales o conjuntas, de gran relevancia en el trabajo de James Mirrlees, creemos que es suficiente con lo anteriormente dicho para poder considerarlo como uno de los padres de los sistemas impositivos que hoy en día están en vigor en los países desarrollados, estableciendo, asimismo, pautas para el análisis de esquemas más generales de imposición óptima.
-
En tiempos en los que damos tanta importancia al impacto de las publicaciones, las palabras del profesor Partha Dasgupta, en el homenaje que la Universidad de Cambridge ofreció tras el fallecimiento de Mirrlees, son clarificadoras de su influencia: “su seriedad moral, unida a sus habilidades matemáticas deslumbrantes y un ojo infalible para la construcción de modelos económicos sencillos quedaron reflejados en media docena de artículos que, juntos, han construido los fundamentos teóricos de la economía pública”. Estas virtudes se pueden añadir a su capacidad para compartir tiempo e ideas con estudiantes y colaboradores (varios de los autores citados previamente, Dasgupta entre ellos, fueron sus estudiantes de doctorado), su sencillez y su modestia. De lo primero, la evidencia está en sus trabajos, pero de esto último podemos dar fe (foto) cuando vino a Madrid, no hace muchos años, a iluminarnos sobre los efectos socio-económicos de las políticas climáticas IWCPPfinal).

http://nadaesgratis.es/admin/james-mirrlees-rip-haciendo-justicia-a-los-impuestos

15 septiembre 2018

Vuelve la volatilidad:Informe Trimestral del BPI de marzo y junio de 2018

Informe Trimestral del BPI de marzo de 2018: Vuelve la volatilidad

Declaraciones on-the-record de Claudio Borio, Jefe del Departamento Monetario y Económico, y Hyun Song Shin, Asesor Económico y Jefe de Estudios, del Banco de Pagos Internacionales, 9 de marzo de 2018.

Declaraciones on-the-record 

Vuelve la volatilidad

BIS Quarterly Review  | 
11 marzo 2018
PDF full text
 |  18 pages
Los mercados bursátiles de todo el mundo experimentaron una acusada corrección a finales de enero y principios de febrero. Tras un persistente repunte que duró varios meses y que se cerró con el mejor mes de enero desde la década de 1990, la publicación de un informe sobre el mercado laboral que mostraba un crecimiento salarial superior al previsto en Estados Unidos marcó el inicio de una repentina intensificación de la actividad. Las cotizaciones bursátiles cayeron, rebotaron y volvieron a retroceder, en un contexto de niveles inusuales de volatilidad intradía. Esta corrección coincidió con un alza de la volatilidad en los mercados de deuda pública. Los rendimientos de los títulos del Tesoro a largo plazo llevaban aumentando paulatinamente desde mediados de diciembre, ya que los inversores parecían cada vez más preocupados por los riesgos de inflación y por los efectos macroeconómicos de la reforma fiscal estadounidense. Una súbita aceleración de los rendimientos en los últimos días de enero precedió a una caída de los mercados bursátiles en Estados Unidos y, con posterioridad, en otras economías avanzadas (EA). Los rendimientos de la deuda pública también subieron en otras EA, puesto que el repunte sincronizado del crecimiento mundial llevó a los inversores a descontar una retirada de las políticas no convencionales menos gradual de lo que se esperaba hasta entonces.
Durante todo el periodo analizado, que comenzó a finales de noviembre, los participantes en los mercados continuaron siendo muy sensibles a cualquier cambio percibido en los mensajes de los bancos centrales. Como se esperaba, la Reserva Federal elevó en diciembre el intervalo objetivo para la tasa de los fondos federales en 25 puntos básicos y continuó avanzando, en general según lo previsto, en la reducción de su balance. Al otro lado del Atlántico, el BCE mantuvo inalteradas la orientación de su política monetaria y su orientación de expectativas («forward guidance»), y continuó sin fijar una fecha concreta para la conclusión de su programa de compra de activos (APP). El Banco de Japón respondió a un repunte de los rendimientos a largo plazo, que parecía poner en entredicho su política de control de la curva de rendimientos, con una oferta para comprar una cantidad ilimitada de deuda pública a largo plazo.
Las convulsiones de los mercados se produjeron en un contexto general de debilidad sostenida del dólar estadounidense durante buena parte del periodo, continua relajación de las condiciones crediticias y una intrépida toma de riesgos en la mayoría de las clases de activos. Un breve repliegue hacia activos más seguros asociado con el clímax de las turbulencias bursátiles proporcionó al dólar un apoyo bastante limitado. Ni el continuo proceso de endurecimiento de la política monetaria de la Reserva Federal ni las recientes ventas masivas de renta variable coincidieron con una ampliación de los diferenciales de rendimiento de la deuda corporativa, que permanecieron en sus mínimos históricos. El apetito por activos de economías de mercado emergentes (EME) también continuó siendo fuerte. Los mercados bursátiles no tardaron en estabilizarse y reducir sus pérdidas. Al mismo tiempo, parecía que los inversores en renta fija tenían dificultades para valorar el impacto total de los cambios de las previsiones de inflación y el incierto volumen de la futura oferta neta de valores con vencimientos más largos.


https://www.bis.org/publ/qtrpdf/r_qt1803a_es.htm 

Los prestamistas comunes en Asia emergente: distintos papeles en tres crisis

BIS Quarterly Review  | 
11 marzo 2018
PDF full text
 |  13 pages
En varias de las crisis financieras recientes se ha observado la presencia de un canal del prestamista común. Con este término se alude a la tendencia de las condiciones de crisis a propagarse de unos países a otros al retirarse los bancos acreedores de países que hasta entonces no se habían visto afectados por la crisis, como consecuencia de sus problemas en otros que sí la padecen.
El canal del prestamista común tuvo especial relevancia en la crisis financiera asiática (CFA) de 1997-98, cuando una serie de países se vieron aquejados por graves tensiones financieras con consecuencias reales significativas. En el presente artículo analizamos las fluctuaciones del crédito bancario internacional en Asia emergente en la época de la CFA, así como en torno a la Gran Crisis Financiera (GCF) de 2007-09 y la crisis de la deuda soberana europea de 2010-12. La composición de bancos acreedores en la región ha experimentado cambios notables en el curso de los últimos 20 años (McGuire y van Rixtel (2012)). Por lo tanto, estos episodios presentan tres patrones distintos de exposición de países prestamistas frente a países en crisis, así como tres ejemplos de los efectos que el canal del prestamista común puede tener en el crédito a las economías de mercado emergentes (EME).
Tras explicar sucintamente los conceptos subyacentes al canal del prestamista común, analizamos la forma en la que este canal se manifestó en Asia emergente durante los tres episodios de crisis citados. La CFA constituye un caso extremo, con perturbaciones tanto de la demanda como de la oferta de crédito. La GCF presenta un cuadro variado. La demanda de crédito en el seno de Asia prácticamente no cambió, mientras que en el caso de la oferta los efectos difirieron entre bancos acreedores. Las repercusiones de la crisis de la deuda soberana europea para la demanda en Asia también fueron moderadas, pero sus efectos sobre la oferta presentan también en este caso una imagen más matizada. Por último, examinamos la composición actual de prestamistas de la región, incluida la creciente presencia global de los bancos chinos.
 https://www.bis.org/publ/qtrpdf/r_qt1803b_es.htm

Indicadores de alerta temprana de crisis bancarias: ampliación de la familia
El endeudamiento de los hogares y la deuda internacional (transfronteriza o en moneda extranjera) son una posible fuente de vulnerabilidades que podrían acabar causando crisis bancarias. Los autores del presente artículo monográfico analizan formalmente esta cuestión evaluando la capacidad de estas categorías de deuda para actuar como indicadores de alerta temprana de crisis bancarias sistémicas. La conclusión es que efectivamente ofrecen información de utilidad. De hecho, en la submuestra más reciente, la información proporcionada por los indicadores de deuda transfronteriza y de los hogares es similar a la de las tradicionales variables de crédito agregado que el BPI sigue periódicamente. Confirmando los resultados de trabajos anteriores, la combinación de estos indicadores con los precios inmobiliarios mejora sus resultados. Un análisis de las actuales condiciones globales basado en este conjunto de datos enriquecido señala la acumulación de vulnerabilidades en varios países.

https://www.bis.org/publ/qtrpdf/r_qt1803e.htm
PDF full text


Hipotecas, promotores y precios inmobiliarios 

El presente artículo monográfico estudia los riesgos que plantea el rápido incremento de la deuda de los promotores inmobiliarios que ha tenido lugar durante los últimos años en varias economías asiáticas. Las empresas del sector se alejan progresivamente de los préstamos bancarios tradicionales para recurrir, en cambio, a la emisión de títulos de deuda, a menudo en monedas extranjeras. Hasta la fecha, el endeudamiento se ha mantenido en niveles bajos en la mayoría de las empresas, pero su exigua rentabilidad y el descenso de sus coeficientes de cobertura de intereses son motivo de preocupación. Por lo tanto, las empresas son vulnerables a perturbaciones como subidas de las tasas de interés, caídas de los precios inmobiliarios o depreciaciones de la moneda local. Incluso si se logran evitar los impagos, el deterioro de los fundamentales en el sector podría contagiarse a otras partes de la economía por medio de un descenso de los precios de la vivienda.
PDF full text

  --
Articulos anteriores:
No hemos aprendido nada

http://articulosclaves.blogspot.com/2018/09/no-hemos-aprendido-casi-nada-de-la.html
10 Años despues de L.B
 http://articulosclaves.blogspot.com/2018/09/10-anos-de-la-espoleta-lehman.html

Informe Trimestral del BPI, junio de 2018

BIS Quarterly Review | 05 junio 2018
La edición de junio únicamente recoge información sobre las estadísticas del BPI, en concreto los suplementos estadísticos. La información sobre la evolución de los acontecimientos financieros se incluirá en su Informe Económico Anual 2018, cuya publicación está prevista para el 24 de junio.

Evolución de los mercados bancarios y financieros internacionales

El mercado de swaps de incumplimiento crediticio: cuántos cambios en tan solo un decenio Authors:  Iñaki Aldasoro and Torsten Ehlers pdf version (524kb) A lo largo del último decenio se han producido cambios notables en el tamaño y la estructura del mercado mundial de swaps de incumplimiento crediticio (CDS). Con la ayuda de las estadísticas del BPI sobre derivados, en el presente artículo documentamos el descenso de los importes vigentes, el auge de la compensación centralizada y la evolución de la composición de las exposiciones de riesgo de crédito subyacentes. La compensación por saldos netos (neteo) de los contratos de CDS se ha incrementado al coincidir un aumento de la proporción de contratos sobre índices estandarizados y la compensación de estos a través de entidades de contrapartida central. A su vez, esto ha favorecido una nueva reducción del riesgo de contraparte. Los riesgos de crédito subyacentes se han desplazado hacia títulos soberanos y carteras de valores de referencia con mejores calificaciones crediticias. La distribución de los riesgos de crédito entre categorías de contrapartes prácticamente no ha cambiado
https://www.bis.org/publ/qtrpdf/r_qt1806_es.htm