Muere Paul Volcker, expresidente de la Fed y gran enemigo de la inflación

Muere Paul Volcker, expresidente de la Fed y gran enemigo de la inflación.

Volcker fue presidente del banco central estadounidense entre 1979 y 1987 bajo el gobierno de dos presidentes: el demócrata Jimmy Carter y el republicano Ronald Reagan




Muere Paul Volcker, expresidente de la Fed y gran enemigo de la inflación
El expresidente de la Reserva Federal de Estados Unidos (Fed), Paul Volcker (EMMANUEL DUNAND / AFP)

El expresidente de la Reserva Federal de Estados Unidos (Fed), Paul Volcker, que llevó a cabo una fuerte subida de tipos de interés para controlar la inflación en la década de 1980, falleció a los 92 años, informó este lunes su familia.
Volcker fue presidente del banco central estadounidense entre 1979 y 1987 bajo el gobierno de dos presidentes: el demócrata Jimmy Carter, quien le designó; y el republicano Ronald Reagan, que renovó su mandato. Su muerte se ha debido a complicaciones asociadas al cáncer de próstata.

La era de la “Gran inflación”

Volcker, nacido en Cape May (Nueva Jersey), es recordado por la convulsa situación económica de EEUU con la que llegó a la Fed y que le llevó a capitanear la subida de los tipos de interés por encima del 20 % para combatir la era llamada de la “Gran Inflación”, cuando llegó a registrar un 14,8 % en marzo de 1980.
Aunque logró controlar el alza de precios, considerado su gran logro, su ajuste monetario provocó una recesión a corto plazo a comienzos de la década de 1980.
”Sin su atrevido cambio en la política monetaria y su determinación para mantenerla a través de varios dolorosos años, la economía de EEUU habría continuado su espiral de descenso”, dijo William Poole, expresidente de la Reserva Federal de San Luis, en un homenaje en 2005 recogido por el canal financiero CNBC.
”Gracias a que revertió políticas erróneas de sus predecesores, Volcker sentó las bases de las largas expansiones económicas de 1980 y 1990”, agregó Poole.

Presidente del Consejo de Asesores de la Recuperación Económica

Tras su salida de la Fed, Volcker se pasó a la banca privada y posteriormente regresó a la política pública al aceptar ser presidente del Consejo de Asesores de la Recuperación Económica, entre 2009 y 2011, con el presidente Barack Obama.
Dio nombre, asimismo, a la llamada “Regla Volcker”, diseñada para limitar la toma excesiva de riesgos por parte de los bancos privados, uno de los problemas que ayudó a desencadenar la crisis financiera de 2007-2008.
Antes de hacerlo en la Fed, Volcker trabajó en el Departamento del Tesoro bajo la presidencia de Richard Nixon, y previamente estuvo en la Reserva Federal de Nueva York.
Publicó sus memorias en 2018 bajo el título de “Keeping At It: The Quest for Sound Money and Good Government” (Mantenerse en ello: la búsqueda del dinero saludable y buen gobierno), y en una entrevista entonces calificó el estado del país como “un enorme lío en todas las direcciones”.
-
https://www.lavanguardia.com/economia/20191209/472136964470/paul-volcker-muere-expresidente-fed-inflacion.html

Paul Volcker Articulo 2005
 
ENTREVISTA: ENTREVISTA PAUL VOLCKER EX PRESIDENTE DE LA RESERVA FEDERAL DE ESTADOS UNIDOS
-
Nos avisaba antes de la crisis 2007-2017:“Esta situación económica y financiera no puede durar”

  • https://articulosclaves.blogspot.com/2008/10/sistema-financierobc.html?q=paul+volcker 
  • https://elpais.com/diario/2005/06/19/domingo/1119153153_850215.html
Paul Volcker-Blog salmon

Paul Volcker es una de las figuras más respetadas del mundo financiero y ayer volvió a golpear la mesa en una reunión con altos ejecutivos de las finanzas en Sussex, Inglaterra. Nadie podría haber imaginado que Volcker tendría la valentía de señalar, ante todos los banqueros reunidos, que la innovación financiera no aportó nada a la economía mundial: sólo los cajeros automáticos fueron una contribución importante.
Volcker, que tras asumir en febrero como Presidente del Comité para la Recuperación Económica de EE.UU. señaló que esta era “la madre de todas las crisis financieras”, dio a conocer su opinión sobre la inutilidad de los derivados financieros que, unidos a la desregulación total, dinamitaron las bases del sistema y provocaron la actual crisis. El ex presidente de la Reserva Federal reprendió a los ejecutivos por no comprender aún la magnitud de la crisis y por su incapacidad para enfrentar el problema dado que sólo se han preocupado de sus altas remuneraciones. En un tono particularmente molesto les dijo: “Despierten, señores”.

La reunión fue organizada por The Wall Street Journal y buscaba validar las tibias reformas sugeridas al sistema financiero que “no deben obstaculizar la innovación”. Frente a esto, un claramente irritado Paul Volcker, señaló que la mayor innovación financiera de los últimos 25 años fueron los cajeros automáticos, y atacó de lleno los derivados y complejos instrumentos como los Swap y CDS:
“Quiero que alguien me de una sola pizca de evidencia de que la innovación financiera ayudó al crecimiento económico; una sola pizca de evidencia… Al contrario: la llevaron derecho al desastre”.
Paul Volcker, que fue presidente de la Fed desde 1979 hasta 1987, cuando Ronald Reagan lo reemplazó por alguien que diera rienda suelta a la desregulación financiera (rol que recayó en Alan Greenspan), dijo:
“Se puede innovar en todo lo que se quiera, pero dentro de una estructura que no ponga en riesgo al conjunto de la economía”.
Volcker se ha mostrado partidario de un retorno aunque sea parcial a la Ley Glass-Steagall, una ley creada en 1933 por Roosevelt que separaba la banca de inversión de la banca comercial. Esta es una opción que puede reducir los niveles de riesgo y limitarlos sólo a las instituciones que los asuman. Con ello no pondrían en peligro los fondos de los contribuyentes ni requerirían millonarios rescates por parte del Estado.
Queda claro que para Volcker, lo que hicieron los innovadores especialmente en materia de desregulación, fue un disparate con un costo global. Esas eran las armas de destrucción masiva ocultas en Wall Street, con una toxicidad que tiene al mundo con niveles de desempleo históricos, y con un crecimiento que no tienen aún posibilidades reales de despegue.
-
  • https://www.elblogsalmon.com/productos-financieros/la-innovacion-financiera-no-aporto-nada-a-la-economia

 

Un experimento online de Teoría de Juegos: Envidia y solidaridad

Un experimento online de Teoría de Juegos: Envidia y solidaridad

admin 4 comentarios
Por Pablo Brañas-Garza (@BehSnaps) con Alfonso Robles, Carmen Hidalgo, Esteban Marquez, Guillermo Molina, Humberto Franco, Ignacio Perez, Jaime Gómez, Javier Pino, Javier Sánchez, Jimena Moreno, Luis Alcala, María Alonso, Maria Neira, Marta París, Miguel Villar, Miguel Fernández, Roberto Mengibar, Valeria Herrera y Vicente Moreno.
El pasado 28 de octubre hicimos un experimento “online” desde la clase de Microeconomía III: Teoría de Juegos de la Universidad Loyola en Sevilla (@LoyolaAnd, @LoyolaEcon). El objetivo del experimento era “enseñar” a los estudiantes si el modelo de preferencias “sociales” de Fehr-Schmidt (1999) funcionaba en la vida real. En este modelo los individuos se preocupan por los pagos – las ganancias- de los demás de manera benevolente (solidaridad) o no (envidia). Como segundo objetivo, además de lo anterior, lanzamos dos tratamientos: un dilema de presos con normal (estrategias: Cooperar y No Cooperar) y otro sin framing (estrategias: A o B).
Para estudiar tanto la envidia/solidaridad como la cooperación en un dilema de presos lanzamos un experimento online a través de WhatsApp. En la entrada de hoy nos centraremos en la envidia y la solidaridad.
El modelo de Fehr-Schmidt
Este modelo incorpora preferencias sociales a la función de utilidad tradicional. Concretamente, la utilidad se ve afectada por la envidia – lo que nos molesta que otros tengan más que nosotros- y la solidaridad – lo que nos molestan que otros tengan menos:
U(X,Y) = X - A x MAX [Y-X, 0] - B x MAX [X-Y, 0],
donde X es la ganancia propia e Y la de la otra persona. El término A captura la envidia que sufrimos porque el otro gana más que yo (se activa cuando Y>X y se multiplica por ese valor) y B es la pena causada por que el otro gana menos (se activa cuando X>Y). Siguiendo a Cabrales y Ponti (2011), destacamos cuatro grupos de parámetros de especial interés.
“Egoístas”: A = B = 0. Los sujetos tienen preferencias “tradicionales”, es decir no les preocupa ni la envidia ni la solidaridad.
“Aversos a la desigualdad”: 0 ≤ B < 1, B ≤ A. Los sujetos son tanto envidiosos como solidarios pero lo primero es más importante que lo segundo.
“Buscadores de estatus”: 0 ≤ A < 1, -1 < B ≤ 0, siendo el valor absoluto de B menor o igual que el de A: |B| ≤ |A|. En este caso, los individuos son también envidiosos, pero además “disfrutan” de que existan otros con peores resultados que ellos.
“Buscadores de eficiencia”: -0,5 ≤ A < 0, 0 < B ≤ 0,5, siendo el valor absoluto de A menor o igual que el de B: |A| ≤ |B|.este caso, los individuos sufren por los que están peor, pero disfrutan de que haya otros con mejores resultados que ellos.
A lo largo de este experimento estudiaremos si la envidia y la solidaridad realmente importan. Dicho de otro, si en el mundo real hay gente que se comporta acorde a los tipos recientemente mencionados.
Instrucciones
Se utilizó Google Forms para poner las instrucciones del experimento. Todos los sujetos fueron dirigidos a una de las dos webs (control y tratamiento) alojadas en esta plataforma. El mensaje de invitación era el mismo, sólo cambiaba el link.
La web tenía dos partes. En la primera había: a) una introducción general al experimento; b) consentimiento informado; c) solicitud del número de teléfono (para llamarle si era premiado) y consentimiento para guardarlo; d) quién le había invitado.
En la segunda parte preguntábamos: a) sexo; b) universidad; c) las preguntas sobre envidia y solidaridad (ver Figura 1); d) la decisión sobre cooperar o no; e) las expectativas de cooperación del rival y f) si quería ser llamado para otros experimentos.
En las instrucciones, con toda claridad, se decía que 10 personas serían elegidas al azar para pagarles en función de sus decisiones en el dilema de presos (donde podían ganar 0, 1, 5 o 10 euros).

Figura 1
Envío de mensajes y aleatorización
Teníamos dos problemas a resolver: llegar al mayor número de personas posible y que la asignación al tratamiento no dependiera del alumno – es decir, evitar que todos los amigos de un estudiante fueran al mismo tratamiento. Para salvar los dos escollos a la vez se usó el siguiente procedimiento.
Todos los alumnos crearon 4 grupos de difusión en su WhatsApp: G1, G2, G3 y G4. Cada alumno metió sus primeros 25 contactos en G1, los siguientes 25 en G2, los siguientes en G3, luego en G4, los siguientes de nuevo en G1, luego en G2, etc. Es decir, cada paquete de 25 iba entrando en orden en G1, G2, G3, G4, G1, G2, G3, G4, etc. Cada alumno informó del número de sujetos que tenía en cada grupo G, es decir, su aportación de contactos al experimento. Es importante resaltar que para minimizar la attrition (invitados que deciden no participar) los alumnos no mandaron mensajes a grupos sino a contactos personales.
A cada alumno, de manera aleatoriamente, se le sorteó una regla de asignación (C es grupo de control, T es tratamiento): CCTT, TTCC, CTCT o TCTC. Es decir, el alumno que recibió TCTC tuvo que mandar a sus contactos de G1 y G3 a la web del tratamiento y a los contactos de G2 y G4 al control.
Lo anterior nos permite conocer la “semilla” de aleatorización, es decir, saber a qué grupo T o C se asignó aleatoriamente cada contacto. La suma de la cantidad de contactos en ambos grupos nos da el número de mensajes enviados.
A las 12:20 de la mañana se lanzaron los 2358 mensajes por WhatsApp.
Inmediatamente después, un estudiante no europeo mandó la invitación a dos grupos enormes de Erasmus (162 y 257 personas). Por error se mandaron los dos al Control, en vez de mandar uno de ellos al Tratamiento. Otra chica de la clase mandó el Tratamiento a un grupo de 64 personas. En suma, se mandaron 483 mensajes mas.
En total se mandaron 1576 mensajes al Control (cooperar/no) incluyendo los 419 de los grupos y 1265 al Tratamiento (A/B).
A los 12:45 teníamos 300 participantes, a las 13:00 ya había 400, a las 13:40 eran 700 y a las 17:10 pasamos de mil. El experimento se cerró a las 11:49 noche con 1172 respuestas, de las cuáles 45 habían jugado dos veces. Es decir, se logró obtener respuestas de 1127 individuos diferentes.
El día 29 a las 00:00 se extrajeron 10 participantes, se emparejaron entre ellos y se les calculó el pago. Se les informó a las 9:00 y se les pagó por Bizum.
¿Funcionó? Balance entre tratamientos
En la Tabla 1 mostramos los resultados básicos del balance. Se puede apreciar que en el grupo de control se recibieron 634 respuestas de individuos diferentes (56% del total de respuestas recibidas), mientras que el grupo de tratamiento 493 (44%). No encontramos diferencias entre control y tratamiento en sexo, envidia y solidaridad. Tampoco se encuentran diferencias entre ambos grupos en la disposición de participar en futuros experimentos. Y sobre todo, no encontramos diferencias en la attrition.
Tabla 1: Prueba de balance
En resumen, no encontramos ninguna diferencia significativa (p>0,1). Todo lo anterior implica que la aleatorización funcionó bien.
La envidia, la solidaridad y el modelo de Fehr-Schmidt
En la Figura 2 mostramos el histograma de la envidia. Recordad que es auto-reportada y sin incentivos (ver Figura 1). Lo más llamativo es que la moda está a la izquierda: la mayoría de los participantes dicen que no son envidiosos, de hecho, el 65% dice ser muy poco envidioso (niveles de preocupación 1, 2 y 3). Si miramos por género, encontramos que las mujeres no son distintas de los hombres (p=0,53).
Figura 2: Envidia
La solidaridad aparece en la Figura 3. Como en el caso anterior la solidaridad es auto-reportada y sin incentivos. En esta ocasión, la moda está centrada y aparecen distintos valores con cierta popularidad a lo largo del espacio de respuestas. En este caso si encontramos que las mujeres dicen ser más solidarias que los hombres (p=0.00).
Figura 3: Solidaridad
Para terminar, miremos lo uno y lo otro conjuntamente para cada individuo. Para tener un visión directa dividiremos las dos variables en terciles y haremos una tabla de doble entrada. La Figura 4 muestra dichos datos de manera gráfica. La solidaridad aparece de atrás hacia delante: rojo es nada solidario y azul es muy solidario. La envidia va de izquierda a derecha (izquierda nada envidioso y derecha muy envidioso). Los datos están en la Tabla 1.
Figura 4: Envidia y solidaridad
De este gráfico destacaremos lo siguiente. Lo primero y más llamativo es la enorme heterogeneidad. ¡Hay gente de todo tipo! El grupo más numeroso está adelante a la izquierda (17,3%), es decir, personas que dicen que no le importan ni la envidia ni la solidaridad. Estos sujetos son precisamente “racionales”, aquellos que funcionan con una función de utilidad tradicional, esto es, sin preferencias sociales (no tienen ni envidia ni solidaridad).
También son un grupo bastante numeroso los del fondo (azul) en el medio (14,9%), esto es, dicen ser muy solidarios y reconocen tener un nivel medio de envidia.  A la derecha del grupo de los racionales está un grupo de “casi” racionales (12,8%), puesto que dicen ser nada solidarios y un poco envidiosos. Curiosamente el grupo con menor representación son los muy solidarios y muy envidiosos (6,6%).
En muy destacable que los resultados son bastante similares a Cabrales et al. (2010). En cualquier caso, creo que el mensaje más importante es la heterogeneidad. No podemos concluir que ahí fuera hay un solo tipo de individuos sino que más bien hay de todo en la viña del Señor.
Tabla 2: Envidia y solidaridad
Resumen
En resumen, es razonablemente sencillo hacer experimentos con rigor y seriedad desde el aula usando algo tan sencillo como el WhatsApp. Experimentos que los alumnos disfrutan enormemente y que les sirven para aprender conceptos, a veces, demasiado abstractos. Hay que tener en cuenta que Google Forms permite hacer un seguimiento online de las respuestas. En nuestro caso estuvimos dos horas de clase viendo y comentando resultados en tiempo real.
Hay dos cosas más que quiero añadir. Para realizar este experimento no hay que tener laboratorio, ni programar, ni siquiera tener un servidor. Google Forms lo hace para nosotros. Por último, el coste de este experimento ha sido bastante moderado. Los pagos de los 10 ganadores sumaron 42 euros.
Pablo Brañas-Garza, Loyola Behavioral LAB y sus alumnos de la Universidad Loyola
-
https://nadaesgratis.es/admin/un-experimento-online-de-teoria-de-juegos-envidia-y-solidaridad

Un parámetro basta para ajustar cualquier cosa .Anxo Sànchez

"Elegir un modelo u otro para describir un fenómeno que da lugar a unos datos en función de que tenga más o menos parámetros no es una buena idea. Como acabamos de ver, siempre podemos construir un modelo con un único parámetro y, por tanto, tendría todas las papeletas para ser el seleccionado. Piense, sin embargo, que la ecuación logística estaría entonces describiendo prácticamente cualquier cosa, lo que obviamente no puede ser verdad. Así que cuidado con este tipo de argumentos" Anxo Sánchez. 

Un parámetro basta para ajustar cualquier cosa

Uno de los temas recurrentes de este blog es el de los modelos matemáticos y su comparación con los fenómenos que intentan describir. Siguiendo la navaja de Ockham, se suele considerar que el modelo con menos parámetros libres, al ser más simple, es el que seguramente sea más correcto. En este post, con el que intento retomar este blog después de un año de silencio, traigo un ejemplo recientemente publicado que muestra que cualquier cosa, literalmente cualquier cosa, se puede ajustar con un único parámetro libre, siendo el modelo que hay detrás totalmente irrelevante en cuanto a descubrir los mecanismos del fenómeno. Así que cuidado con usar el número de parámetros de un modelo alegremente para tirar otros que puedan ser más informativos a la basura. 
1543384497446.jpg 




 
Como decía antes, he estado demasiado tiempo sin ocuparme de este blog por múltiples razones, entre las que el haber asumido la dirección de mi departamento en la Universidad y el tener que cerrar un proyecto europeo que coordinaba han influido más que ninguna otra. Como además aquí soy mi propio jefe y no tengo editores que me persiguen como en Nada es Gratis, pues claro, al final lo paga mi dedicación a este blog. Bueno, pues acabado con excelentes resultados el proyecto (gracias por preguntar) y a mitad de mi mandato como director, vuelvo a buscar dragones en el proceloso océano de la física y la matemática de los sistemas complejos. Y para esta nueva etapa, he querido traer un ejemplo de simplicidad engañosa que creo que puede ser interesante para muchas aplicaciones. 
El ejemplo en cuestión es un artículo aparecido hace pocos meses y titulado "One parameter is always enough" (Un parámetro siempre es bastante), de Steven T. Piantadosi, de la Universidad de California en Berkeley. El artículo comienza citando nada menos que a John von Neumann, cuando decía que "con cuatro parámetros libres podía hacer un elefante, y con cinco que moviera la trompa", para enseguida ir a su propósito: mostrar que es posible ajustar modelos elementales con un único parámetro a conjuntos con un número arbitrariamente grande de puntos y con la precisión que se desee. Y, como vamos a ver, lo más sorprendente es que esto es una consecuencia de las propiedades de los sistemas dinámicos caóticos. Como dice el propio autor, no hay ninguna técnica matemática nueva en el artículo, pero esta consecuencia de la dinámica caótica no había sido puesta de manifiesto hasta ahora y, como discutiré al final, tiene consecuencias relevantes. 
220px-Scatter_diagram_for_quality_characteristic_XXX.svg.png























La idea para construir un modelo que ajuste cualquier cosa con un parámetro empieza por la descripción de lo que queremos ajustar. Vamos a centrarnos en un scatterplot, o sea, un conjunto de  puntos definidos por coordenadas xy en el plano, donde podemos considerar que x es la variable independiente y que y es la dependiente. En la figura adjunta podemos ver un ejemplo. Por sencillez, vamos a suponer que los valores que toma x son los números naturales 0, 1, 2. 3, ... La herramienta que utilizaremos es la función logística, de la que ya hablé aquí, y que viene dada por m(z)=4z(1-z). Sin entrar en detalles que el lector interesado puede encontrar en el artículo de Piantadosi, esta función está muy relacionada (técnicamente, es topológicamente conjugada) con la de Bernoulli, que se define como
 Captura de pantalla 2019-01-31 a las 9.58.35.png
La relación entre ambas funciones es que una se transforma en la otra mediante un cambio de variable, y lo interesante de la función de Bernoulli es que si escribimos el número z en el sistema binario, el resultado de S(z) es simplemente eliminar el primer digito justo antes de la coma (recordemos que estamos en el intervalo entre 0 y 1) y correr los demás hacia la izquierda. Este es el punto clave del argumento, porque ahora lo que hacemos es coger los valores de y que queremos aproximar, en orden, escribirlos con la precisión que queramos (pero eso sí la misma para todos, digamos r dígitos) en binario y formar un número w poniendo todos esos dígitos uno detras de otro. Ese número coincide con el primer yy1en sus primeros r dígitos. Si ahora le aplicamos la función S r veces, obtendremos un número que coincide con y2 en sus primeros r dígitos, y así sucesivamente. Si, finalmente, utilizamos la función que transforma la de Bernoulli en la logística, podemos pasar el número w, que estábamos utilizando como condición inicial para generar los y's, a una condición inicial w' para la función logística m(z). De esta manera, obtenemos un modelo que consiste en la función m, que es infinitamente diferenciable, además, y una condición inicial w' que nos ajusta tantos cuantos puntos queramos y con la precisión que queramos. Piantadosi nos presenta en su artículo dos ejemplos impresionantes, calculando la condición inicial necesaria para ambos. Concretamente, son un elefante (como le gustaría a von Neumann) 
Captura de pantalla 2019-01-31 a las 10.15.52.png
y la firma de Miró 
Captura de pantalla 2019-01-31 a las 10.16.02.png
Si usted, amigo lector, se ha perdido un poco (o mucho) en el resumen del procedimiento, no se preocupe: en primer lugar, seguramente es culpa mía que he querido volar muy rápido sobre algunos de los detalles, y en segundo lugar, si quiere ajustar su propia figura solo tiene que ir al artículo dónde se describe todo el proceso sin omisiones. Quédese solo con la copla de que hemos demostrado que se puede ajustar cualquier conjunto de puntos en el plano con la precisión que se desee con la función logística y un único parámetro, calculable a partir de los datos de manera fácil, y que se usa como condición inicial para las iteraciones de la función logística. Suficiente con esto. 
-
Lo importante son las conclusiones y las precauciones que se desprenden de esto. En primer lugar, la conclusión que adelantaba al principio: elegir un modelo u otro para describir un fenómeno que da lugar a unos datos en función de que tenga más o menos parámetros no es una buena idea. Como acabamos de ver, siempre podemos construir un modelo con un único parámetro y, por tanto, tendría todas las papeletas para ser el seleccionado. Piense, sin embargo, que la ecuación logística estaría entonces describiendo prácticamente cualquier cosa, lo que obviamente no puede ser verdad. Así que cuidado con este tipo de argumentos. 
Por otro lado, podría usted pensar que ahora que tiene esta función para cualquier conjunto de puntos, puede usarla para extrapolar, es decir, para obtener valores de y en puntos intermedios entre los x, los naturales. Desafortunadamente, esto no es así, porque entre los x la función oscila salvajemente ya que hay funciones sinusoidales involucradas, y lo que tendríamos es un típico ejemplo de sobreajuste (overfitting). Lo interesante aquí es que normalmente el sobreajuste se asocia a usar demasiados parámetros, pero lo que hemos visto es que podemos estar en esta situación incluso en un modelo con un solo parámetro. Sorprendente, ¿no?
Como conclusión final, vista la potencia que tiene un único número real (nuestra condición inicial w') para codificar o recoger la información de muchísimos datos, nos debería hacer desconfiar de los procedimientos de selección de modelos que sean totalmente agnósticos, es decir, que no hagan hipótesis sobre la clase concreta de modelos en la que se quiere trabajar. A la hora de intentar encontrar modelos es necesario basarse en teorías concretas que restrinjan el tipo de modelos a utilizar (lo que normalmente excluirá a nuestra función logística y a otras similares sobre las que se podría basar otro ajuste uniparamétrico). Como siempre, solo una correcta combinación de potencia de cálculo e intuición humana nos permitirá extraer conocimiento de los datos. 
Lee también en SciLogs
Anxo Sánchez
Anxo Sánchez
 -

Econofísica. Curso de Introducción a los sistemas complejos. Bartolo Luque

 

Econofisica 

Hasta la fecha la econofísica se ha centrado mayoritariamente en elucidar las propiedades de mercados financieros, redes económicas complejas, distribución de ingresos/riqueza y toma de decisiones estratégicas, con la idea en mente de desarrollar una teoría de los sistemas económicos como las que describen los fenómenos críticos en los sistemas físicos. Una teoría que pueda explicar su funcionamiento en las proximidades de un punto crítico independientemente de las características concretas a nivel micro.
Ya existen las primeras historias de éxito de la econofísica. Entre ellas la ley de la inversa del cubo para la distribución de las fluctuaciones de los precios de acciones e índices bursátiles (por cierto, en el electromagnetismo también aparece el inverso del cubo) y el análisis de redes económicas basado en los análisis físicos de grandes redes complejas.
Puede que con el tiempo y los modelos adecuados la econofísica tenga la misma capacidad predictiva que otras ramas físicas que estudian sistemas complejos, como la meteorología.
Referencia:
Can economics be a physical science? S. Sinha, A. S. Chakrabarti, and M. Mitra (Eds.), Eur. Phys. J. Special Topics 225/17 (2016)
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
 

 

Conferencias-Curso de Bartolo Luque


youtube.com

  Econofísica. Curso de Introducción a los sistemas complejos. Día 2 ( 3 de mayo 2016). Bartolo Luque

  https://www.youtube.com/watch?v=M3OlW04OmI0&list=PLrk3ohH96XamQKXBcxMsCXHv4sZipzZ0x&fbclid=IwAR0k0VC2POigAm3KL3LkIQ3G-iNKntnvhO71I7GKKyARt0WHo3dZmNJPSTc

 

Curso de Introducción a los Sistemas Complejos. Día 2 ( Martes 3 de Mayo

 

Parte II

  Econofísica (2 de 4) Bartolo Luque


Parte III

Econofísica (3 de 4) Bartolo Luque

Parte IV

 Econofísica (4 de 4) Bartolo Luque

 

Según Ricardo Mansilla, autor del libro Una breve introducción a la econofísica, “esta nueva vertiente de investigación propone una mejor comprensión de los procesos económicos, basada en la descripción del comportamiento adaptativo de los agentes económicos frente a situaciones cambiantes”.
Un ejemplo para que se entienda: la economía no puede predecir el futuro al 100%. No obstante, la econofísica sería capaz de estudiar los mercados financieros siguiendo, por ejemplo, un modelo desarrollado originalmente para tratar muchas partículas que interactúan entre sí y que generan fenómenos como el magnetismo.

Esto es algo que resulta totalmente ajeno para un economista tradicional, pero para un físico es el pan de cada día. La apuesta de aquellos que defienden la econofísica es que tanto los fenómenos físicos como los económicos podrían poseer características universales, y que los sistemas complejos podrían estudiarse utilizando las herramientas con las que habitualmente cuenta la física.
Además de los mercados financieros y de las redes económicas complejas, la econofísica se ha centrado de momento en estudiar las propiedades de la distribución de los ingresos y la toma de decisiones estratégicas. Pero los resultados aún no son concluyentes. No hay consenso entre los expertos y la econofísica no pasa de ser una teoría que todavía no ha sido totalmente comprobada.
Sin embargo, el actual acceso a enormes cantidades de datos (el llamado big data) y la mayor necesidad de una gran capacidad de cálculo computacional podrían abrir nuevas posibilidades y dar nuevos sentidos a la econofísica.
El tiempo lo dirá, pero quién sabe. También la ley de la gravedad de Newton empezó un día del siglo XVII siendo precisamente eso, una teoría.

 

Fuentes

https://culturacientifica.com/2017/01/04/econofisica-puede-la-economia-tratarse-sistema-fisico/

https://blog.caixabank.es/blogcaixabank/2019/04/la-econofisica-aporta-nuevas-perspectivas.html# 

Una breve introducción a la econofísica / R. Mansilla.

Introducción a una nueva rama interdisciplinaria del saber humano: la econofísica. Se entiende, este nuevo concepto acuñado por primera vez por el físico Harry Eugene Stanley de la Universidad de Boston, como la investigación de los fenómenos económicos con el punto de vista propio de estos profesionistas. En palabras del autor de el libro: en contraposición de las teorías neoclásicas de equilibrio, tan caras al razonamiento neoliberal, esta nueva vertiente de investigación propone una mejor comprensión de los proceso económicos, basada en la descripción del comportamiento adaptativo de los agentes económicos frente a situaciones cambiantes.

 

https://www.researchgate.net/publication/31741149_Una_breve_introduccion_a_la_econofisica_R_Mansilla/link/5c12d396299bf139c756c198/download


 

Precios vs Cantidades. Un homenaje a Marty Weitzman.Gerard Llobet

Precios vs Cantidades. Un homenaje a Marty Weitzman

A finales de este verano murió Marty Weitzman, uno de los grandes microeconomistas teóricos. Sus trabajos han sido muy influyentes en múltiples áreas de la economía y, entre ellas, los estudios relacionados con el medioambiente. Probablemente, su trabajo más conocido y más citado (en Google Scholar ronda las cuatro mil citas) lleva por nombre “Prices vs Quantities” y fue publicado en la Review of Economics Studies en 1974. Este trabajo se considera el estudio clave para entender cuando la regulación de un mercado debe basarse en fijar cantidades o fijar precios.
La respuesta a esta pregunta es esencial para diseñar, por ejemplo, un buen sistema para limitar las emisiones de CO2 a la atmósfera. Ahora que Madrid se prepara para acoger la cumbre del clima es un buen momento para repasar cuáles son los dos mecanismos principales para reducir esta contaminación. Por un lado, podemos imponer directamente un impuesto a las emisiones y con ello afectar directamente el precio que las empresas deben pagar por contaminar. Esto promueve que las empresas adopten tecnologías más limpias aún siendo costosas si eso les permite reducir el importe del impuesto a pagar. Por otro lado, el regulador puede fijar un nivel máximo de contaminación permitido y asignar permisos a las empresas para que puedan producir a partir de un precio determinado por un mercado de emisiones.
Tal como Weitzman explica, los economistas, a diferencia del resto de la sociedad, acostumbramos a dar prioridad al uso de los precios: “the average economist in the Western marginalist tradition has at least a vague preference toward indirect control by prices, just as the typical non-economist leans toward the direct regulation of quantities.” Sin embargo, el resultado de su trabajo muestra que no siempre es obvio que los economistas estemos en lo correcto. Como también decimos habitualmente, depende.
En un mundo donde un regulador tuviera información perfecta sobre el coste de las empresas (o los particulares) de reducir la contaminación así como de las ganancias que tiene la sociedad de hacerlo, no habría diferencia entre los dos mecanismos. Para cada precio las empresas escogen un cantidad distinta (y viceversa) y, por tanto, elegir entre una cosa y la otra es equivalente.
En la práctica, sin embargo, los reguladores tienen una información limitada  tanto sobre el coste como sobre el beneficio de reducir la contaminación. Así, las empresas pueden poseer una tecnología de producción muy distinta y las alternativas a las fuentes más contaminantes pueden ser más fáciles o difíciles de implementar. Por otro lado, aunque empezamos a conocer muy bien los efectos negativos del incremento en las emisiones de CO2 su verdadero coste quizás es difícil de poder determinar. Sólo sabemos que será grande.
Para entender las ventajas e inconvenientes de utilizar precios o cantidades, es útil comparar los siguientes dos gráficos.
En ambos casos, dibujamos tres curvas. Las dos curvas decrecientes (llamadas CM) corresponden al coste marginal de una unidad de la empresa en función de lo que contamina (q). Vemos, por tanto, que a mayor contaminación menor es el coste de dicha producción. La diferencia entre las dos curvas es que la superior podemos entenderla como el coste que según el regulador tiene para la empresa producir, dado un nivel determinado de contaminación, mientras que la inferior es el coste real de la empresa (evidentemente, escogemos este caso como ilustración pero podríamos analizar también el caso contrario). La curva con pendiente positiva (llamada DM) corresponde al daño que tiene para la sociedad cada unidad adicional de emisiones. La diferencia entre ambos gráficos tiene que ver con la pendiente de esta última curva, el daño de la contaminación. A mayor pendiente, más rápidamente crece el daño con el nivel de contaminación. El punto donde la curva DM y la de "CM verdadero" se cruzan determina la cantidad de emisiones óptima y el precio óptimo para las mismas.
Así, en el primer gráfico observamos que este daño crece rápidamente con las emisiones. Veamos qué sucede aquí cuando el regulador fija el precio de las emisiones (vía un impuesto) o fija cuanto la empresa puede contaminar. Si fija el precio utilizando el que cree que es el coste de la empresa obtenemos el precio que hemos denominado p*, que el regulador piensa que dará lugar a un nivel de contaminación q*. Sin embargo, al ser menos costoso reducir las emisiones de lo que el regulador cree, las empresas deciden reducir la contaminación notablemente más, hasta q^. Esto genera un coste para la sociedad, porque comparado con el escenario óptimo, la contaminación es demasiado baja. El coste de esta disminución es el área azul. De la misma manera, si el regulador fija la cantidad, se produce un daño porque la cantidad óptima resulta ser superior a la que debería haber escogido. El coste asociado a ello corresponde al área roja. Como se puede observar en este caso, el área azul, asociada al coste de fijar mal el precio es mayor que si se hubiera fijado la cantidad.
El segundo gráfico representa el caso contrario, donde el coste de la contaminación crece despacio con el nivel de emisiones. En este caso, el resultado es el contrario: el resultado de fijar un precio a partir de información imprecisa produce un coste social menor que escoger la cantidad.
La intuición es bastante sencilla. Cuando el daño crece muy rápidamente, la equivocaciones que se pueden generar por fijar mal la cantidad son pequeñas y por tanto es óptimo hacerlo así. Cuando es difícil establecer la cantidad el precio funciona mejor.
Evidentemente, hay otros factores que determinan que un mecanismo sea mejor que el otro. El coste de administrar un sistema de precios/impuestos es a menudo menor que un sistema basado en cantidades. Por otro lado, las características de la tecnología de producción de las empresas también son importantes. Si el coste de reducir las emisiones es muy distinto entre empresas (o entre consumidores), los errores son menos probables y más pequeños, con lo que la ventaja de un mecanismo sobre el otro es menor.
Hay otras muchas implicaciones de un modelo tan sencillo como éste, incluso en otros contextos como son las relaciones dentro de una empresa. Invito por ello a que el lector explore estos resultados leyendo el trabajo de Marty Weitzman.

El enfoque tradicional y el enfoque experimental: entendiendo el Premio Nobel

El enfoque tradicional y el enfoque experimental: entendiendo el Premio Nobel

Entrada conjunta con Anna Sanz de Galdeano 

Como seguro que ya saben, la Academia Sueca de las Ciencias le ha otorgado el premio del 2019 en Economía en memoria de Alfred Nobel, a los profesores Abhijit Banerjee, Esther Duflo, y Michael Kremer por su enfoque experimental en la lucha contra la pobreza global. Mónica Martínez-Bravo y Pedro Rey ya publicaron esta estupenda entrada  en la que resumen las múltiples contribuciones de los galardonados. En esta entrada nos centramos en un aspecto muy específico: explicar lo que significa el “experimental approach” utilizando algunas de las contribuciones de los galardonados en la economía de la educación. El objetivo de esta entrada es explicar en qué consiste el enfoque experimental y, especialmente, enfatizar la revolución que ha supuesto y que ha motivado la elección de los galardonados. Antes de continuar, queremos aclarar que no pensamos ni que el enfoque experimental sea el único bueno, ni que carezca de desventajas o retos, ni que se pueda ni se deba aplicar siempre (dejamos estas cuestiones para una entrada futura). Es más, su co-existencia con los enfoques no experimentales con los que se retroalimenta, contribuye al avance del conocimiento. La entrada se basa en nuestras contribuciones a la mesa redonda que organizó la Asociación Española de Economía junto con Fundación Ramón Areces, en la que también participó Mónica Martínez-Bravo, y cuyo video completo se puede ver aquí.
Los galardonados, con diversos colaboradores, han evaluado muchos programas de “último eslabón”: no grandes políticas macroeconómicas ni programas de crecimiento, sino aspectos más concretos relacionados con cómo hacer efectiva la inversión en educación, salud, agricultura, etc. Ejemplos de este tipo de políticas de “último eslabón” en educación incluyen la provisión de desayunos gratis en los colegios y de libros de texto a los alumnos o la contratación de profesores a tiempo determinado.
Los galardonados no recibieron el Premio Nobel por haber realizado el primer experimento de campo en Economía (ejemplos de experimentos de campo en EEUU muy anteriores incluyen el conocido como el RAND Health Insurance Experiment, los programas Perry Preschool Project y STAR Project sobre desarrollo en la infancia, así como experimentos sobre el impuesto negativo sobre la renta, entre otros). Tampoco les otorgaron el Premio Nobel por haber realizado el primer experimento económico en países en vías de desarrollo. En este vídeo, Michael Kremer nos cuenta que sus comienzos en el mundo experimental coinciden con Progresa, un programa de transferencias condicionales diseñado por Santiago Levy cuando fue Ministro de Finanzas de México. Progresa fue sujeto a una rigurosa evaluación aleatoria y ha tenido un gran impacto tanto académico como en política económica. A los galardonados les dieron el Premio Nobel por su “enfoque experimental” en la lucha contra la pobreza.
Para entender en qué consiste el “enfoque experimental,” conviene describir primero el enfoque tradicional en la evaluación de políticas públicas en países en vías de desarrollo. Usualmente, un gobierno diseña e implementa un programa del tipo de “último eslabón.” Un académico descubre dicho programa, quizás a posteriori, y recurre a encuestas de hogares que se recogen rutinariamente (e independientemente del programa que se está evaluando) y a métodos cuasi-experimentales para evaluar el programa.
Este enfoque tradicional tiene ciertas trabas: nadie garantiza que las encuestas de hogares que se recogen rutinariamente sean suficientes para evaluar la política, pues es muy posible que las preguntas que incluyen no abarquen todos los aspectos necesarios, que haya muy poco solapamiento geográfico con las áreas geográficas donde se implemente el programa, o que los años en los que se recoge la encuesta no coincidan con el periodo de implementación de la política. Estos problemas, que también tienen relevancia en los países ricos, son más importantes para países en vías de desarrollo que no dedican tantos recursos a la recogida rutinaria de datos.
El enfoque tradicional tiene otras trabas: estás evaluando desde fuera y puede ser que se te perciba como una especie de auditor y que no se comparta contigo toda la información necesaria. Además, nada garantiza que las políticas que ha diseñado el gobierno sean las que más necesitamos estudiar para avanzar nuestro conocimiento: a todos los políticos les encanta cortar cintas e inaugurar escuelas. Pero la traba que resulta más relevante para nuestra exposición es la que se hace patente si, como resultado del estudio, aprendemos algo y surge una nueva hipótesis de cómo hacer la inversión más efectiva. Pues, en muchos casos, no nos queda otro remedio que esperar a que el gobierno implemente otra política que incorpore estas lecciones, lo cual posiblemente nunca ocurrirá. O quizás podamos encontrar una política parecida en otro país, pero que tendrá distintas instituciones, distintos datos, etc.
En el “enfoque experimental” por el que se ha otorgado el Premio Nobel es un proceso experimental iterativo, en el que los investigadores co-diseñan junto con los implementadores de programas (gobiernos, multilaterales y ONGs) una serie de experimentos para evaluar políticas de “último eslabón” de modo que las lecciones aprendidas de un experimento se incorporan en el diseño del experimento siguiente. A ser posible, recogiendo el mismo tipo de datos, de la misma manera, y en lugares con instituciones iguales o similares a las de los experimentos anteriores. Posiblemente, este proceso experimental iterativo no es muy distinto de cómo realizan investigación los economistas experimentales, si bien trabajan en el laboratorio y no directamente sobre políticas públicas (aunque los resultados puedan ser muy útiles para el diseño de dichas políticas).
El “enfoque experimental” tiene muchas otras ventajas. Para empezar, la asignación de los potenciales beneficiarios al programa es aleatoria, lo cual minimiza la posibilidad de sesgo en la estimación del efecto del programa que se está evaluando. El método de diseño de las políticas con los implementadores hace que te vean como compañero de viaje, y sean muy abiertos contigo en los problemas que tienen en el terreno, lo que ayudará a que surjan nuevas hipótesis que favorecerán la investigación presente y futura. Pero para crear un proceso iterativo que permita aprender de experimentos pasados e incorporar las lecciones aprendidas en futuros experimentos resulta fundamental que los investigadores jueguen un papel muy importante como co-diseñadores de las políticas que se evalúan. Asimismo, el enfoque experimental brinda a los investigadores una oportunidad única de utilizar sus conocimientos de la literatura existente y su capacidad de analizar la evidencia disponible identificar carencias o necesidades relevantes y para diseñar y evaluar experimentalmente programas que aspiren a abordarlas.
El enfoque experimental ha supuesto una revolución progresiva gracias a la cual, desde los años noventa, se han aprendido varias lecciones valiosas desde el punto de vista de lo que funciona y lo que no (y por qué) en la lucha contra la pobreza. En el resto de esta entrada vamos a ilustrar con algunos ejemplos puntuales enfocados en la educación cómo ha sido este proceso.
El aprendizaje ha sido gradual y generalizar es complejo pero, una tras otra, las aportaciones de los galardonados y sus colaboradores han contribuido a rellenar el rompecabezas planteado por preguntas cruciales como: ¿qué debemos que hacer para que los niños vayan a la escuela? ¿Y para que aprendan algo una vez que están allí?
En los años noventa, Kremer y varios colaboradores hicieron una serie de experimentos en Kenya diseñados para abordar algunas de las carencias más evidentes del sistema educativo del país: la escasez de recursos en las escuelas y al absentismo tanto de los estudiantes como de los profesores.
En uno de los experimentos se suministraron desayunos gratis a los niños de una muestra de escuelas escogidas aleatoriamente. El absentismo escolar se redujo en estas escuelas (con respecto a las escuelas del grupo de control en las que no se ofrecieron desayunos gratis), pero esto no se tradujo en una mejora generalizada en el aprendizaje de los niños medido mediante pruebas estandarizadas. Lo mismo sucedió al utilizar ayudas visuales al aprendizaje como los rotafolios o al desparasitar a los niños en las escuelas: se redujo el absentismo estudiantil pero los resultados de los exámenes no mejoraron en general.
Así pues, se lograron progresos en el ámbito de la reducción del absentismo estudiantil, ¿pero qué había que hacer para que los niños más vulnerables aprendiesen además de ir a la escuela? ¿Cómo mejorar la calidad de la educación? Las experiencias en Kenya sugirieron que únicamente aumentar los recursos no funcionaba, pero fueron muy útiles porque ya arrojaron luz sobre cómo plantear intervenciones que quizás sí podrían lograr que los niños aprendiesen más. Por ejemplo, ni la provisión de libros de texto ni de desayunos gratis mejoraron el aprendizaje infantil en general, pero sí el de los niños con mejores resultados y de aquellos cuyos profesores estaban mejor formados antes de la intervención, respectivamente. Quizás no había que descartar el aumento de recursos para mejorar el aprendizaje de los niños más vulnerables, pero desde luego había que hacer algo más. Aquí se ve el proceso iterativo al que nos referíamos con anterioridad.
Desde el inicio de los años 2000 Banerjee, Duflo, Kremer y varios colaboradores ahondaron en esta cuestión en varios países. A través de varios análisis experimentales, constataron que los programas focalizados en los estudiantes con peor desempeño a menudo (esto es, en distintos lugares y con diferentes implementadores) funcionan. Además, con el paso del tiempo el diseño de los experimentos y su integración con la teoría económica no han dejado de mejorar y hoy en día la mayoría de los diseños experimentales no solo aspiran a averiguar qué funciona y qué no sino por qué o a través de qué mecanismos los programas funcionan (o no). En concreto, varios trabajos de los galardonados han mostrado que un motivo importante por el cual las intervenciones educativas de tipo compensatorio (como las sesiones de refuerzo o la tecnología educativa que personaliza el contenido de acuerdo a los niveles de aprendizaje de los usuarios a menudo funcionan) es que la adecuación de la enseñanza al nivel de los estudiantes mejora su aprendizaje. También hay evidencia de que agrupar a los estudiantes en función de su nivel mejora el desempeño de los más retrasados (pese al cambio en su grupo de pares) porque ayuda a los profesores a ajustar su docencia al nivel del alumnado. En el ámbito de la gobernanza en las escuelas y los incentivos al profesorado, se ha mostrado que los maestros contratados localmente a tiempo determinado por las asociaciones de padres y maestros faltan menos a clase y mejoran más el aprendizaje infantil que los funcionarios contratados centralizadamente. Además, estos efectos beneficiosos se potencian cuando la gestión escolar recae más en las escuelas, se empodera a los padres y son las asociaciones de padres y maestros las que seleccionan, eligen, dan seguimiento a los profesores contratados, valoran su desempeño y, en última instancia, deciden sobre su continuidad.
Estudios como los que hemos descrito han tejido una red de evidencia rigurosa cuyo impacto ha sido no solo académico. Gracias al esfuerzo de muchas personas y de instituciones como J-PAL, el Banco Mundial o el Banco Interamericano de Desarrollo, las lecciones aprendidas a través del enfoque experimental resultan muy accesibles y ya forman parte a menudo del diálogo con las organizaciones no gubernamentales, con los responsables del diseño de las políticas de muchos países en desarrollo y con la sociedad civil. Hoy en día, cualquier persona interesada en averiguar qué programas funcionan y dónde en el sector educativo o en otros puede consultar las lecciones aprendidas de las evaluaciones aleatorizadas lideradas por académicos afiliados a J-PAL en el sector educativo o en otros puede consultarlo en la base de datos y los resúmenes divulgativos disponibles en su web. Otro ejemplo de evidencia puesta al alcance de todos es el SkillsBank, un repositorio creado por el Banco Interamericano de desarrollo en el que se puede consultar la evidencia disponible sobre la eficacia relativa de las diferentes políticas para desarrollar habilidades a lo largo de la vida. Aunque casi resulte una obviedad, no podemos evitar subrayar que las ventajas del enfoque experimental no aplican única y exclusivamente a los países pobres. Ojalá un día nuestros políticos conviertan en rutina la evaluación de políticas públicas (y cuando sea posible y beneficioso siguiendo el enfoque experimental) a los programas destinados a mejorar nuestras vidas. En este documento sobre el anteproyecto de la Ley de Economía Sostenible, ya abogábamos al respecto.
Hay 1 comentarios
  • Muchas gracias a los profesores por el post. ¿Hay algún caso en España -pienso en el ámbito autonómico o local- donde se haya ejecutado una política pública siguiendo el enfoque experimental? Imaginando que habrá muy pocos casos, ¿cuál es en su opinión las principales trabas para que este tipo de colaboración entre administración y universidad se produzca? Muchas gracias


    fuente
    https://nadaesgratis.es/admin/el-enfoque-tradicional-y-el-enfoque-experimental-entendiendo-el-premio-nobel
     
     

Recomendaciones (o no) de lectura: “Teoría Monetaria Moderna” (MMT) Pretensiones de omnisciencia y omnipotencia

Recomendaciones (o no) de lectura: Pretensiones de omnisciencia y omnipotencia (I)


Factores políticos asociados al ciclo electoral en Estados Unidos y nuevas inquietudes económicas causadas por una desaceleración económica mayor que la esperada, han dado alas a propuestas de política económica basadas en una doctrina económica conocida como “Teoría Monetaria Moderna” (MMT). Si hay que resumir la principal proposición de esta teoría en una frase, sería algo así como que en una economía con dinero fiduciario y un Gobierno que puede imponer el uso de la moneda que él mismo emite y, por tanto, que no tiene restricciones financieras, la política fiscal permite alcanzar siempre el pleno empleo y la estabilidad de precios (la "coincidencia divina" en la terminología de la Economía Neokeynesiana).
En el mundo académico MMT ha recibido muy poca atención, en buena parte porque su exposición a través de los canales habituales (seminarios, conferencias, documentos de trabajo, artículos en revistas con evaluación anónima) ha sido muy limitada. Se ha difundido como una “Guru-based theory” en lugar de mediante los modelos formales y la evidencia empírica con los que los economistas dedicados a la investigación se comunican entre sí. Por ello, la propia distinción entre sus premisas y conclusiones y el razonamiento que lleva de las unas a las otras resultan difíciles de apreciar. No obstante, ha ganado presencia en el debate sobre políticas macroeconómicas, aun cuando, como dice Paul Krugman, resulta muy complicado conseguir que debatir sobre MMT sea algo más que Calvinball, esto es, un juego sin reglas.
Con toda esta confusión, es muy de agradecer que algunos de los principales adalides de MMT (William Mitchell, Randall Wray y Martin Watts, a los que me referiré como MWW) hayan publicado Macroeconomics, una obra en formato de libro de texto con la que se trata de explicar qué es y cómo se debe enseñar lo que se presenta como “un nuevo paradigma macroeconómico” y "la guía definitiva" a la conducción de las políticas económicas.
Tal y como hice en casos similares en el pasado (aquí y aquí), dividiré esta reseña en dos partes. Esta primera es mayoritariamente descriptiva (aunque con inevitables apostillas que escribiré entre paréntesis, a pesar de que soy muy consciente de que hacerlo así causará enojo a Samuel). En una entrada siguiente resumiré la actualización de mi valoración de lo que es MMT tras revisar este libro. Como aperitivo, pero no como sorpresa, al menos para mis seguidores en redes sociales, adelantaré que no será positiva.
Lo que Macroeconomics de MWW dice ser…
Tiene ocho partes, cada una de ellas con capítulos muy heterogéneos, tanto en temática como en niveles de dificultad para lectores no iniciados en Economía.
La primera parte, a modo de introducción, describe a la Macroeconomía como una disciplina con muchas controversias (contested) y fuertemente ideologizada en la que hay que tener espíritu “crítico” (que en Macreoconomics solo se practica en una dirección única) y utilizar el lenguaje (framing) para orientar la defensa y argumentación de propuestas políticas (no tanto para clarificar argumentos y razonar). Incluye un capítulo sobre formas de producción y lo que es el capitalismo, y otros sobre los instrumentos necesarios para “hacer macroeconomía”: matemáticas -álgebra básica, cálculos de tasas de crecimiento, progresiones geométricas y números índices relativos a los agregados macroeconómicos-, gráficos e identidades contables de la Contabilidad Nacional y referidas a las relaciones entre los sectores institucionales: familias, empresas, gobierno y sector exterior.
La segunda parte solo tiene dos capítulos (poco controvertidos y de escasa novedad) dedicados a describir lo que es el dinero, la soberanía monetaria, el papel de los bancos y las diferencias entre tipos de cambio fijos y flexibles. La tercera parte se refiere a la determinación de la producción y del empleo contraponiendo la teoría clásica (que confirma la ley de Say) al modelo keynesiano, que atribuye todo el protagonismo a la demanda efectiva, el multiplicador del gasto y a la rigidez de precios. Todo la discusión se dirige a concluir que la demanda agregada de trabajo no depende de los salarios (Figura 14.4 pag. 210) y que el nivel agregado de precios se mantiene constante hasta que se alcanza el pleno empleo (Figura 16.3 pag. 247). Con todo ello, se enuncia una “regla macroeconómica básica” (pag. 219): “sujeto a la capacidad productiva existente, el gasto agregado determina la producción y la renta nacional y, estos a su vez, el empleo”.
La principal protagonista de la cuarta parte es la relación entre desempleo e inflación (la archiconocida curva de Phillips). Junto con el tratamiento habitual, se menciona también la posibilidad de histéresis (persistencia extrema del desempleo) y sus consecuencias y se introduce un instrumento fundamental de la MMT para conseguir el pleno empleo y la estabilidad de precios: el programa gubernamental de empleo garantizado.
La quinta parte se dedica al análisis de la políticas económicas en una economía abierta. Básicamente se presentan las consecuencias de consolidar las operaciones fiscales del Tesoro y las monetarias del Banco Central y lo que la política fiscal puede conseguir bajo esta perspectiva, así como del funcionamiento de los controles de capital. En la sexta parte se presentan las razones de la inevitable inestabilidad del sistema capitalista. Dichas razones se resumen en un capítulo (anticuado) sobre los determinantes de la inversión y otro sobre teorías “heterodoxas” de las crisis capitalistas.
La séptima parte es una historia del pensamiento macroeconómico desde Keynes hasta nuestros días. Tras presentar el modelo IS-LM (¡en el capítulo 28!) se describe someramente la síntesis neoclásica, la teoría de los ciclos reales, la economía neokeynesiana y las “teorías macroeconómicas heterodoxas modernas”.
Finalmente, la octava parte se dedica a presentar, desde la perspectiva de la MMT, los debates contemporáneos de política económica, entre ellos, las consecuencias del envejecimiento de la población sobre los gastos sociales, la hipótesis de los déficits gemelos, las causas de las crisis cambiarias, la elección del régimen del tipo de cambio y los problemas de la Unión Monetaria Europea, y la crisis medioambiental y los determinantes del crecimiento económico. Para terminar, se dedica un capítulo a las causas de la última crisis (aquí denominada Global Financial Crisis) en el que (cómo no) se repite la usual letanía (doblemente falsa) de que solo algunos “economistas heterodoxos” vieron venir la crisis.
lo que pretende ser
MMT se presenta como “la alternativa progresista y heterodoxa” a la macroeconomía convencional, ortodoxa y austera. Se trata de la continuación de las tradiciones keynesiana (“la verdadera”, no la bastarda), institucionalista y marxista, cuya influencia en la ciencia económica (casi) desapareció por completo a partir de 1970 con la construcción de la síntesis neoclásica.
La superioridad de MMT proclamada por MWW se defiende sobre tres pilares: i) la concepción de la Economía como el estudio de “la creación y la distribución social de los recursos de la sociedad”, en lugar de la visión simplista y desenfocada de la Economía ortodoxa que se dedica al “estudio de la asignación de recursos entre deseos ilimitados” a partir del comportamiento humano racional y de mercados sin regular, ii) una mejor descripción (que no análisis) de las operaciones monetarias y del sector bancario en economías modernas, y iii) una concepción de la política fiscal como instrumento no limitado por restricciones financieras en la consecución de objetivos sociales (idea conocida como Functional finance).
En la segunda parte de esta reseña profundizaré sobre si estos tres elementos confieren, en realidad, a MMT la superioridad de la que los autores presumen. (Anticiparé telegráficamente las respuestas: i) no, ii) sí pero no y iii) definitivamente, no).
y lo que es en realidad
Macroeconomics de MWW tiene más de Historia del Pensamiento Económico, de Contabilidad Nacional y de discusión de Políticas Económicas que de Macroeconomía. Incluso en los capítulos más descriptivos se introducen referencias (y coletillas) a controversias (viejunas, que diría Antonio) entre distintas “escuelas de pensamiento”. Con ello, este libro se acaba pareciendo a un histórico campo de batalla en el que se intentan resucitar combates intelectuales que se libraron hace mucho tiempo.
Como libro de texto de macroeconomía es bastante limitado e incompleto, tanto por el enfoque metodológico como por su contenido. Metodológicamente, se recurre a la falacia de composición para justificar la despreocupación por el comportamiento de los agentes económicos y su importancia a la hora de determinar el resultado de las políticas públicas. Ello sirve también para justificar que “no hay una sola forma correcta de hacer Macroeconomía” en defensa de un enfoque menos formal y (casi) ignorante de la evidencia empírica. Siendo muy cierto que no hay una sola forma correcta de "hacer macro", la impresión final es que lo que MWW quieren decir en realidad es que todo vale, excepto la corriente principal ortodoxa desarrollada desde 1970. En cuanto al contenido, es poco más que la repetición de una rocambolesca historia de una Macroeconomía que empieza mal en Alfred Marshall y, en lo fundamental, acaba bien y definitivamente en John Maynard Keynes.
En definitiva, mis expectativas de encontrar (por fin) en Macroeconomics de MWW una presentación rigurosa de MMT y un análisis macroeconómico formal basado en su visión “más moderna” de las operaciones monetarias, se vieron totalmente defraudadas. Daré más explicaciones en la segunda parte de esta reseña.
(Continuará el próximo viernes 18 de octubre)

   Escenarios 2025 ¿Como reaccionara Europa?     The World Ahead, The Economist, y que presentará las tendencias clave que influirán en 202...