domingo, 30 de septiembre de 2018

La Economía del Crimen y el VAR en el Fútbol

De David Cuberes

La utilización del sistema de videoarbitraje (VAR) para revisar decisiones arbitrales controvertidas ha desatado muchos debates y discusiones de café. La controversia a menudo giran sobre si este sistema beneficia a los equipos grandes, si generan demasiadas interrupciones y, en definitiva, si hemos ganado algo con su implantación. Una clara mejora que se destaca es que, en principio, deberían cometerse menos errores arbitrales. Otra posible mejora, tal vez menos obvia, es que el VAR podría hacer que, en equilibrio, los jugadores comentieran menos infracciones. Esto es lo que predice el modelo de crimen (ver aquí) de Gary Becker que ya discutí en otra entrada, aunque con un objetivo diferente (ver aquí). La idea de esta entrada es tratar a un jugador que hace algo ilegal como un “criminal”: al fin y al cabo, excepto en casos no intencionados, cometer una infracción en el campo consiste en saltarse las reglas establecidas con el objetivo de obtener algún beneficio con ello. Así pues, en lo que sigue me refiero a futbolistas criminales (los que cometen infracciones) y futbolistas legales (los que no las cometen). Obviamente, ningún jugador o nunca infringe las reglas o las infringe al 100% , pero ésto es sólo una simplificación que nos ayudará a entender lo que quiero explicar.

En este modelo los futbolistas criminales son individuos racionales que maximizan su utilidad y que lo único que les importa es el beneficio que obtienen con ello. Supongamos que este beneficio se puede medir con la probabilidad G de ganar el partido. Cuando un jugador comete una infracción, la probabilidad de ser descubierto (y, por lo tanto, sancionado) es p. En caso de ser sancionado, el jugador recibe una penalización (en forma de advertencia, tarjeta, expulsión, etc…) a la que llamamos J. Finalmente, cometer una infracción tiene un coste adicional, e, que incluye el esfuerzo físico necesario (por ejemplo, arriesgarse a una lesión al hacer una entrada dura), así como el coste social de ser considerado un jugador criminal (sería fácil pensar en algunos ejemplos, pero seamos políticamente correctos…). Con todos estos supuestos, el valor esperado de cometer una infracción viene dado por   (1-p)G – pJ – e.  Supongamos que podemos ordenar a los jugadores por su calidad innata, de forma que los futbolistas más a la derecha del eje de abscisas tienen una mayor capacidad de ganar con sus acciones legales. Messi y Ronaldo, por ejemplo, estarían en el extremo derecho del eje de abscisas. La curva “victorias legítimas” indica que, a mayor calidad del jugador, mayor la probabilidad de que sus acciones lleven a que su equipo gane el partido. Por otro lado, supongamos que, si un futbolista decide hacerse “criminal”, es decir, usar de forma sistemática acciones antirreglamentarias, la probabilidad de ganar partidos es la misma independientemente de qué jugador se trate. Básicamente, estoy asumiendo que, si Messi hace trampas, eso repercute exactamente igual en probabilidad de que el Barca gane un partido que si es Jordi Alba el que hace trampas.  Esto viene representado por la línea a la que llamo “victorias ilegítimas”. El siguiente gráfico muestra que, en este modelo, de los 11 jugadores que hay en un equipo, aquellos que estén a la izquierda de c deciden hacerse futbolistas criminales (les sale más a cuenta), y a la derecha de este nivel crítico, se hacen futbolistas legales. El modelo predice, por cierto, que es más probable que los jugadores de menos calidad sean criminales, algo que sería interesante contrastar algún día.

¿Qué tiene que ver el VAR con todo esto? El principal efecto de esta nueva tecnología es que, una vez un jugador comete una acción irregular, la probabilidad de ser cazado, p, es mayor que antes del uso del VAR. Es fácil ver que el modelo predice entonces que el VAR implica un menor número de infracciones en el juego. El motivo es que un mayor valor de p mueve la curva de victorias criminales abajo (el valor esperado de cometer un crimen es menor) y hace que algunos jugadores decidan dejar de cometer infracciones anticipando que es más probable que sean castigados. Nótese que el castigo en caso de ser pillado, J, no ha cambiado. Por ejemplo, un nuevo reglamento que penalizara más las entradas feas, se correspondería a un aumento en este parámetro. El efecto del VAR en el número de infracciones se muestra en el siguiente gráfico:

El modelo de Becker es pues muy claro en cuanto a su predicción sobre el efecto del VAR. ¿Apoyan los datos esta predicción? Pues la verdad es que aún es un poco pronto para decirlo. Sin embargo, El País apuntaba hace unas semanas que ésto es precisamente lo que estamos viendo en las pocas jornadas que llevamos de liga (ver aquí): la implantación del VAR parece coincidir con el menor número de faltas y tarjetas de los últimos 11 años. Obviamente, para hacer ésto bien, habría que esperar al final de temporada y además habría que llevar a cabo un análisis de datos serio para asegurarse que nada más ha cambiado este año en la liga española que justifique un cambio pronunciado en el número de infracciones. Por ejemplo, este libro de Natxo Palacios-Huerta (ver aquí) habla en detalle de muchos factores que pueden afectar el comportamiento de los jugadores.

La verdad es que un servidor aún no ha tenido tiempo de mirarlo en detalle, pero junto a mi estudiante Shabani Kariburyo hemos recogido datos de los últimos 6 mundiales y parecen ser consistentes con la predicción del modelo: el número de tarjetas rojas (4) del último mundial fue muchísimo menor que la media de tarjetas rojas en los anteriores cinco Mundiales (18). También se observa un significativo, aunque menor, descenso en el número de tarjetas amarillas (219 vs. 255). Por otro lado, el número de goles ha aumentado ligeramente (169 vs 159) tal vez – aunque esto es mucho más especulativo- también debido a la introducción del VAR: es posible que la reducción del crimen en el terreno de juego permita a los jugadores marcar más goles.

Por cierto, no sería la primera vez que el modelo de Becker se usa para este tipo de análisis. Hace ya años, el prolífico economista Bob Tollison del que hable aquí hace algún tiempo y su coautor Bobby McCormick mostraron, en un excelente articulo (ver aquí), cómo la introducción de un tercer arbitro (antes solo había dos) en el baloncesto universitario de Estados Unidos redujo de forma muy marcada el número de faltas cometidas en los partidos.



30/09/2018 – El Día – Nuevo plan monetario; una batalla de expectativas

Bajo la conducción de Federico Sturzenegger, el Banco Central intentó bajar la inflación con un programa de metas. Siguiendo esa estrategia la autoridad monetaria definía un sendero para los precios y subía las tasas de interés siempre que la velocidad a la que corrían los precios resultaba mayor a la deseada. Esa suba de tasas hacía atractivo invertir en pesos y pinchaba el dólar. Con el billete planchado la inflación lentamente se frenaba. Este esquema funcionó bastante bien hasta que a fines del año pasado el Banco Central comenzó a enfrentar una fuerte presión política para abandonar la suba de tasas y dejar que el dólar aumentara “un poco”.

Espero que no solo el Gobierno, sino el resto de las personas que toman decisiones en Argentina entiendan ahora lo delicado que es jugar con el precio del dólar en este país y se den cuenta que, si el dólar barato era el costo a pagar por bajar la inflación, era un precio bastante menor que el de la recesión que tenemos ahora.

Lo concreto es que el Banco Central abandonó en la práctica las metas de inflación, incluso de manera explícita en aquella triste conferencia de prensa que coincidió con el día de los inocentes. Renunciado Sturzenegger, Caputo se internó en un régimen hibrido, donde empezó a prestarle mas atención a la emisión, aunque nunca transparentó un criterio claro de control de la inflación; se trató mas bien de un piloto de tormentas que tuvo la misión de frenar el derrumbe de los bonos argentinos, estabilizar el dólar y desarmar las LEBACS.

 

EL NUEVO ESQUEMA

La nueva gestión de Guido Sandleris empezó reconociendo el fracaso de las metas de inflación y anunció en cambio algo que muchos veníamos pidiendo; un férreo control de los agregados monetarios. En castellano, en los próximos 9 meses no habrá mas emisión de dinero. Se congela la base monetaria y la economía deberá arreglárselas con la misma cantidad de billetes y monedas con los que hoy cuenta.

Sin mas dinero en la economía no hay modo de que los precios sigan aumentando indefinidamente. Pensemos a la inflación como un auto que venía acelerándose mes a mes, pero que ahora acaba de quedarse sin combustible. Privado de nafta, está claro que no podrá seguir acelerando, pero también resulta evidente que no se frenará de manera instantánea, sino que continuará la inercia por varios meses toda vez que las próximas paritarias no serán iguales a cero, los alquileres no se harán sin clausula de indexación, los aumentos tarifarios continuarán y prácticamente todos los formadores de precios seguirán remarcando, incluso cuando bajen el ritmo de las subas.

 

LAS EXPECTATIVAS DEFINEN EL FUTURO

Cuando un Banco Central deja de emitir y clava los frenos de la base monetaria pueden ocurrir dos cosas que voy a denominar el equilibrio bueno y el equilibrio malo.

Si todos entienden que hubo un cambio de régimen, que no habrá mas pesos en la economía y que no hay modo de hacer todas las operaciones que se hacían antes, con los precios mas altos, pues dejarán de aumentar. El freno de la inflación operará a su turno reactivando fuertemente la economía, como ocurrió en cada uno de los planes de estabilización exitosos del pasado; desde el inicio del Plan Austral en el 85, hasta el éxito de Prat Gay en 2003, pasando por la Convertibilidad en 1991.

Pero si los actores no le creen al Banco Central, si los gremios buscan una paritaria del 25%, los alquileres se siguen firmando con aumentos semestrales del 15%, las tarifas siguen subiendo un 30% y así sucesivamente, pues no habrá pesos suficientes para hacer todas las transacciones de la economía a los nuevos precios, por lo que subirá de manera espectacular el costo del dinero (la tasa de interés) y habrá una profunda caída del nivel de actividad

Lo que el Banco Central no logre reconstruir en materia de credibilidad y confianza, lo pagará la economía real con mas recesión; la relación es prácticamente lineal y la única manera de evitarlo si no se edifica confianza, es acordando un freno con los principales actores (gremios, inmobiliarias, empresarios, etc.)

 

LA VÁLVULA DE ESCAPE DEL DÓLAR

Dado que no se emitirá un solo peso mas, con cada mes de alta inflación que tengamos, la cantidad de dinero de la economía alcanzará para menos, incluyendo las posibilidades de comprar dólares. Al mismo tiempo subirán las tasas de interés haciendo que resulte mas atractivo invertir en moneda nacional.

Esa combinación puede pinchar el precio del dólar y como ahora hay una banda de intervención en $34, que aumenta un 3% por mes, para fines de diciembre si el dólar baja a menos de $37,15 tendremos al Banco Central comprando reservas, que es el único caso en el cual está autorizado a emitir pesos.

Con mas pesos, se estabilizarían las tasas y el retroceso del dólar contribuiría a recuperar las expectativas, ayudando también a frenar las remarcaciones.

En el corto plazo, puede haber movimientos del dólar en el sentido contrario, pero cuando el directorio del FMI apruebe el nuevo acuerdo ingresarán 6000 millones de dólares que Hacienda podrá vender en el mercado. A ese shock de oferta se sumarán otros 6.000 en diciembre, más el resultado de la cosecha fina y la eventual vuelta de capitales financieros del exterior. El año que viene, incluso cuando baje la inflación, habrá menos pesos en la economía cada mes, hasta junio, combinados con los dólares de la soja.

Tarde o temprano la inflación bajará, porque sin nafta el fuego eventualmente se apaga. El riesgo es que ese momento tarde mucho en llegar.



¿Qué es la Economía? Definición y principales clasificaciones

La economía es el campo de estudio del comportamiento humano en todo lo referente a las relaciones productivas que se producen en las distintas civilizaciones y sociedades en que los individuos interactúan. Grosso modo, existen tres clasificaciones de economías posibles: 1- Economías de Mercado: Aquellas en las que la abstracción “mercado” es la que asigna los recursos entre los distintos individuos de la sociedad y a un precio determinado, según el esquema teórico de la oferta y la demanda, y sin que haya atención a criterios éticos o consideraciones morales de ninguna clase. 2- Economías planificadas o Centrales: Aquellas en las que la función de distribución de los recursos, productos o bienes corresponde a una institución pública o central asociada, normalmente, con el Estado, y en la que el libre mercado no existe, diríamos que está intervenido, precisamente para eliminar las distorsiones sociales y externalidades negativas que provocan los mercados. 3- Economías Mixtas: Tipo de economía que combina elementos de funcionamiento de las Economía de mercado y las de Planificación Central. Por lo tanto, podemos simplificar esta primera clasificación de economías posibles entre las economías capitalistas -Economías de mercado-, economías socialistas o comunistas -Economías Planificadas- y muchas de las economías actuales -Economías Mixtas- donde el Estado planifica junto con el mercado el funcionamiento de la economía. Así, otra clasificación se puede tipificar de la siguiente manera: 4- Economías liberales o neoliberales: Aquellas en las que el Estado queda relegado a un papel meramente secundario y son los propios agentes, individuos y empresas los que proceden, interactúan y se relaciones en un contexto de mínimas reglas predefinidas por un sector público que se encuentra reducido a la menor expresión y responsabilidad posible. 5- Economías intervencionistas: Denominando así a aquellas en las que el Estado interviene, coordina y dirige de manera fundamental […]

La entrada ¿Qué es la Economía? Definición y principales clasificaciones aparece primero en El Captor.



viernes, 28 de septiembre de 2018

Cinco autores clásicos cuyo pensamiento económico, filosófico y político sigue vigente

Lo cual nos hace parecer viejos e incapaces. Ideas, intuiciones y conclusiones brillantes que a pesar de su antigüedad siguen definiendo la actualidad. Relativas a la economía, la política, la religión o la sociología, su lectura es imprescindible. 1- Freud “Experimentamos así la impresión de que la civilización es algo impuesto a una mayoría contraria a ella por una minoría que supo apoderarse de los medios de poder y coerción” Ahí es nada. Vale la pena desentrañar el resto de ideas de este icónico psicólogo. Aquí destacamos las correspondientes a su obra “El porvenir de una ilusión”. 2- Nietzsche “A las naturalezas vulgares todos los sentimientos nobles y magnánimos les parecen inútiles, y por tanto, antes que nada, poco creíbles” Resulta curioso cómo las reflexiones de los mejores pensadores de la humanidad no dejan nunca de estar de actualidad. Estos son los extractos más interesantes de “La gaya ciencia”. 3- David Ricardo “La tierra, como ya hemos visto, no es el único agente de la naturaleza que tiene una potencia productiva, pero es el único, o casi el único, que una categoría de hombres toman para sí, con exclusión de los demás” ¿Quiénes son esa categoría de hombres? ¿De qué otros agentes de la naturaleza se apropian? Hay que leer sus “Principios de Economía Política“. 4- Engels “Se forma una clase de parásitos, una clase de verdaderos gorrones de la sociedad, que como compensación por servicios en realidad muy mezquinos se lleva la nata de la producción patria y extranjera, amasa rápidamente riquezas enormes y adquiere una influencia social proporcionada a estas” Puedes consultar aquí las claves de su análisis ‘El origen de la familia, la propiedad privada y el estado’, un resumen del capítulo final de dicha obra. 5- Galbraith “Entre los poderes que el Banco de Inglaterra obtenía de la clase dominante, […]

La entrada Cinco autores clásicos cuyo pensamiento económico, filosófico y político sigue vigente aparece primero en El Captor.



Democracia: el equilibrio es imposible

Lo tiene todo en su contra. O a su favor. En el puntiagudo filo de un vértice. Desde el que todo cae. De un lado. O del otro. Sin explicación. Pero sobrevive. Sea como ficción. Pese a las embestidas que evidencian su contradicción. Por una mayoría -o minoría- que se empeña en ella. Por el poso que queda. Por evitar que el 100% resida en la fuerza. Extranjera. Porque estéticamente evita el displacer. Mental y general. Cada cierto tiempo un partido alcanza la cima. Su cima. Y solo un instante después. El margen de actuación se reduce. Más bien tiende a cero. Anomia. En el top, un jefe de estado no electo. En un sistema de electos. Todo comienza mal. Todo continúa mal. Si miras al banco central. Sigue. Y piensa en una decisión colectiva disparatada. Todos irán hasta el final. Por el sistema. Por muy injusta que sea. Luego vendrán los lingüistas, los filósofos. Y nos afirmarán, y nos negarán, que lo injusto, es justo. El director de un periódico también lo reconocerá. En los pasillos. Que no cree en la verdad. Más tarde entrará en la redacción. Exigiendo a todos que la encuentren, ya. Inmediatamente. Quizás haya algo mejor. Distinto a salir de la tumba hacia el aire exterior. De cien en cien años. Para conocer, otra maldita vez. De qué demonios se trata. La trama. Porque la realidad lo es. Un complot, un guión. Que, por naturaleza, es predecible o no. Quizás alguien lo sepa. Willy, Dios, el ser que nos parió. Algo es seguro. El universo funciona como una sociedad instrumental. Solo existe para obtener ventajas. Como norma general. Y en la excepcionalidad. El equilibrio imposible de la democracia.

La entrada Democracia: el equilibrio es imposible aparece primero en El Captor.



jueves, 27 de septiembre de 2018

Acuerdo del Pacto de Toledo: casilla de salida …

de José Ignacio Conde-Ruiz (@conderuiz)

El Pacto de Toledo acaba de alcanzar un acuerdo para recomendar que los pensionistas mantengan su poder adquisitivo, que se garantizará “en base al IPC real”. La verdad que no se a qué se refieren con del “IPC real”, pero bueno dejemos este detalle para otro día.

Según parece este acuerdo se ha alcanzado por unanimidad de todas las fuerzas políticas, y tal como esta el Parlamento en los últimos tiempos, creo que esto es algo positivo. Pero, tampoco hay que lanzar las campanas al vuelo, pues se ha conseguido el acuerdo en lo más fácil para los políticos que es satisfacer a su electorado. En mi opinión, este acuerdo no es el punto de llegada, sino que es el punto de salida. Déjenme explicarme brevemente.

Permítanme un par de aclaraciones. Estoy un poco harto de escuchar a algunos dirigentes o “expertos en pensiones” decir que el IRP (o el núcleo central de la reforma del 2013) obligaba a cuasi-congelar las pensiones (i.e. subirlas un 0.25%). No se si lo dicen porque no son capaces de enterarse (pura incompetencia) o por que no se quieren enterar (puro interés). Pero lo cierto, es que con el IRP se puede perfectamente actualizar las pensiones con el IPC de toda la vida o con el “IPC real” de ahora. El IRP no es mas que una restricción presupuestaria inter-temporal, de las que se estudian en cursos de introducción a la economía y a lo único que obliga es a dotar de recursos o ingresos presentes y/o futuros para poder hacer dicha revalorización. Entiendo que a los políticos eso de anunciar subidas de ingresos es algo que no les gusta, pero al final, si aumentas el gasto, pero no lo acompasas de ingresos pues generas déficit que se acaba convirtiendo en Deuda Publica, que al final se tiene que pagar en el futuro. Para los políticos gobernar sin restricción presupuestaria es el mundo ideal, gastas hoy, generas Deuda Pública y ya se subirán los impuestos en el futuro, cuando con un poco de suerte ya no estén allí para afrontar el desgaste político de la subida. Pero esto no solo es irresponsable, sino que es injusto para las futuras generaciones, pues al final son ellos, los jóvenes de ahora, lo que se tendrán que hacer cargo de pagar la factura de la Deuda generada hoy. Por suerte, estamos en la UE compartiendo el proyecto común del euro y el Pacto de Estabilidad y Crecimiento pone un cierto límite a estas cosas, que sino no se dónde iríamos a parar.

La situación financiera de España no es que sea muy boyante que digamos, con un déficit que sigue en el entorno del 3% (siendo el único país de la UE aún con déficit estructural!!!) y con una Deuda Pública en la frontera del 100%. Pero la situación presupuestaria de las Pensiones no es ni mucho menos mejor. Tenemos un déficit anual de cerca de 19.000 millones de euros y aun no han empezado a jubilarse la generación del babyboom, que empezará a hacerlo en menos de una década. Además, las proyecciones demográficas gobernadas por mejoras en la longevidad (muy buena noticia sin duda!!!), apuntan que en unas décadas el número de trabajadores será muy similar al número de jubilados. Y con dichos escenarios demográficos, los distintos estudios que han analizado la evolución del gasto en pensiones sobre PIB, apuntan a qué si actualizamos las pensiones con el IPC sin profundizar en ninguna otra reforma, este déficit en unas décadas puede llegar a ser, en el mejor de los escenarios de unos 5 puntos de PIB.

¿Quiere esto decir, qué no nos podemos permitir actualizar las pensiones con el IPC? No. Como llevo defendiendo desde el mismo día que se aprobó la reforma de 2013, creo que un sistema donde la sostenibilidad recae exclusivamente en la congelación no es ni eficiente, ni justo. No es eficiente pues es muy difícil vivir con una renta menguante con la longevidad. Y no es justo pues un sistema que congela las pensiones por 30 años hace recaer todo el coste del ajuste sobre una única generación: la de los jubilados actuales. Y la clave es encontrar una reforma, tan potente como la “cuasi-congelación perenne”, que permita repartir el coste del ajuste, para garantizar la sostenibilidad, entre todas las generaciones. ¿Cuál, desde mi punto vista, debería ser esa reforma? Para no repetirme, les dejo aquí un post donde describo los elementos básicos de dicha reforma, y que escribí en el blog, antes del verano. Allí, podrán leer que defiendo reformar nuestro sistema de pensiones contributivo de reparto hacia un nuevo sistema (también de reparto!!!), pero de cuentas nocionales. Esté nuevo sistema, con tasas de sustitución más bajas aplicará únicamente a las futuras generaciones. Pero, durante la transición, para que el coste del ajuste se reparta entre las distintas generaciones probablemente será necesario no solo dotar de algo más de ingresos al sistema, sino también que en algunos periodos todas las pensiones no se puedan actualizar con el IPC. Por supuesto, en este último caso se debería establecer un limite máximo en cuanto la perdida en términos de poder adquisitivo que una pensión puede llegar a perder.

En definitiva, el Pacto de Toledo ha dado un primer paso, pero ahora tenemos que exigirle que busquen otro pacto con medidas para hacer sostenible el sistema. Pero, para hacerlo sostenible, no sólo para los próximos años, sino para las próximas décadas. Con toda seguridad las medidas necesarias no serán tan populistas como la última. Pero, creo que por responsabilidad deberían ponerse a la tarea lo antes posible, pues, aunque la nueva reforma entre en vigor en unos años, es clave que los ciudadanos tengan la información de cómo van a ser los cambios del sistema lo antes posible para poder adaptarse a ellos con antelación suficiente a su edad de jubilación. Cuando, se pongan a la tarea se darán cuenta que la solución no pasa únicamente por el aumento de los ingresos, y que será necesario que caigan las tasas de sustitución (o la pensión media sobre el salario medio) que provee el sistema. ¿Serán capaces ahora de ponerse de acuerdo también para implementar medidas que garanticen la sostenibilidiad o se quedarán en lo fácil? ...



miércoles, 26 de septiembre de 2018

La respuesta fiscal a la crisis financiera: de la estrategia política a la investigación económica

La crisis financiera nos dejó, entre las pocas cosas buenas, un shock positivo de productividad sobre la investigación en política fiscal. Con esta frase abrió Valerie Ramey la conferencia que impartió en la serie de charlas “The Global Financial Crisis at 10” organizadas este julio por el NBER National Institute. Parte de la culpa de ese renacimiento de la investigación fiscal macro la tuvo el American Recovery and Reinvestment Act (ARRA), un contundente plan de estímulos fiscales con el que la Administración Obama quiso hacer frente al rápido deterioro de la producción y el empleo. Uno de los arquitectos del ARRA fue Jason Furman, que hace unos días participó en otra serie de charlas bajo el título “Responding to global financial crisis: what we did and why we did it”, esta vez organizadas por el Brookings Institute, junto con el Hutchins Center on Fiscal and Monetary Policy y el Yale Program on Financial Stability. En esta entrada voy a integrar algunas ideas generales que pueden destilarse de las dos conferencias aludidas, utilizando el ARRA desde su nacimiento como hilo conductor.

La charla de Furman está basada en el working paper “The fiscal response to the Great Recession: steps taken, paths rejected and lessons for next time”, y empieza definiendo las tres fases del estímulo fiscal en Estados Unidos. Una primera fase se empezó a fraguar a finales de 2017, antes de la quiebra de Lehman, y se cimentó sobre devoluciones de impuestos a los contribuyentes. Lo interesante de esta etapa de estímulos es que demostró que la política fiscal, gracias en parte a las digitalización de la información, puede competir con la monetaria en cuanto a rapidez en la implementación, terreno en el que tradicionalmente siempre se había pensado que partía en desventaja.

La segunda fase de estímulos estuvo representada por el Recovery Act del que ya hemos hablado, y se planteó como un plan de choque sustancial, rápido y sostenido contra la crisis financiera. El plan fue firmado por Obama en Febrero de 2009, días después de su toma de posesión. Del testimonio de Furman sobre esta etapa llaman la atención algunos aspectos de economía política. Por ejemplo, el esfuerzo que el equipo de transición realizó para concienciar al Congreso, la opinión pública y al propio partido Demócrata, de la necesidad de un aumento discrecional del gasto público de un tamaño al que no estaban acostumbrados. En esta estrategia anestésica de reforma del pensamiento jugaron un papel destacado economistas como George Akerlof, Dean Baker, James Galbraith, o Joseph Stiglitz, lo que ratifica la importancia de contar en el juego político con el apoyo incondicional de un conjunto de economistas prestigiosos (al menos en Estados Unidos).

Un mes antes de su aprobación, Christina Romer y Jared Bernstein publicaron un estudio sobre el (muy positivo) impacto esperado del ARRA. Dicho estudio fue rápidamente contestado por Cogan, Cwik, Taylor y Wieland, alegando que la macroeconomía moderna disponía de herramientas teóricas para calcular multiplicadores que se parecían muy poco a los que se sacaban de las viejas chisteras keynesianas. Muy poco convencido del estudio de Romer y Bernstein (ni otros posteriores) debió de quedar John Taylor, ya que dos años después objetó, además, que muchas de las simulaciones que apoyaban la efectividad del estímulo fiscal partían de la premisa errónea de que los fondos comprometidos se plasmarían, en mucha mayor medida de lo que finalmente se observó, en consumo público e inversión en infraestructuras (Gráfico 1). Y es que, a diferencia de la política monetaria, en la política fiscal es muy importante la distinción entre lo que se dice que se va a hacer y lo que de verdad se termina haciendo.

Gráfico 1. Efecto a los dos años del ARRA en las principales categorías presupuestarias

A la tercera oleada de estímulos tras el ARRA el propio Furman la clasifica de oportunista, extensiva y “bajo manga”. Las reticencias del Congreso a aprobar cambios legislativos de calado en materia fiscal obligaron a fragmentar los estímulos y anexarlos a diversos cambios legislativos que no habían sido etiquetados como estímulos fiscales. Estas operaciones de ingeniería parlamentaria confirman la vigencia de nuestro viejo refranero: “en todas las casas cuecen presupuestos, y en la mía a calderadas”.

El Gráfico 2 muestra el peso relativo de las tres fases de estímulos entre 2008 y 2012. Nótese que aunque la fama se la ha llevado el ARRA, los estímulos post-ARRA fueron de una magnitud similar. Más aún, los verdaderos protagonistas de la política fiscal durante la crisis son ¡los estabilizadores automáticos! (incluso en un país poco proclive a insuflar recursos desde el estado por esta vía a la economía). El diseño óptimo de los estabilizadores automáticos es uno de los temas sobre los que sin duda interactuarán en el futuro la política y la investigación macroeconómica.

Gráfico 2. Expansión fiscal como porcentaje del PIB

¿Cuál es el efecto estimado de la política fiscal discrecional? La literatura económica ha recurrido al multiplicador fiscal para ilustrar esta cuestión. El concepto mismo de multiplicador tiene una naturaleza escapista, tal y como nos comentaron en su día Jesús Fernández Villaverde y David López Salido. No obstante, Valerie Ramey, posiblemente la máxima autoridad mundial en multiplicadores, distingue claramente entre los que se obtienen utilizando buenas prácticas y los que no. Las buenas prácticas son las que se nutren del desarrollo de la investigación fiscal en tres frentes: (a) la teoría (abordando cuestiones de relevancia para la efectividad de la política fiscal como el límite cero del tipo de interés, las restricciones financieras, el nivel de deuda, el grado de anticipación, la persistencia de las políticas, las uniones monetarias, las reglas fiscales, etc.); (b) los métodos empíricos (como la identificación de shocks fiscales basada en métodos narrativos, SVAR, identificación de signos, métodos de proyección locales, experimentos cuasi-naturales, etc); y (c) los datos (construyendo nuevos instrumentos narrativos para un conjunto de países – como de los que nos habló recientemente Abraham Zacuto en este blog – o, en general, generando nuevas bases de datos temporales y de sección cruzada procedentes de las respuestas de política fiscal a la crisis).

Algunos de los elevados multiplicadores que Furman cita para apoyar la efectividad de los estímulos fiscales, de los que él fue responsable, no cumplirían el criterio de buenas prácticas de Ramey. Otros sí, pero se obtiene con muestras de datos de sección cruzada a nivel de estados, y por lo tanto no comparables directamente con datos históricos agregados a nivel federal. Sin embargo, como aclara Ramey, gran parte de las diferencias en los multiplicadores estimados se deben, no tanto al método utilizado para identificar los efectos, sino al método que se sigue para calcular los propios multiplicadores. Y para ello desarrolla dos ejemplos.

El primero ejemplo ilustra la vieja disputa entre el enfoque narrativo y el enfoque basado en la identificación de Blanchard y Perotti utilizando un VAR estructural. El enfoque narrativo suele dar estimaciones del multiplicador del gasto público en el entorno de 0,6 a 0,8. El VAR, por el contrario, produce multiplicadores bien por encima de 1. Estos últimos multiplicadores se obtienen a partir de la respuesta dinámica del output estimada con el VAR , dividida por el impacto (en el periodo inicial) de la respuesta del gasto público. Dado que la típica respuesta del PIB y el gasto público tienen forma de joroba (siguen creciendo después del periodo inicial) estimar de este modo el multiplicador fiscal sesga al alza su valor con respecto a tener en cuenta toda la evolución temporal del gasto público. Cuando se corrige la forma de calcular los multiplicadores teniendo en cuenta el método de integración propuesto por Mountford y Uhlig, se obtienen resultados en el rango de los producidos por el enfoque narrativo.

El segundo ejemplo rebaja aún más el subidón de moral que a Furman (y a otros arquitectos del ARRA) les podría haber provocado el repaso de la literatura. Y es que los estudios que evalúan la efectividad de los estímulos fiscales con datos de corte transversal cometen dos errores cuando extrapolan sus conclusiones a nivel nacional: (1) utilizan variables per cápita a nivel de estado, pero no ponderan en las regresiones por la población (lo que equivale a darle el mismo peso a un estado grande y a otro pequeño); (2) No tienen en cuenta todo el gasto público realmente implicado, sino que consideran únicamente el gasto público transferido a nivel federal. Cuando se corrigen estos dos problemas, el multiplicador fiscal se reduce de valores muy por encima de la unidad a valores mucho más reducidos, en el entorno de los obtenidos con el enfoque narrativo en series históricas.

Si de los aumentos del gasto público corriente no se pueden esperar un gran empuje sobre la actividad económica (debido a la existencia de efectos expulsión sobre la actividad privada), los multiplicadores asociados con cambios en los tipos impositivos se sitúan en la mayoría de los casos entre -2 y -3, según Ramey. Con esta información en la mano es difícil justificar aumentos del gasto público a partir de algo parecido al multiplicador keynesiano de presupuesto equilibrado, una idea que parece estar presente en las propuestas de política fiscal de algunos partidos políticos en España.

Aunque el ARRA tuvo mucha responsabilidad en el despertar de la investigación fiscal, no fue la única causa. Los procesos de consolidación fiscal que involucraron, y siguen afectando, a distintos países de Europa, también estimularon el interés de la profesión y definitivamente terminaron por levantar el ánimo de algunos economistas. Pero de ese aspecto de la política fiscal, sus particularidades y lo que podemos deducir de la investigación más relevante, me ocuparé otro día, si logro salir de dentro de estos presupuestos.

 



Podemos y los Presupuestos: seguimos con el mismo cuento de siempre

Escribo este post desde la segunda avenida de Nueva York con el edificio de la ONU a un lado y la torre Chrysler al otro.  Aquí se juntan esta semana todos los líderes mundiales, así como buena parte de los principales intelectuales, y los debates que se organizan son de máximo nivel. Salgo de uno en la sede de naciones Unidas con Jeffrey Sachs, uno de los mejores economistas del mundo, Yunus -premio Nobel de la paz-, la número dos de la ONU, el número tres del FMI, el ex primer ministro de Pakistan, Papandreu ex primer ministro griego….

Un saludo desde NY

👋 ¡Saludos desde la Sede de las Naciones Unidas en Nueva York! Tema que nos reúne aquí: sostenibilidad y nuevas tecnologías. ¿Cuál es mi sensación? Que en España estamos perdiendo el tiempo con debates absurdos…

Geplaatst door José Carlos Díez op Maandag 24 september 2018

 

Llego a mi apartamento y miro la prensa española para ver qué ha pasado. El Gobierno con líos varios. Sánchez apoyando ahora el CETA con Canadá que el año pasado votó en contra. El PP usando su poder en la mesa del Congreso para vetar todo lo que propone el Gobierno. Ahora toca la ley presupuestaria que, desde que se aprobó, Rajoy ha incumplido sistemáticamente, igual que los compromisos con Bruselas. Ciudadanos votando con el PP todo en la mesa, marcando un claro bloque de derechas.

1. La propuesta presupuestaria de Podemos: el mismo cuento de siempre

Pero lo que más me ha desmoralizado ha sido leer el documento de Podemos con propuestas para aprobar los presupuestos. La economía es complicada y no tiene soluciones para todos los problemas. Pero hay algunos principios básicos que sí sabemos que funcionan. Por ejemplo, la oferta y la demanda y la formación de los precios la explicamos en la universidad igual que Marshall se la explicó a Keynes en Cambridge.

Hay un crecimiento de la demanda de alquileres en el centro de las ciudades, la oferta es escasa, los propietarios de los pisos son conscientes que hay escasez, suben el precio y lo alquilan. La clave es desincentivar el crecimiento de la demanda e incentivar el aumento de la oferta.

¿Qué propone Podemos? Criminalizar la oferta, poner limitaciones a los precios y un impuesto a las viviendas vacías de los grandes propietarios. Si son inversores profesionales y buscan rentabilidad no tendrán muchas casas vacías. Si no lo son, un impuesto seguramente no hará que cambien de opinión. Si limitas las subidas de precios y se alejan mucho de lo que sería el precio de mercado, habrá más gente dispuesta al alquiler que casas disponibles y habrá escasez.

 

La siguiente medida es subir el salario mínimo a 1.000 euros en 2019. Este economista observador pide subidas de salario mínimo desde 2015, cuando comenzó la recuperación intensa del empleo. Pero, con la economía desacelerando, los últimos datos de empleo dando señal de debilidad, el BCE anticipando el fin de las compras de deuda que supondrá una política monetaria menos expansiva, la inflación al 2% y… ¿se les ocurre subir el salario mínimo nada menos que un 25% en un año?

Lo que enseñaba Marshall a Keynes es que esa subida supondrá precios más altos, menos actividad y menos empleo, especialmente en el segmento de menor cualificación, donde la tasa de paro es más elevada.

Luego vuelven con el mantra de nuestra baja presión fiscal y dicen que lo van a resolver sólo subiendo impuestos a los ricos. El titular de la prensa ha sido que Podemos propone subir 10.500 mill los impuestos. Eso fue lo que consiguió aumentar la recaudación Rajoy en el no rescate en el que según él no nos exigieron recortes.

La realidad es que el rescate exigía un ajuste fiscal brutal, que Rajoy subió más el IRPF a todos los españoles de lo que proponía IU en su programa y nos subió el IVA 3 puntos, hasta a los chuches. Si Podemos cree que puede aumentar la recaudación 10.500 mill sólo subiendo los impuestos a los ricos, supongo que también creerán que los niños vienen de París en cigüeñas.

2. Seguimos con un ajuste fiscal pendiente de hacer y con salarios precarios

En el documento hay buenas propuestas en línea de lo que se habla hoy en Nueva York, como aprobar un plan de rehabilitación de viviendas para poner placas fotovoltaicas y mejorar la eficiencia energética, bajar las cuotas a los autónomos con bajos ingresos, escuelas para niños de 0-3 años, etcétera. El PP ya nos ha dejado altamente endeudados, con el ajuste fiscal pendiente de hacer y con salarios precarios. Pero si aplicáramos el programa de Podemos, todo sería susceptible de empeorar.

Por suerte, el mundo está pendiente de lo que sucede en Nueva York y los programas de Podemos ya no salen en medios internacionales como en 2015, en medio del corralito griego. Pero en cualquier momento eso puede cambiar.

 

blog josé carlos díez

La entrada Podemos y los Presupuestos: seguimos con el mismo cuento de siempre aparece primero en El Blog de José Carlos Díez.



La anomia americana

El sociólogo francés Emile Durkheim, en su libro clásico “Sobre el suicidio”, examinó la desintegración de los vínculos sociales que lleva a los individuos y las sociedades a actos personales y colectivos de autodestrucción. Descubrió que cuando los vínculos sociales son fuertes, las personas logran un equilibrio saludable entre la iniciativa individual y la solidaridad comunitaria, al que llamó un “equilibrio sustentador de la vida”. Estas personas y comunidades tienen las tasas más bajas de suicidio. Los individuos y las sociedades más susceptibles a la autodestrucción, escribió, son aquellas para quienes estos vínculos, este equilibrio, se ha roto. Las sociedades se mantienen unidas por una red de vínculos sociales que les da a las personas la sensación de ser parte de un colectivo y participar en un proyecto más grande que uno mismo. Este colectivo se expresa a través de rituales, como las elecciones y la participación democrática o un llamamiento al patriotismo y las creencias nacionales compartidas. Estos vínculos construyen un significado, sentido de propósito, status y dignidad. Ofrecen protección psicológica contra la mortalidad inminente y la sensación de “sinsentido” que embarga cuando se está  aislado y solo. La ruptura de estos vínculos sumerge a los individuos en una angustia psicológica profunda que conduce finalmente a actos de autoaniquilación. Durkheim llamó a este estado de desesperanza y desesperación “anomia”, que definió como “ausencia de reglas”. La ausencia de reglas significa que las normas que gobiernan a una sociedad y crean un sentido de solidaridad orgánica ya no funcionan. La creencia, por ejemplo, de que si trabajamos duro, obedecemos la ley y obtenemos una buena educación, podemos lograr un empleo estable, estatus social y movilidad además de seguridad financiera se convierten en una mentira. Las viejas reglas, imperfectas y a menudo falsas para los pobres de color, sin embargo no eran una ficción completa en los Estados Unidos. Ofrecieron a algunos estadounidenses […]

La entrada La anomia americana aparece primero en El Captor.



martes, 25 de septiembre de 2018

¿Qué ocurriría si se criminaliza la prostitución?

A raíz de la fugaz legalización de un sindicato de trabajadoras del sexo, durante las últimas semanas se ha reabierto en España el debate sobre la regulación de la prostitución. En España la prostitución persiste en una situación de gris “alegalidad”, no está explícitamente permitida la venta de servicios sexuales pero tampoco está prohibida. Algunas voces del gobierno se han manifestado recientemente a favor su prohibición, criminalizando tanto a las prostitutas que ofrezcan sus servicios como a los clientes, siguiendo el llamado modelo sueco. Otros miembros del mismo partido, por el contrario, apuestan por la legalización, a semejanza de Holanda. El debate se ha desarrollado sobre todo en clave ideológica, en parte quizás debido a la ausencia histórica de buenos estudios empíricos. Sin embargo, se han publicado recientemente dos excelentes estudios, uno con datos de Estados Unidos y el otro de Holanda, que proporcionan información muy valiosa sobre esta cuestión.

El estudio americano explota la inesperada legalización de la prostitución “interior” en Rhode Island. Al parecer, un juez se dio cuenta en 2003 de que, cuando se cambió la ley estatal en 1980 para endurecer la prostitución callejera, se omitió por error la prohibición de la prostitución “no callejera” lo que, de facto, suponía legalizarla. La decisión judicial supuso que durante los siguientes seis años se permitiese la prostitución siempre y cuando no se produjera en las calles.

Los autores muestran que, como cabía esperar, la legalización contribuyó a que aumentase el número de servicios de prostitución ofertados online y a que disminuyesen los precios. Pero además, observan una dramática disminución de los delitos sexuales. De unas 40 violaciones por cada 100,000 habitantes se paso a menos de 27. Como se muestra en la siguiente gráfica, se trata de la mayor caída durante ese período de los 50 estados miembros de los Estados Unidos.

La hipótesis favorita de los autores es que esta disminución se debe a un efecto sustitución: los potenciales criminales se convierten en clientes de prostitución (ver también Ciacci & Sviatschi 2016). La hipótesis alternativa, que la legalización de la prostitución de alguna manera induce a las prostitutas a no reportar los crímenes sexuales parece menos plausible.

Además de reducirse el número de violaciones, también disminuyó la transmisión de las enfermedades venéreas. Los casos de gonorrea bajaron en Rhode Island en torno a un 40% lo que supone, de nuevo, la mayor caída de todo el país. En este caso, la legalización habría permitido un mejor control de la salud de las prostitutas.

El estudio holandés obtiene resultados muy similares. En este caso analiza la apertura de las llamadas tippelzones en diversas ciudades holandesas. Las tippelzones son calles en las que se permite la oferta y la demanda de servicios sexuales durante un horario determinado. La primera tippelzone se abrió en La Haya en 1983 y, durante las siguientes tres décadas, otras ocho ciudades abrieron zonas similares. Las tippelzones incluyen areas de servicio donde es posible lavarse, conseguir jeringuillas limpias, y tener acceso a asistencia médica.

Los autores analizan la evolución de las ciudades con tippelzone antes y después de su apertura (o clausura), utilizando como grupo de control otras ciudades similares. De forma similar a lo observado en Rhode Island, la apertura de estas zonas de libre prostitución conllevó un aumento del número de prostitutas y clientes, pero una disminución de entre el 30 y 40% de los casos de abusos y de las violaciones en la zona. También se observa una disminución en el número de crímenes relacionados con el tráfico de drogas.

A pesar de estar en un limbo legal, la industria del sexo parece gozar de buena salud en España. El 25% de los varones confiesa haber pagado por servicios sexuales (CIS 2008) y, entre los jóvenes de 25 a 34 años, la cifra está en torno al 23%. (En la misma encuesta, los varones aseguran haber tenido de media unas 11 parejas sexuales a lo largo de su vida, comparado con 3 por parte de las mujeres, lo que nos recuerda la limitada fiabilidad de este tipo de encuestas.) La experiencia de Rhode Island y Holanda sugiere que, si se prohibiese la prostitución en España, el uso de la prostitución disminuiría, pero probablemente aumentasen los crímenes sexuales y la transmisión de enfermedades venéreas.



lunes, 24 de septiembre de 2018

Cambiando las actitudes de género en la adolescencia

En Nada es Gratis hemos escrito muchas veces sobre brechas de género (véase el magnífico resumen que hace poco escribió Libertad), incluyendo los resúmenes que se suelen hacer sobre los artículos que se presentan en la conferencia anual del Comité sobre la Situación de la Mujer en la Economía (COSME). En estas entradas (aquí y aquí), Irma Clots y Santi Sánchez nos hablaron de la importancia de los roles y las normas sociales, y recientemente Michela Carlana nos resumió su artículo sobre cómo los estereotipos implícitos de los maestros afecta al rendimiento diferencial de niños y niñas en matemáticas.

Dada la importancia de las normas sociales como una de las causas de las brechas de género, cabe pensar en posibles soluciones. Es claro que no va a ser sencillo; generalmente pensamos que las normas sociales se han formado durante muchos años y que no es fácil cambiarlas en el corto plazo. Uno de los objetivos de las políticas de cuota de género en las listas electorales (véanse los trabajos que Irma Clots y Manuel Bagues han escrito con varios co-autores, por ejemplo aquí y aquí, y aquí) es el de crear mujeres de referencia en la vida pública para intentar cambiar estereotipos y normas sociales.

Cabe pensar que es importante implementar políticas capaces de afectar las normas sociales de los adolescentes, que serán los adultos del futuro. Intuitivamente, parece que será más difícil cambiar las normas sociales una vez se hayan cementado en el cerebro. Los adolescentes no suelen estar muy interesados en la política ni en las elecciones, así que no está tan claro que las políticas de cuota en las listas electorales vayan a tener mucho efecto en ellos. En este sentido me pareció muy interesante este artículo titulado “Reshaping Adolescents' Gender Attitudes: Evidence from a School-Based Experiment in India” que han escrito Diva Dhar, Tarun Jain, y Seema Jayachandran, y que lo presentó Seema en esta conferencia de economía del desarrollo en Londres el fin de semana pasado.

Diva, Tarun, y Seema estudian una intervención diseñada por la ONG Breakthrough, y que se implementó en las escuelas públicas de secundaria de los distritos más conservadores del estado de Haryana, en la India. Como posiblemente les suena, India tiene una fuerte tradición de mejorar las normas de género a través de cuotas electorales (cada cierto tiempo en una municipalidad hay elecciones donde sólo se pueden presentar mujeres) y más recientemente se han implementado políticas que dan incentivos monetarios a familias que tienen niñas (para intentar disminuir el aborto selectivo por género), además los incentivos aumentan si la niña llega a ciertos niveles educativos.

La intervención se trataba de una actividad de 45 minutos que se realizaba durante el día escolar, una vez cada tres semanas, y durante dos años y medio. La intervención era impartida por un facilitador de la ONG, que se reunía con los niños y niñas de la escuela.  La intervención trataba temas como identidad de género, valores, aspiraciones, estereotipos, reconocimiento de la discriminación, etc. No se trataba de una lección, sino todo lo contrario, de un evento muy participativo en el que los adolescentes discutían y trataban estos temas. La labor del facilitador era orientar y guiar la discusión. Por ejemplo, cuando los adolescentes responden que las mujeres cocinan en casa porque son mejores cocinando, el facilitador les recuerda que los cocineros en los restaurantes son generalmente hombres. Y entonces les hace pensar que los hombres también pueden cocinar en casa. La intervención también tiene algún elemento de teatro en la calle, y algunas sesiones sobre liderazgo, hablar en público, etc.

La intervención fue implementada como un experimento en 149 escuelas tratamiento y 164 escuelas control, y para su análisis se escribió un análisis plan (de los que he discutido en alguna ocasión), donde se detalló la metodología de análisis antes de tener los datos. Antes de describir los resultados, cabe destacar algunos resultados descriptivos que se obtuvieron antes de implementar la intervención, y que resultan muy interesantes. El primero es que los alumnos de las escuelas son 55% niñas y 45% niños. La razón del desequilibrio es que las familias envían a los niños a las escuelas privadas con mayor frecuencia que a las niñas. El 57% de las niñas y el 77% de los niños estaban de acuerdo con la afirmación que el papel más importante para una mujer es ser una buena ama de casa, y el 53% de las niñas y 78% de los niños estaban de acuerdo con la afirmación que los niños deben tener más recursos para su educación que las niñas.

Para realizar el análisis, los autores utilizan una batería de preguntas como las que acabo de indicar, y construyen tres medidas “resumen”, una sobre actitudes de género, otra sobre aspiraciones, y otra sobre comportamientos. Gracias a la intervención, la actitud de género mejoró en un 25% de una desviación estándar, la de aspiraciones en un 5%, y la medida de comportamiento en un 32%. Por lo que la intervención ha funcionado muy bien.

Hay dos cuestiones más que me gustaría subrayar. Seguro que no se le escapa al lector que este tipo de preguntas pueden tener un cierto sesgo de respuesta, en el sentido que se responde lo que se considera socialmente aceptable, y no lo que realmente se piensa. Los autores utilizan una estrategia que me pareció muy interesante, y que no había visto nunca: usan una batería de preguntas (diseñadas por un psicólogo) que mide la inclinación de una persona a dar una respuesta socialmente aceptable. Utilizan esta medida de inclinación para ver si los efectos positivos de la intervención son debido a personas con una alta inclinación o no, y lo que obtienen es que no. Es decir, que las mejoras de la intervención son independientes de la inclinación de los adolescentes a dar una respuesta socialmente aceptable.

De los resultados, el que me pareció más interesante es el que los niños cambian más su comportamiento que las niñas. Y es que tiene bastante lógica. Las niñas pueden querer dejar de hacer ciertas tareas en la casa, pero que lo pueden llegar a hacer o no, dependerá de que las dejen. Seguramente, los niños lo tienen un poco más fácil, porque dependerá más de ellos hacer algo. Estoy pensando que será más fácil para un niño convencer a los padres que lo deje cocinar, que no a una niña de convencerles que no quiere cocinar, porque en este caso los padres tendrán que cocinar ellos, o convencer a otra persona para hacerlo.

En resumen, una intervención muy interesante que es capaz de cambiar las actitudes de géneros de adolescentes en la India. Una pregunta que surge es como diseñar la intervención para que pueda llevarse a cabo a gran escala. Es posible que parte del éxito de la intervención se deba a la calidad de los facilitadores de la ONG que realizaron una actividad muy dinámica y entretenida. ¿Se puede conseguir un efecto parecido sin tener estos facilitadores?  Una posibilidad a explorar es que pasaría si se introduce el material en los libros de texto. El artículo cita este otro artículo publicado en el Journal of Political Economy, que encuentra que estudiantes chinos que fueron enseñados usando libros con mensajes más pro-comunistas acabaron teniendo actitudes más favorables al gobierno y peor opinión del libre mercado.

Seguramente, este proyecto no se acaba con este artículo. Sin duda que los autores estarán muy interesados en mostrar si el efecto persiste en el medio y largo plazo, y si la intervención tiene efectos sobre futuras decisiones educativas, de fertilidad, etc. Desde Nada es Gratis, ¡mucha suerte!

 



domingo, 23 de septiembre de 2018

El Ártico y la dinámica del clima (que no, que no es calentamiento global, !que es cambio climático¡)

Como otros veranos, al volver siempre creo que debo escribir sobre cambio climático; además, he comprobado que hace tiempo que no lo hago, así que vamos allá. Este año, la verdad, no me puedo quejar del calor de Madrid, aunque septiembre se está poniendo un poquito pesado. Mi experiencia horrible de este verano fue a finales de julio en Cambridge, Inglaterra: tres días en Inglaterra con máximas de 35ºC no se los deseo a nadie, sobre todo porque eso, que en Madrid sería llevadero, es insoportable porque nada está preparado para esos calores. De hecho, el verano de 2018 ha sido tan tremendo en Reino Unido que tiene hasta una entrada en Wikipedia (en inglés).

El verano ha sido similar en mayor o menor medida en buena parte del norte de Europa. De acuerdo al informe de los National Centers for Environmental Information de Estados Unidos, Noruega y Finlandia registraron temperaturas máximas en julio por encima de 33ºC, incluso en zonas por encima del círculo polar ártico. En Suecia se registró un gran número de incendios forestales, que también han dado lugar a una entrada en Wikipedia (en inglés). El calor en Estados Unidos también ha causado numerosos incendios, y cuando escribo hay activos 89 fuegos en 12 estados.

¿Cuál es el origen de todas estas anomalías? La respuesta simple ya la hemos dado muchas veces en este blog: el clima está cambiado debido a la acción del hombre, y la temperatura media del planeta sube continuamente desde el último cuarto del siglo pasado, como muestra la figura adjunta, tomada de la NASA. Observe, por cierto, el acelerón que muestran los datos en los últimos años. Pues hala, ya, ya está este con su matraca habitual, pues ya no tengo que seguir leyendo. ¿O sí?

Si me lo permite, amigo lector, yo seguiría leyendo, porque hoy quiero ir un poco más allá de ese diagnóstico de grano grueso, y quiero hacerlo en dos direcciones, aunque sea de manera un poco telegráfica: por un lado, no solo estamos cambiando el clima, estamos cambiando su propia dinámica, con consecuencias poco menos que impredecibles; por otro, lo que a nivel global es calentamiento, a nivel local puede ser cualquier cosa. Vamos por partes.

En un post reciente en Politico, el especialista en física oceánica Stefan Rahmstorf intenta literalmente explicar el tiempo "friki" que se ha experimentado en muchos sitios este verano. Para ello, nos presenta la gráfica de las temperaturas medias en Potsdam, cerca de Berlín, donde está el Instituto de Investigación sobre el Impacto del Clima:

En esta gráfica, la línea roja representa un promedio suavizado de la desviación de la temperatura respecto al promedio entre 1893 y 1922, y podría entenderse como la parte de las anomalías que observamos que se debe al cambio climático. Cada barra gris corresponde a la anomalía anual, y la diferencia con el promedio suavizado podría deberse a muchas cosas, podríamos incluso considerarla puro azar. Sin embargo, el pico de este año llama la atención, porque a una anomalía de más de 2ºC debida al cambio climático une otra de otro tanto. Rahmstorf apunta dos posibles causas (no excluyentes) de estas altas temperaturas. Una es el debilitamiento de la corriente llamada Jet Stream (en realidad de la del norte, hay otra mas al sur, y sus equivalentes del hemisferio sur).

Esta es una corriente de aire que está controlada por la diferencia de temperaturas entre los trópicos y el Ártico. Por tanto, al calentarse el Ártico, la corriente se debilita y se desestabiliza, volviéndose menos predecible (aquí es cuando recuerdo que el caos se descubrió en modelos simplificados del clima, por supuesto). Desde 2015 hay evidencia de este debilitamiento, que consiste sobre todo en un enlentecimiento de la corriente. De esta manera, al evolucionar la atmósfera de manera más lenta, el clima se vuelve más persistente, y las olas de calor (o de frío) duran más. Por otro lado, y siempre de acuerdo con Rahmstorf, hay otro factor involucrado, nada menos que la Corriente del Golfo. Esta también se está debilitando, debido a alteraciones causadas por el aumento del nivel del mar en la densidad de las aguas y en su salinidad, los motores de ese inmenso regulador térmico que es la Circulación Termohalina. Como resultado, el agua en zonas subpolares árticas está más fría, lo que se sabe que causa veranos más calientes en Europa. Rahmstorf concluye diciendo (voy a poner comillas no sea que me acusen de plagio, porque este es uno de los dos mensajes importantes que quiero transmitir y quedaría feo):

"El cambio climático no significa simplemente que todo se está calentando de manera gradual: está cambiando las circulaciones oceánicas y atmosféricas más importantes. Esto hace que el clima sea cada vez más raro y más impredecible. La realidad del cambio climático se hace cada vez más evidente, y ya no es un problema para las generaciones futuras. Debemos prepararnos para más sorpresas desagradables en los próximos años, y necesitamos limitar urgentemente las emisiones para no seguir desestabilizando el sistema climático."

Así pues, no estamos calentando el planeta: estamos desestabilizando el clima. Vamos ahora a por mi segundo mensaje. Como expliqué en otro post, uno de los efectos del cambio climático, precisamente por la desestabilización del sistema, es la aparición de mayores fluctuaciones y más eventos extremos. Pero que el planeta se caliente globalmente no quiere decir que ese sea el efecto en todos los sitios. Quizá el ejemplo más famoso es el warming hole (agujero de calentamiento) del sureste de Estados Unidos, correspondiente con la zona en azul de la figura adjunta.

La figura está tomada de este artículo reciente, Spatially Distinct Seasonal Patterns and Forcings of the U.S. Warming Hole, de Partridge y colaboradores. Se ve muy claramente como el cuadrante sureste de Estados Unidos ha experimentado un enfriamiento en vez de un calentamiento. Los autores del trabajo encuentran que, de nuevo, esto está asociado a cambios en la ubicación de la Jet Stream en esta zona del continente, mostrando que de hecho su curso se modificó en los años cincuenta al empezar el agujero, y haciendo así que los vientos del norte traigan are frío y temperaturas más bajas. Los investigadores van más lejos al lograr entender que la zona de enfriamiento es estacional, estando ubicada más hacia el Medio Oeste durante el verano y el otoño.

En este sentido, además de insistir en que el cambio climático es eso, cambio, y que puede ser calentamiento (en la mayoría de sitios) pero también enfriamiento (en otros), hay que darse cuenta de que estas diferencias regionales generan diferentes creencias sobre la realidad del fenómeno. Esto ha sido analizado en otro artículo del año pasado, concretamente Spatial heterogeneity of climate change as an experiential basis for skepticismde Kaufmann y colaboradores. Lo que se encuentra en este trabajo es que estas desviaciones del comportamiento global son una de las causas de que la gente sea, en esas zonas, más escéptica respecto al cambio climático, lo que se traduce en mayores problemas a la hora de comunicar los posibles impactos del mismo. Esto, que por otro lado no es tan sorprendente, apunta en la misma dirección que este post: el cambio climático es un fenómeno muy complejo y presentarlo como calentamiento global no ayuda. Es necesario hacer un trabajo de pedagogía en profundidad para transmitir que, básicamente, lo que estamos haciendo siguiendo en el business as usual es hacer el clima más impredecible, más extremo, y más complicado de entender. Y si es más complicado de entender y de predecir, es mucho más complicado prepararse para sus efectos. Y como decía más arriba, esto ya no es un problema para el futuro, es para ahora, y tenemos que prepararnos. Así que es urgente, no, urgentísimo, adoptar medidas para impedir que vayamos más allá de los 2ºC (lo cual es ya bastante complicado) y no desestabilizar más el sistema de lo que ya está. No será por no haberlo dicho... unos cuántos miles de veces!

Nota: Mala noticia para terminar el post, y es que vamos para atrás como los cangrejos. Australia acaba de convertirse, después de laminar a varios primeros ministros que intentaron hacer algo en la buena dirección, en el segundo país después de Trumpland que abandona (al menos, de facto) el acuerdo de París. Y no será por falta de sequías, incendios, y demás efectos del cambio climático... Qué pena, de verdad.



Invocando la próxima depresión

Durante la crisis financiera de 2008, los bancos centrales del mundo, incluida la Reserva Federal, inyectaron billones de dólares fabricados ex-profeso para que circulasen por el sistema financiero global. Hoy, este descomunal suministro de dinero ha creado una deuda mundial de 325 billones de dólares, más de tres veces el PIB mundial. El dinero fabricado fue a parar a bancos y empresas, que lo prestaron a depredadores tipos de interés, y lo emplearon para seguir generando intereses sobre deudas impagables, o para recomprar acciones, lo que en la práctica supuso una compensación millonaria para las élites. Esta creación de dinero no fue invertida en la economía real. Los productos no llegaron a fabricarse ni venderse. Los trabajadores no fueron reinsertados en la clase media con ingresos sostenibles, protección social o pensiones. Los proyectos en infraestructuras no se llevaron a cabo. El dinero fabricado infló la escandalosa burbuja financiera construida sobre deuda y ocultó un sistema financiero enfermo destinado al colapso. ¿Qué desencadenará el próximo crash? ¿Los 13,2 billones de deuda que los hogares de Estados Unidos acumulan? ¿Los 1,5 billones de deuda en préstamos universitarios insostenibles? ¿Los miles de millones que Wall Street ha invertido en la industria del fracking para perder, más allá de lo que ha logrado generar, 280 mil millones de dólares? Quién sabe. Lo cierto es que el crash financiero que proviene de aquel que ya tuvo lugar en 2008 es inevitable. Y esta vez, con tipos de interés próximos a cero, las élites no tienen un plan de escape. La estructura financiera se desintegrará. La economía mundial se adentrará en una espiral de muerte. La rabia de una población traicionada y empobrecida empoderará, me temo, a la derecha más demagoga, que prometerá venganza contra las élites mundiales, la renovación moral o aquella aspiración mítica de una […]

La entrada Invocando la próxima depresión aparece primero en El Captor.



jueves, 20 de septiembre de 2018

Los efectos macroeconómicos de las reformas impositivas: nueva evidencia para España

Esta entrada está firmada por Abraham Zacuto, un pseudónimo que explicamos aquí.

¿Cuál es el efecto macroeconómico de la política fiscal? ¿Una subida de impuestos reduce la actividad económica? ¿Cuánto? Estas preguntas han preocupado a los economistas desde hace mucho tiempo y en el contexto de la Gran Recesión y la crisis de deuda soberana en la eurozona, su importancia ha aumentado aún más. En España, el país con el mayor déficit público de la zona euro y con una deuda pública que roza el 100% del PIB, es difícil minimizar la relevancia que tienen estas cuestiones para las distintas estrategias de consolidación fiscal. Fruto de ello, este blog ha tratado en numerosas ocasiones este tema, por ejemplo aquí, aquí y aquí.

Conocer los efectos de los impuestos (y del gasto público) sobre la actividad económica es sustancialmente difícil. Ello es así porque en muchas ocasiones las reformas impositivas que aprueban los gobiernos responden a otras circunstancias que afectan a la actividad económica, con lo que los analistas, al analizar los cambios tributarios, corren el riesgo de asignar a estos lo que no es más que la incidencia de los shocks que motivaron dichos cambios. Por ejemplo, a principios del año 2008 el gobierno aprobó una deducción general de 400 euros con objeto, al menos en parte, de estimular la economía en un contexto de desaceleración de la actividad. De este modo, sería aventurado explicar la intensa recesión que siguió en los meses siguientes como la consecuencia de dicha rebaja impositiva, ya que no tendríamos en cuenta el hecho de que esta rebaja trataba precisamente de evitar la desaceleración, que venía provocada por factores ajenos a la bajada de impuestos.

Recientemente, la ciencia económica ha tratado de solventar este problema de identificación a través de la denominada “metodología narrativa”. Esta metodología se basa en el estudio de la motivación que hay detrás de cada cambio impositivo. Así, a grandes rasgos, las medidas impositivas pueden clasificarse en dos grupos. Por un lado, las medidas “endógenas” son las que tienen carácter contra-cíclico, es decir, se adoptan como consecuencia de factores que están incidiendo en el PIB o se espera que lo hagan en el corto plazo. Por otro lado, las medidas “exógenas” son aquellas cuya motivación es independiente de la evolución del PIB, por ejemplo aquellas que se adoptan para cumplir los criterios de acceso a una unión monetaria. La idea de la metodología narrativa es utilizar únicamente las medidas impositivas exógenas para medir los efectos de los cambios tributarios en la actividad económica.

Esta metodología narrativa aplicada a los impuestos se utilizó por primera vez en Estados Unidos, en un artículo publicado en el año 2010. Posteriormente, se ha empleado en otros países como Reino Unido, Alemania y Portugal. Recientemente, ha aparecido publicado en la revista de la Asociación Española de Economía (SERIEs), un artículo que, basado en esta metodología, estudia el efecto de los cambios impositivos en España.

Los autores de dicho trabajo construyen una base de datos con todos los cambios impositivos adoptados en España en el periodo 1986-2015. Posteriormente, los clasifican en cambios tributarios exógenos y endógenos, de acuerdo a su motivación. En total, la base de datos cuenta con 75 medidas impositivas, de las cuales 45 se consideran exógenas, y por tanto, son las que se utilizan para medir el efecto de los impuestos sobre el PIB.

En la figura 1.1 puede observarse la evolución temporal de los cambios impositivos durante el periodo considerado. Los primeros años de la base de datos recogen, fundamentalmente, cambios fiscales dirigidos a adaptar el sistema impositivo español a los requerimientos europeos derivados, por ejemplo, del acceso a la Comunidad Económica Europea o del Tratado de Maastricht. Posteriormente, el periodo comprendido entre finales de los años 90 y primeros de los 2000 está caracterizado por reducciones de la imposición directa (IRPF e Impuesto de Sociedades) con objeto de aumentar el producto potencial, la competitividad y acercar el sistema impositivo español a los estándares europeos. A continuación, la serie recoge la importante reducción de impuestos adoptada en 2008, como consecuencia de la antes señalada desaceleración de la actividad. Esta reducción fue seguida de una serie de incrementos impositivos aprobados en el periodo 2009-2012, tras el aumento del déficit público asociado a la crisis. Las últimas medidas se corresponden con bajadas impositivas en el contexto de la recuperación de la actividad.

La figura 1.2 recoge la serie temporal una vez que se han eliminado las medidas consideradas endógenas. Los autores excluyen, entre otras, las reducciones de impuestos que se adoptaron justo antes de la crisis financiera, por ser de carácter contra-cíclico, así como las medidas tomadas durante la misma, ya que su inclusión no está validada por algunos tests de exogeneidad.

Figura 1.1 Medidas tributarias 1986-2015 

Figura 1.2 Serie de medidas exógenas

Con esta serie de medidas tributarias exógenas, los autores estiman el impacto sobre el PIB de una subida de impuestos equivalente al 1% del PIB. Metodológicamente, estiman un vector autoregresivo de 3 variables (PIB per cápita, gasto público y tipo de interés de corto plazo) en el que la serie de impuestos exógena se introduce -valga la redundancia- de forma exógena. Para cada variable se incluye su efecto contemporáneo y un polinomio de 3 retardos.

En la figura 2.1 puede observarse el resultado de dicha estimación. Después de un aumento de los impuestos equivalente al 1% del PIB, la actividad económica caería un 1,3% después de 4 trimestres, aumentando posteriormente hasta que el efecto sería cercano a cero al final del horizonte considerado (esto es, 12 trimestres). De este modo, los resultados sugerirían que existe un coste en términos de crecimiento de las medidas discrecionales de aumentos impositivos, especialmente en el corto plazo. Asimismo, dada la simetría del modelo empírico, una reducción de impuestos generaría un efecto expansivo sobre el PIB. Dicho esto, la magnitud del tamaño de dichos efectos debe tomarse con mucha cautela, ya que los autores enfatizan que la estimación se realiza con una imprecisión grande, que viene reflejada en unas bandas de confianza considerablemente amplias. Además, el trabajo muestra que los efectos pueden depender de la motivación de las medidas, del tipo de impuestos reformados, o de los posibles efectos anticipación si las medidas tardan un tiempo en implementarse.

Figura 2. Efecto de un aumento impositivo sobre el PIB

 



miércoles, 19 de septiembre de 2018

La imprudencia temeraria del Tribunal Supremo

Nota del Editor: Antonio Villar ha sido, entre muchos otros cargos relacionados con la evaluación de la investigación, experto en el área de Ciencias Sociales y Humanidades de la Comisión de Seguimiento del Plan Nacional de I+D+i en 2005, coordinador del Programa Consolider-Ingenio 2010 del Ministerio de Educación y Ciencia, y presidente de su comité científico (2005-2007).

de Antonio Villar

La sentencia

Recientemente el Tribunal Supremo se ha pronunciado sobre cómo debe ser evaluada la investigación por parte de los expertos que participan en las comisiones de la Comisión Nacional para la Evaluación de la Actividad Investigadora. Lo ha hecho para responder a una demanda de una profesora que vio denegado uno de los sexenios solicitados y que aducía que la comisión no había leído su trabajo sino que se había basado en elementos indirectos como las revistas en que se publicaba la investigación o las citas recibidas.

La sentencia de la Sección Cuarta de la Sala de lo Contencioso Administrativo del Tribunal Supremo del pasado 12 de Junio, el tribunal determina que: “Las investigaciones, las aportaciones presentadas por los interesados, no pueden dejar de examinarse solo por el hecho de que no se publicaran en las revistas o medios incluidos en los índices o listados identificados […]. Ni tampoco están excluidos por esa sola razón de la máxima valoración permitida […]. Dependerá de su contenido la evaluación que merezcan.”

Es decir, el tribunal está diciendo que la evaluación indirecta no es adecuada y que hay que aplicar la evaluación directa. Se trata, en mi opinión, de una sentencia que no sólo carece de fundamento científico –que es de lo que trata este asunto- sino que hace mucho daño al proceso de evaluación sin que mejore ningún aspecto. En lo que sigue trataré de argumentar esta conclusión.

La evaluación de la investigación

La evaluación de la investigación es un campo en el que existe una larga experiencia nacional e internacional y un amplio consenso entre los expertos sobre la forma de llevarla a cabo, a pesar de que es un tema siempre abierto a la discusión. Este consenso parte de un par de presupuestos obvios. Primero, qué tipo de evaluación es más apropiada depende del contexto en que dicha evaluación se produce. Segundo, distintos campos del saber tienen diferentes culturas que hay que tomar en consideración.

Cuando se valora una tesis doctoral se forma (idealmente) una comisión de expertos en el área objeto de investigación quienes leen críticamente el trabajo y valoran su contenido por lo que aporte como novedad al campo en cuestión (evaluación directa). En último término la calidad de las publicaciones que derivan de esa tesis es lo que da la medida de su aportación a la ciencia y esto es lo que los expertos tratan de anticipar a partir de su conocimiento del campo.

Cuando se trata de evaluar unos pocos candidatos para un puesto de investigador en un departamento o centro de investigación, se suele combinar la valoración de sus curricula con la discusión en vivo de sus proyectos de investigación en sesiones de seminario abiertas a los investigadores. La evaluación de los curricula se realiza habitualmente a partir del conocimiento previo de los trabajos ya publicados por parte de los especialistas más próximos y de la relevancia de las revistas en las que la publicación se ha realizado. Se trata pues, por lo general, de un método mixto que combina la discusión detallada de algún trabajo (evaluación directa) con la valoración de las contribuciones realizadas en función de los medios donde han sido publicadas (evaluación indirecta).

Cuando se trata de valorar centros de investigación o un número elevado de investigadores de campos diversos la única vía razonable es la evaluación indirecta. Por dos motivos muy poderosos. El primero, la posibilidad de realizar las evaluaciones en un tiempo razonable, que eviten dilaciones que afectan a los derechos de los sometidos a evaluación. El segundo y principal, que en estos casos las  comisiones nunca pueden contar con especialistas en todos los campos que son objeto de la investigación que debe ser evaluada. Por ello la evaluación indirecta, con criterios claros y conocidos, es un mecanismo que protege frente a la posible arbitrariedad en el juicio subjetivo de alguien que no es un experto en el campo de trabajo específico del candidato sometido a evaluación.

Desde luego la evaluación indirecta está lejos de ser perfecta y puede dar lugar a subestimar ciertas contribuciones o sobrestimar otras. Sin embargo es el método más fiable y seguro para quienes se examinan porque además puede complementarse con una información muy relevante, como es la del número de citas recibidas.

Tres problemas

En mi opinión esta sentencia del Tribunal Supremo presenta tres serios problemas que hacen que debiera ser reconsiderada: problemas de competencia, de factibilidad y de seguridad jurídica.

El primer problema es el de la competencia. De lo que se manifiesta en la sentencia se deduce que quienes la han elaborado no están familiarizados con los procedimientos convencionales de evaluación de la investigación. Por tanto no debieran entrar a juzgar cómo se debe realizar la evaluación que es un tema competencia de los expertos. Al igual no sería razonable que entraran en la discusión sobre la evaluación de la sustancia de una tesis de física de partículas, pongamos por caso. Los expertos no sólo tienen la responsabilidad de aplicar los procedimientos de evaluación sino también de diseñarlos, porque es una parte inseparable de la propia evaluación.

El segundo problema, quizás el más acuciante pero el de menor relevancia, es del la factibilidad. Cada año se reciben unas 10.000 solicitudes para la evaluación de los sexenios que deber ser resueltas en pocos meses. La lectura de los trabajos requeriría que los expertos dejaran su actividad en las universidades y centros de investigación para dedicarse a esta labor durante meses y unas comisiones compuestas por decenas y decenas de investigadores para poder tener opiniones cualificadas sobre todos los campos de investigación específicos. Lo que simplemente no es factible.

El tercer problema, en mi opinión el más grave, es que esta sentencia genera una enorme inseguridad jurídica al proponer sustituir una valoración indirecta pero objetivada, con criterios públicos y transparentes, por una valoración subjetiva que presumiblemente tendrá que ser hecha por investigadores ajenos al campo. Pensemos que, en el mejor de los casos habrá un solo experto en derecho administrativo en el área de Derecho o solo experto de teoría de juegos en el área de Economía. ¿Qué hacen los otros miembros de la comisión que no son de esas subáreas específicas, realizan también valoraciones subjetivas o fían todo al criterio de un único miembro de la comisión? ¿Cómo se podrá argumentar una reclamación frente a una evaluación subjetiva negativa? Obviamente no podrá ser aduciendo la calidad de las revistas o las citas recibidas. Entones ¿cómo? ¿con la valoración subjetiva de otro experto? Y ¿quién decidirá lo correcto, un tercer experto que también hará su propia valoración subjetiva?

En resumen es una sentencia que tiene poco sentido y que puede generar un notable estropicio en uno de los pilares de nuestro sistema de I+D.