miércoles, 30 de octubre de 2019

¿Realmente pagan menos impuestos los ricos que los pobres en EEUU?

De Miguel Almunia.

El New York Times publicó el pasado 6 de octubre un artículo titulado "Los ricos realmente pagan impuestos más bajos que tú". En este artículo se podía ver un gráfico (algunos lectores habrán visto esta animación que circuló por Twitter) mostrando que las 400 personas con rentas más altas en Estados Unidos han pasado de pagar un tipo medio efectivo del 50% en los años 80 a apenas un 23% en 2018. Es decir, los impuestos suponen un porcentaje menor de la renta para las clases altas que para las clases medias y bajas.

El famoso gráfico proviene de un estudio reciente que acaban de publicar Emmanuel Saez y Gabriel Zucman (ambos de la Universidad de California - Berkeley) en un libro titulado "El triunfo de la injusticia". En este blog se ha escrito sobre ambos autores varias veces en este blog (por ejemplo, aquí, aquí, aquí y aquí).

No es noticia que la progresividad del sistema impositivo en Estados Unidos se ha reducido desde 1980: las enormes rebajas fiscales a las rentas altas de Reagan (1986), Bush (2001 y 2003) y Trump (2017) son bien conocidas. Sin embargo, Saez y Zucman van un paso más allá al asegurar que en 2018 las 400 personas con mayor renta (el top 0.0001%) pagaron un tipo efectivo menor al de cualquier otro percentil de la distribución. En otras palabras, el sistema fiscal estadounidense es prácticamente proporcional, y se ha vuelto regresivo en la parte alta. Las enormes repercusiones de esta afirmación, así como su novedad, han llevado a varios expertos en la materia a analizar en detalle cómo obtienen estas cifras Saez y Zucman.

Para calcular la progresividad es necesario calcular los tipos medios efectivos para cada percentil de renta, teniendo en cuenta todos los impuestos de EEUU (sobre la renta, los beneficios empresariales, el consumo, la propiedad, etc.) a nivel federal, estatal y local. Este ejercicio es complejo porque implica identificar qué personas han pagado cada impuesto y dónde se sitúan en la distribución de la renta. Dado que esa información no está disponible en las estadísticas públicas, hay que hacer algunos supuestos. Por todo ello, se ha generado un intenso debate metodológico en el que algunos expertos discrepan con Saez y Zucman.

Saez y Zucman hacen dos supuestos especialmente polémicos: (1) asumen que el impuesto de sociedades lo pagan exclusivamente los propietarios de las empresas, y (2) asumen que las transferencias del Earned Income Tax Credit (EITC) a familias de rentas bajas deben excluirse del cálculo de la progresividad fiscal.

El primer supuesto se refiere a una cuestión de "incidencia", un tema clásico en economía pública. ¿Sobre quién recae realmente la carga del impuesto? La teoría nos dice que no necesariamente sobre la persona o entidad que está obligado por la ley a pagar el impuesto. Un ejemplo sencillo: muchos se quejan de que cuando suben los impuestos a los carburantes, las gasolineras "trasladan" toda la subida a los precios, por lo que la incidencia recae sobre los consumidores. En el caso del impuesto de sociedades, es un poco más complejo: si sube el impuesto, las empresas verán mermados sus beneficios (después de impuestos). Como respuesta, intentarán reducir sus costes laborales. Los trabajadores, por tanto, soportarán una parte de la carga fiscal del impuesto. La clave está en qué parte. ¿Un 20%? ¿Un 50%? Dos estudios recientes con datos de Alemania y Estados Unidos concluyen que entre un 30% y un 50% de la carga del impuesto de sociedades recae en los trabajadores. Es decir, cuando las empresas tienen que pagar 100 euros más, en media reducen sus costes salariales entre €30 y €50. El resto es absorbido por los propietarios. Dada este evidencia, el supuesto de Saez y Zucman parece algo extremo.

Respecto al segundo supuesto, Saez y Zucman excluyen de sus cálculos las transferencias del Earned Income Tax Credit (EITC) a familias de rentas bajas. Su argumento es que todas las demás transferencias se suelen excluir de este tipo de cálculos porque se trata de políticas de gasto, no de ingreso. Según ellos, el hecho de que el EITC se administre a través del impuesto sobre la renta no implica que se deba tratar de forma distinta a las demás transferencias. El efecto de este supuesto sobre los cálculos es que el tipo medio efectivo de las personas con rentas bajas aumenta notablemente. ¿Por qué? Consideremos el caso de una persona con una renta de 5.000 dólares anuales que recibe transferencias del gobierno por valor de otros 5.000 dólares. Si consume toda su renta ($10.000) y el impuesto sobre ventas es el 10%, ¿cuál es su tipo medio efectivo? En la metodología estándar, sería un 10% ($1.000 de impuestos dividido por $10.000 de renta). En la metodología de Saez y Zucman, sería un 20% ($1.000 de impuestos sobre una renta de $5.000). Los autores son conscientes de este problema y, de hecho, eliminan de sus cálculos a toda persona con una renta inferior a la mitad del salario mínimo anual. El problema es que el sesgo no se elimina por completo, porque hay mucha gente que gana más de medio salario mínimo y recibe transferencias.

¿Cómo cambiaría el cálculo de la progresividad sin hacer estos supuestos discutibles? Dos economistas que trabajan en instituciones gubernamentales no partidistas en Washington, Gerald Auten y David Splinter, han realizado sus propios cálculos y han publicado una nota técnica para explicar las similitudes y diferencias con el método utilizado por Saez y Zucman en un artículo de 2018 con Thomas Piketty. Dos diferencias clave: asumen que el 25% de la incidencia del impuesto de sociedades recae sobre los trabajadores (tal como hace la Congressional Budget Office), e incorporan las transferencias del gobierno en la medida de renta total.

Como se puede ver en el gráfico, Auten y Splinter (2019) estiman que el sistema fiscal es claramente progresivo, con un tipo medio del 12% para la mitad más pobre de la población y del 50% para el top 0.01%. Las estimaciones de Saez y Zucman (2019) difieren incluso de las que se obtendrían con el método de Piketty, Saez y Zucman (2018). El principal cambio entre ambos es el supuesto sobre la incidencia al 100% del impuesto de sociedades sobre los propietarios.

¿Qué podemos concluir de este debate? Nadie discute que el sistema fiscal americano se ha vuelto menos progresivo que hace 40 años. La pregunta es cuánto ha cambiado, y si sigue siendo progresivo. La respuesta es incierta y, como casi siempre, depende de los supuestos. Además, está el debate más amplio sobre si deberíamos fijarnos solo en la progresividad de los impuestos, o tener en cuenta también la distribución del gasto público para tener una perspectiva completa sobre el efecto de la intervención del Estado en la distribución de la renta. Seguramente el debate seguirá activo mientras la distribución de la renta y la riqueza continúe siendo enormemente desigual.

Para cerrar, sospecho que muchos lectores se estarán preguntando si se podría hacer un análisis similar de la progresividad fiscal en España. La respuesta es que los datos sobre impuestos que están disponibles para la investigación en nuestro país son mucho más restringidos que en el caso de EEUU. Por lo tanto, lo mejor que se podría hacer es un ejercicio de (adivinación) aproximación con supuestos muy discutibles. Como contaba Samuel Bentolila en una entrada reciente, los investigadores interesados en la economía española tendremos que seguir luchando por tener acceso a microdatos administrativos para poder tener debates de este tipo.



martes, 29 de octubre de 2019

Crecimiento urbano y el tamaño del vecino: luces y sombras

De David Cuberes y Klaus Desmet

¿Es bueno para una ciudad o un pueblo  estar cerca de una gran metrópolis? La respuesta, como casi siempre en economía, es que depende. Para una ciudad como Sabadell, estar situada a tan solo 28 kilómetros de Barcelona presenta obvias ventajas: los ciudadanos de Sabadell pueden conducir media hora y disfrutar de una gran ciudad sin tener que pagar los altos costes de vivir allí. Incluso sin moverse, gracias a su proximidad a Barcelona, los residentes de Sabadell se benefician de una oferta más amplia de bienes y servicios, además de unas ventajas tecnológicas provenientes de la mayor concentración de capital humano en su ciudad vecina. Mientras estos factores claramente benefician a la periferia de las grandes urbes (un efecto conocido como urban spillovers), es también indiscutible que tener a Barcelona tan cerca genera mayor competencia para los comercios y las empresas de Sabadell. Además, las ciudades de la periferia podrían verse perjudicadas si muchos de sus residentes prefirieran mudarse a la gran ciudad vecina para ahorrar tiempo en el desplazamiento a sus trabajos. Estos efectos negativos se conocen como la sombra urbana (urban shadow) que la gran urbe proyecta sobre sus vecinos de la periferia. Así pues, si estar cerca de una gran ciudad contribuye o limita el crecimiento de la población (es decir, si los urban spillovers o los urban shadows dominan) es, a fin de cuentas, una cuestión empírica.

Hace ya algún tiempo, Fran Beltrán Tapia , Alfonso Diez Minguela y Julio Martinez Galarraga nos contaron en este blog el caso de España (ver aquí). El principal mensaje de su trabajo es que para una localidad mediana, durante el periodo de 1877 al 2001, el efecto de estar cerca de una gran ciudad fue inicialmente negativo pero más tarde, alrededor de los años 50, éste fue disminuyendo hasta convertirse en un efecto positivo. Una posible explicación de este cambio de tendencia es que los costes de transporte han ido disminuyendo a lo largo del tiempo y que, por lo tanto, han hecho mucho más viable la posibilidad de desplazarse diariamente a la gran ciudad en vez de abandonar la periferia. Otra posible explicación es que las grandes ciudades se han vuelto demasiado grandes para vivir y la gente prefiere las ciudades medianas, como Sabadell, para residir.

En un trabajo reciente (ver aquí) con Jordan Rappaport, estudiamos el efecto de la proximidad a una gran ciudad sobre el crecimiento en Estados Unidos entre 1820 y 2017. Nuestros resultados son cualitativamente parecidos a los de Fran y sus coautores. La siguiente tabla muestra que tener un vecino de gran tamaño (por encima del percentil 99) redujo el crecimiento medio de las ciudades estadounidenses entre 1820 y 1920. Este efecto se volvió positivo entre 1920 y 2017, con un debilitamiento sustancial del mismo entre 2000 y 2017.

En la tabla también puede verse claramente que el alcance geográfico de los efectos que las ciudades grandes producen en sus vecinos aumenta a lo largo del tiempo: los efectos son muy locales entre 1920 y 1940 y alcanzan hasta los 250 km entre 2000 y 2017. Por otro lado, todos estos efectos tienden a ser mayores cuanto mayor es la diferencia de población entre una ciudad y su ciudad vecina. Es decir, cuanto más pequeña es una ciudad y mayor es su vecina, mayores son los efectos positivos y negativos entre ellos. Para dar un ejemplo de España, compárese las localidades de Guadarrama y Tardienta. Ambas poblaciones tenían una población de alrededor de 1.500 en 1940, y ambas están a unos 60 kilómetros de una capital de provincia. Teniendo Madrid cerca, Guadarrama ha multiplicado su población por 10, mientras que Tardienta, cerca de Zaragoza, una ciudad importante pero menos grande que Madrid, ha perdido casi la mitad de su población. En Estados Unidos, comparemos la localidad de Aurora, a unos 40 kilómetros de Chicago. Su población parece haberse beneficiado de estar cerca de esta gran urbe, pasando de 47.000 habitantes en 1950 a 200.965 en 2017. En cambio, Worcester, a unos 40 kilómetros de Boston, una ciudad menos grande que Chicago, pasó de 203.500 en 1950 a 185.677 en 2017.

Para interpretar estos resultados, nuestro trabajo desarrolla un modelo teórico que se basa en la idea de que cuando los costes de transporte disminuyen, la gente pasa de querer emigrar a la gran ciudad vecina a simplemente desplazarse a diario para trabajar en la gran urbe. Así pues, cuando los costes de desplazamiento son muy altos, entre 1840 y 1920, las ciudades grandes ejercen una sombra de crecimiento sobre las ciudades vecinas y la periferia pierde población (urban shadows). Como expresa Cronon (1991) en su descripción de la expansión de EEUU hacia el Oeste en el siglo XIX, “las ciudades eran como estrellas o planetas, con campos gravitacionales que atraían a la población como sistemas solares en miniatura”. Más tarde, a partir de 1920, cuando aparecen los automóviles y se desarrolla la red nacional de autopistas, se facilita el desplazamiento de largas distancias para trabajar. Los urban shadows dejan lugar a los urban spillovers, y la periferia empieza a ganar población, una tendencia que continúa durante buena parte del siglo XX. A partir del año 2000 el aumento en la congestión viaria y el creciente coste de la vivienda debilita este efecto positivo.

El siguiente gráfico muestra el efecto en nuestro modelo de una disminución en los costes de transporte en el tamaño de una ciudad pequeña de la periferia. El eje de abscisas muestra los costes de desplazamiento y el eje de ordenadas muestra la población de la periferia. Cuando los costes de transporte son muy altos (la parte más a la derecha del eje de las x), la gran ciudad no puede crecer en tamaño porque sería demasiado costoso para sus residentes llegar a sus trabajos en el centro de la ciudad. Sin embargo, cuando estos costes disminuyen, la gran ciudad puede expandirse y algunos residentes de la ciudad pequeña deciden trasladar su residencia para poder disfrutar de las ventajas de la gran urbe.

Aunque es difícil calcular una medida precisa sobre la evolución de los costes de desplazamiento, en nuestro trabajo documentamos cómo en Estados Unidos éstos cayeron de forma bastante continua durante este periodo de tiempo. La gente pasó de vivir muy cerca de sus lugares de trabajo a alejarse poco a poco. Pasaron de viajar diariamente en carruajes (ver aquí) a desplazarse a partir de 1820 en ómnibus (ver aquí), un rudimentario vehículo que podía mover a 12 personas. Inicialmente, estos nuevos medios de transporte estaban solo al alcance de los ciudadanos de mayor poder adquisitivo, pero, poco a poco, su coste cayó y su uso se hizo extensivo a la mayor parte de la población. En 1850 aparecieron los primeros tranvías (ver aquí) que fueron clave en la expansión hacia los suburbios de ciudades como Boston. Los caballos fueron eventualmente sustituidos por la electricidad, reduciendo así el coste de desplazamiento tanto monetario como en cuestión de tiempo. Pero, evidentemente, el mayor cambio tecnológico fue causado por la aparición del automóvil. En 1908 se empezó a comercializar el Modelo-T (ver aquí) y en 1913, uno de cada 8 ciudadanos tenía un automóvil. A finales de 1920, 23 millones de estadounidenses ya se desplazaban usando este medio de transporte. Un factor clave para fomentar el uso del automóvil fue la expansión de la red de autopistas en 1921, con las Federal Highway Acts de 1921 y 1956, que se materializaron en una extensísima red que permitió a los estadunidenses hacer commute entre ciudades con mucha mayor facilidad.

Como comentaron Fran y sus coautores en su entrada, es de gran interés entender cómo evoluciona el sistema urbano de un país, puesto que eso nos permite pensar en políticas que ayuden tanto a las ciudades grandes como a las medianas y tal vez también a las zonas rurales que se están despoblando. Por ejemplo, nuestro trabajo sugiere que mejorar las redes de transporte que permitan el acceso a las grandes ciudades puede ser beneficioso tanto para esas ciudades como para las menores. Y puede tal vez ayudar a aliviar los problemas de la llamada “España vacía o vaciada” (ver aquí). Pero de este tema mejor hablamos en otra entrada.



lunes, 28 de octubre de 2019

Religión y liderazgo

En esta entrada les voy a hablar de un artículo reciente que hemos escrito  con Sonia Bhalotra (Universidad de Essex), Lakshmi Iyer (Universidad de Notre Dame) y Joe Vecci (Universidad de Gothenburgo). Dado que en otros artículos habíamos analizado el efecto de la religión de los políticos en India en temas como salud, educación, aborto selectivo de niñas y más recientemente en conflicto entre hindúes y musulmanes, nos empezamos a preguntar no sólo cómo la identidad religiosa de los políticos afecta a sus actuaciones sino también cómo los ciudadanos reaccionan a esta identidad, que es algo que no ha sido muy analizado en la literatura. Estas reacciones por parte de los ciudadanos pueden ser muy importantes y afectar al resultado final de las políticas aplicadas, así como a la efectividad de los líderes.

Para la realización de este estudio llevamos a cabo experimentos con más de 1000 individuos de ambas religiones en 44 aldeas del estado de Uttar Pradesh, en India. Uttar Pradesh es el estado más poblado de India, con un 19% de musulmanes. Hicimos lo que en inglés se llama “lab experiments in the field”, experimentos de laboratorio pero no con estudiantes universitarios, sino con personas que viven en las aldeas en cuestión.

En el experimento agrupamos los sujetos en grupos de 4, con 2 hindúes y 2 musulmanes por grupo, sin dar ninguna información sobre la composición de los grupos en cuestión. Los sujetos jugaban un juego de coordinación en el que tenían que decidir la cantidad de horas (ficticias) que iban a trabajar. El juego es muy similar al juego de coordinación con un líder utilizado en el artículo de Brandts et al 2014. Sus ganancias dependían de las horas trabajadas por el individuo del grupo con un menor número de horas. Después de 4 periodos de juego uno de los individuos, seleccionado aleatoriamente, adoptaba el rol de líder, y sugería el número de horas que debían trabajar.  Sus compañeros de grupo sólo recibían información sobre la religión del líder y su sugerencia. En la figura siguiente pueden ver la matriz de pagos que utilizamos (en Rupias).

Aún cuando líderes de ambas religiones proponían un número de horas muy similar, los resultados indican claramente que el número de horas trabajadas después de introducir un líder musulmán eran mayores que con un líder hindú y mayores que en los 4 periodos anteriores, como se puede observar en el gráfico siguiente. La diferencia es de 1,07 horas, que es bastante comparado con las 3,45 horas trabajadas en media en los 4 primeros periodos. Así pues, parece que los líderes musulmanes son mejores en aumentar la coordinación, en este caso de las horas trabajadas.

Este aumento viene del incremento en el esfuerzo realizado por ciudadanos musulmanes cuando se enfrentan a un líder musulmán. El efecto es mayor en aldeas dónde los musulmanes son una minoría, lo que sugiere que se trata de un “efecto de grupo”, debido a la reacción de los sujetos a un líder de su misma identidad religiosa. El mismo efecto no se produce con los sujetos hindúes y parece que este efecto no tiene nada que ver con la percepción que los individuos tienen de la habilidad de los líderes de ambos grupos.

En el experimento también realizamos dos tratamientos, en aldeas seleccionadas aleatoriamente, con el objeto de analizar la efectividad de los líderes ante políticas que se han utilizado para mejorar la integración social de las minorías. En el primero se dice a los grupos con un líder musulmán que la posición de líder se debe a la existencia de cuotas. En el segundo los dos grupos entran en contacto antes del experimento, resolviendo un puzle de 12 piezas con un miembro del otro grupo. Durante la realización del puzle les invitamos a conversar, pero saben que la persona con la que resuelven el puzle no va a estar en su grupo.

En el gráfico siguiente vemos que con un líder musulmán sólo el tratamiento de “contacto” aumenta la efectividad del líder, mientras que las cuotas producen rechazo. Este rechazo es todavía mayor en zonas en las que ha habido bastantes situaciones de conflicto en los últimos 20 años.

Cuando el líder es hindú vemos que las dos políticas se traducen en un gran aumento del esfuerzo. Esto es debido a la activación de la identidad del grupo mayoritario, los hindúes, con estos dos tipos de política. Igual que antes, el efecto es un poco mayor en zonas en las que ha habido conflicto.

Nuestros hallazgos proporcionan evidencia del papel de las reacciones ciudadanas a la identidad del líder en comunidades heterogéneas utilizando una muestra no estudiantil. Proporcionan además una guía útil para la política, identificando las condiciones bajo las cuales los líderes de los grupos minoritarios o mayoritarios pueden verse limitados en la resolución de problemas de coordinación, y advirtiendo de que las políticas utilizadas para favorecer la integración de las minorías pueden no funcionar, y pueden incluso activar la identidad y los comportamientos de grupo de los grupos mayoritarios.



El denominador común latinoamericano

El Thompson Reuters Core Commoditie index (CRB), es un promedio del precio de los futuros de 19 materias primas que van desde la soja hasta el cobre, ese índice tiene un promedio histórico de 200 puntos, pero en los 90s rondó los 100, mientras que entre 2005 y 2015 en 300, con picos de 470, a mediados de 2018.

En economía llamamos a esas oscilaciones, el super ciclo de comódities, pero puesto en lenguaje más llano, el mundo asistió a 10 años de espectaculares precios de materias primas, emergentes, particularmente los latinoamericanos. Argentina, es sabido, se vió beneficiada por la soja qué llego a 640 dólares en septiembre del 2012, empujando también a Brasil, Uruguay y Paraguay, pero la oleaginosa cotizaba a 150 dólares por tonelada trece años atrás. En Venezuela, Ecuador, México y el resto de los petroleros es todavía mas marcado el contraste; el hidrocarburo oscilaba en torno de los 20 dólares por barril en los 90s, pero se derrumbó hasta los 12 dólares a fines de esa década, para resurgir de las cenizas trepando hasta los 60 en el 2005 y llegando a los 147 dólares para julio del 2008. hoy el oro negro se debate en torno de los 50 y 60 dólares por barril. Chile tampoco es la excepción; el cobre tocó fondo en noviembre del 2001, a 60 centavos de dólar por libra de metal, pero ya coqueteaba con los 4 dólares en 2006, para escalar hasta el récord de 4,6 billetes verdes en febrero del 2011. Ocho años después vale casi la mitad. Finalmente, el oro, que alimenta a Bolivia, entre otros, se vendía a 300 dólares a principios de este siglo, llegó a 1920 en septiembre del 2011 y hoy, merced a la guerra comercial entre China y los Estados Unidos, se sostiene en 1500.

La economía y la política, oscilan en la misma frecuencia que los precios de los principales productos de exportación de los países latinoamericanos. De acuerdo a una investigación de Oscar Cetrángolo y colegas de la CEPAL, el ingreso per cápita en dólares constantes de América Latina acumuló un crecimiento del 19,15 por ciento en la década que corre entre 2005 y 2015, al tiempo que el gasto público se expandió también un 19,94 por ciento como porcentaje del PBI, lo que nos indica que el crecimiento real fue del doble, porque aumentó el peso del gasto en un producto que estaba creciendo.

Los promedios, como siempre, esconden heterogeneidades. Los autores de la investigación distinguen cuatro grupos de países. Argentina y Brasil integran el club de los que ya tenían el gasto público más alto y cuyas erogaciones más crecieron de la mano del boom de precios; su presupuesto pasó del 30 % del producto al 43 % en medio de la expansión de ingresos que permitían los commodities. en el otro extremo, Guatemala, Haití y Paraguay mantuvieron su bajo gasto estatal, prácticamente sin cambios y en torno de los 15 puntos del PBI. En el medio, el grupo integrado por Bolivia, Ecuador, Venezuela, Uruguay y Costa Rica, también aumentaron fuerte el gasto público de la mano de los buenos precios internacionales, pero empezaron a bajarlo en los últimos años, cuando se acabó el boom.

No es difícil entonces encontrar un denominador común que explica la política y la economía de los países de la región, dando cuenta del fuerte apoyo popular de los gobiernos que tuvieron la dicha de administrar la bonanza, pero también explicando la resistencia de los pueblos que interpretaron ese salto en los ingresos como algo permanente, definitivo y que no están dispuestos ahora a volver atrás en sus niveles de vida. hasta que estallaron las crisis en Brasil primero, en Ecuador, en Bolivia, en Chile, pensábamos que lo que pasaba en Argentina era idiosincrático, pero no.

Venezuela fue quizás el ejemplo mas caricaturesco. El régimen Chavista accedió al poder en medio de la crisis causada por un petróleo hiper barato y consolidó el mito de la revolución bolivariana con el barril arriba de 100 dólares, pero se cayó como un castillo de naipes cuando cedió el crudo a nivel mundial.

En Ecuador, con el petróleo en precio récord, el déficit presupuestario era de 1 por ciento del PBI, pero cuando se derrumbó el barril, el rojo de las cuentas públicas saltó al 5 por ciento y no fue posible sostener el nivel de subsidios a los combustibles que  tenia esa economía.

Chile es un caso muy interesante, porque la economía creció de manera sostenida desde 1990 incluso con el cobre en precios ridículamente bajos. En los 2000 potenció el crecimiento con el metal marcando récords, hasta que se cayó el cobre. El producto que había trepado por encima del 4 % anual hasta el 2013, se expandió por debajo del 2 por ciento en los cuatro años siguientes.

Pero además, en todos los países de la región con la excepción de los dolarizados, los tipos de cambio subieron, empujados por la salida de capitales globales que empezó en mayo del año pasado, haciéndose que el dólar esté más caro en moneda local y que consecuentemente los salarios reales medidos en bienes durables, que además son aspiracionales de las clases medias, bajaran.

No sorprenden entonces las crisis que sacuden a latinoamérica, ni las reacciones sociales de los pueblos que no se resignan al ajuste. Por supuesto hay además razones puramente locales, pero sorprendentemente (o no), las eclosiones no ocurren nunca en medio de la abundancia, con commodities récord y dólares baratos, sino todo lo contrario.

fuente: ELDIA.com



Las tres claves de la transición

El domingo las urnas dieron muchos mensajes. El primero y obviamente mas importante es que Alberto Fernández es el nuevo presidente, lo que implica que ahora las miradas están puestas en la transición de estos 43 días y en empezar a entender lo que viene.

El segundo mensaje es que con todos los problemas que tuvo la economía, Cambiemos retuvo casi el 41% de los votos, ganando en Córdoba, Santa Fe, Entre Ríos, Mendoza y la Ciudad de Buenos Aires, además de retener municipios clave de la Provincia mas importante, como La Plata y Mar del Plata, donde dio vuelta el resultado de las PASO. De modo que queda una oposición sólida que tendrá mucho peso en el Congreso y poder territorial. Esto es fundamental para sostener una transición ordenada y contrabalancear el ejecutivo en el próximo mandato.

Es posible que la expectativa positiva del 47% que voto por Fernandez genere la ilusión de una mejora en la economía, que ayude a quebrar el mal clima que tiene el mercado desde agosto; una luna de miel que siempre tiene todo candidato que gana, por obra y gracia del sesgo de confirmación de hipótesis. Kahneman y Tversky popularizaron en la academia este resultado en los años 70: la gente tiende a escoger selectivamente aquella parte de la información que confirma sus presunciones y a omitir deliberadamente cualquier dato que ponga en discusión esas creencias. Es evidente que sean cuales sean las primeras medidas de Fernandez, nadie que lo haya votado aceptará haber sido tan tonto o haber estado tan equivocado, aún cuando los principales anuncios no vayan en la línea que esperaban. Por supuesto, todo tiene un límite y si se acumulan suficientes sapos, incluso un fanático empieza a dudar. Por eso siempre se dice que existe una ventana de 100 días para hacer y deshacer; no será esta la excepción.

A diferencia de las PASO, este resultado sí había sido anticipado por el mercado. Incluso puede pensarse que se esperaba una diferencia en línea con las elecciones de agosto, o incluso mayor, porque lo cierto es que la economía, clave de la derrota oficialista en las primarias, empeoró en estos dos meses. Pero también es cierto que, sobre todo después del multitudinario acto del obelisco, muchos se ilusionaron con el milagro de dar vuelta la elección y tenían por lo tanto alguna expectativa de que los miedos que podía generar Fernández en lo económico, no se materializaran. Toda esa gente puede buscar esta semana coberturas alternativas al dólar, en acciones, bonos, o propiedades

En cualquier escenario hay tres grandes incógnitas; la primera es respecto de la transición, la segunda es qué estrategia va a tener el próximo gobierno con la deuda y consecuentemente con el déficit y su modo de financiación, mientras que la tercera tiene que ver con la forma que va a tomar el acuerdo social

Respecto de la transición, como lo veníamos diciendo,  había que optar por una de las tres opciones del trilema cambiario; o se dejaba correr el dólar, o se liquidaban las reservas, o se endurecía el cepo y se terminó optando por esto último, incluso de manera más agresiva a la que pensaba el mercado. El límite de 200 dólares por persona le pondrá mucha presión al mercado paraleló y la brecha subirá, pero además habrá incertidumbre en el proceso de formación de precios, dependiendo de cuan accesibles sigan siendo los dólares para comercio exterior y esto le pondrá un freno adicional a la actividad económica.

No sabemos como va a repercutir este mayor torniquete en cada mercado, pero debería potenciar la compra de acciones, bonos, autos, propiedades y cualquier otro tipo de inversión que sea sustituta del dólar. Este será unos de los primeros temas sobre el que el nuevo gobierno va a tener que dar precisiones pronto, porque el esquema recién anunciado es solo por los dos meses de transición.

La segunda incógnita tiene que ver con la velocidad de construcción del nuevo acuerdo con el fondo, que habilita el reperfilamiento con los privados. En mi opinión, lo ideal es ir a un acuerdo de facilidades extendidas lo más rápido que sea posible, comprometiendo el mantenimiento de las metas fiscales primarias, a cambio de más oxigeno en los pagos de intereses y la distribución en el tiempo del capital que vence fundamentalmente en 2022 y 2023.

En 2020 vencen casi 8 puntos del PBI de capital y 3,3% de intereses de la deuda. Además, en piloto automático y sin considerar ninguna medida expansiva del nuevo gobierno, habrá un 1% adicional de déficit primario. Si no se recupera el acceso a los mercados financieros, o a las líneas del FMI relativamente rápido, habrá que elegir que ajuste el sector público o el privado, porque magia no se puede hacer. Si no se logra eso, entraremos en moratoria unilateral con los acreedores en dólares y habrá que emitir para pagar los vencimientos en pesos, transfiriendo el ajuste al sector privado por la vía el impuesto inflacionario.

La tercera duda que hay que despejar rápido es la del acuerdo político social sobre el que hablaron los Fernandez, porque hay un riesgo grande de comportamientos anticipatorios de gremios y empresarios que busquen evitar que el eventual congelamiento o convergencia de precios los agarre antes de haber actualizado sus precios.

Por eso las definiciones del flamante gobierno electo serán fundamentales, porque hay varias preguntas cuyas respuestas definen el curso de lo que vendrá

¿Van a expandir, mantener o contraer el gasto?

¿Van a aumentar, bajar o mantener los impuestos?

Esas dos respuestas definirán el déficit primario

Luego, ¿Van a buscar un rápido acuerdo con el FMI? ¿Propondrán reperfilar intereses voluntariamente con un canje de bonos?

Esa respuesta definirá la necesidad de financiamiento del 2020

Finalmente ¿Qué tipo de reestructuración del capital van a proponer? ¿A la uruguaya? ¿A la Ucraniana? ¿A la Argentina?

Esa será la clave que permitirá eventualmente despejar las dudas sobre el riesgo de una moratoria unilateral, sobre la salud de las reservas o sobre la emisión inflacionaria para pagar los vencimientos en pesos



España incumple SISTEMÁTICAMENTE la reducción de déficit con Bruselas

España está incumpliendo SISTEMÁTICAMENTE su compromiso de reducción de déficit con Bruselas. De momento, no lo estamos percibiendo como un problema porque la deuda pública y la prima de riesgo se están emitiendo a tipo muy bajos.

Pero podría sudecer que, OTRA VEZ, los inversores vuelvan a asustarse y a desconfiar de nosotros, y nos tocaría hacer un ajuste en mitad de un escenario cercano a la recesión y de caída del consumo e inversión privado.

Crucemos los dedos para que la prima de riesgo se mantenga por debajo de 200 puntos básicos.

blog josé carlos díez

La entrada España incumple SISTEMÁTICAMENTE la reducción de déficit con Bruselas aparece primero en El Blog de José Carlos Díez.



domingo, 27 de octubre de 2019

Lecciones para España desde la óptica del desarrollo (I)

Esta entrada está escrita por Jesús Felipe, Consejero del Banco para el Desarrollo Asiático.

Llevo más de la mitad de mi vida (cerca de 30 años) fuera de España y una gran parte de ese tiempo he vivido y trabajado en Asia. Allí he tenido la suerte de vivir en Japón, Hong Kong y Filipinas, y llevo trabajando desde 1996 en el Banco para el Desarrollo Asiático, banco multilateral de desarrollo, con sede en Manila (Filipinas). Conozco una gran parte de Asia y mi trabajo me ha permitido estudiar y entender de primera mano por qué algunos países se desarrollan rápidamente y otros lo hacen a paso de tortuga, a veces dando un paso adelante (años de alto crecimiento) y dos atrás (crisis sangrantes). Aparte de hacer investigación muy centrada en temas de crecimiento y desarrollo, he tenido la oportunidad de trabajar con gobiernos de países tan diversos como Filipinas, Indonesia, Malasia, Pakistán, Kazajistán, Uzbekistán, China, Tailandia, Camboya, etc. En los últimos meses he estado en países de fuera de mi entorno como Honduras, Namibia o Arabia Saudita. El dilema es el mismo en todos: ¿cómo acelerar el desarrollo?

En esta entrada, propongo analizar la España de hoy desde Filipinas y desde la óptica del mundo del desarrollo. Ello ayuda a poner los debates actuales de nuestro país en perspectiva y a sacar conclusiones importantes; no porque España sea un país en vías de desarrollo sino porque creo que se pueden extraer lecciones sobre el desorden general que hay y por la poca claridad que veo en las propuestas económicas.

El desarrollo ha sido históricamente un proceso largo caracterizado por tres ingredientes fundamentales. Primero, el trasvase de trabajadores de la agricultura a la industria y los servicios. El diferencial de productividad entre el primero y los segundos es la base del crecimiento rápido. Esto ya aparece claramente en los trabajos clásicos de Arthur Lewis (1955, aquí), o Nicholas Kaldor (1967, aquí) y, en general, de todos los economistas del desarrollo y del crecimiento que trabajaron después de la segunda guerra mundial. En ese trasvase de recursos entre sectores, especialmente de trabajadores, era fundamental la industrialización como motor del crecimiento. El segundo ingrediente es la diversificación de la estructura productiva, como base del aprendizaje. Un país no pude crecer si sus empresas no fabrican una gran cantidad de productos distintos. Y el tercero consiste en pasar de producir productos muy sencillos (bolígrafo Bic, motocicletas de 50cc o juguetes eléctricos a pilas) a productos complejos (estilográfica Mont Blanc, máquina Siemens para hacer resonancias magnéticas, automóviles Mercedes, super computadoras o productos químicos avanzados), que contienen mucho más conocimiento y tienen una mayor elasticidad de la renta.

Conjugando las nociones de diversificación a nivel de país y sofisticación a nivel de producto y utilizando las exportaciones como indicador (y con datos para 130 países y 1240 productos), Hidalgo y Hausmann (2009) han creado los conceptos de complejidad de país y de producto y han generado rankings de los dos. El concepto de complejidad no es todo a la hora de hablar de crecimiento y desarrollo, pero encapsula muy bien el conocimiento de una sociedad y las oportunidades que ésta tiene. La evidencia muestra que para desarrollarse hay que diversificar la economía (producir y exportar muchos productos) y, a la vez, producir productos únicos (producidos por otros pocos países). La complejidad es muy buen indicador (predictor) del crecimiento futuro de un país. Voy a utilizarlo en mi análisis, no sin precaución.

Las estructuras de producción de Alemania y de Filipinas son muy distintas en los tres frentes que he mencionado arriba: el porcentaje de empleo en agricultura en Filipinas es todavía de un 25%, su producción y exportaciones están mucho menos diversificadas que las de Alemania, y sus productos son menos únicos.

Lo importante es que hay una asociación directa entre la complejidad de la cesta de productos que un país fabrica y exporta y los salarios del país. El crecimiento de los salarios, derivado de un incremento en la complejidad de la cesta de producción-exportaciones es el mejor indicador de las cosas bien en el país. El trabajador medio filipino no gana 40.000 euros al año porque en Filipinas no se fabrican máquinas Siemens, ni bolígrafos Mont Blanc, ni automóviles Mercedes. Así de sencillo.

El proceso de transformación de economías agrarias a economías industriales comenzó en el siglo XIX en los países avanzados de hoy (Europa, Estados Unidos), lo que eventualmente les llevó a alcanzar rentas altas en la segunda mitad del siglo XX. Fue un proceso lento y muchos de ellos necesitaron más de 100 años. Recientemente, las economías de Asia oriental, Japón, Corea del Sur, Taiwán, Singapur, y Hong Kong, consiguieron pasar de renta baja a renta alta (es decir, cruzar todo el segmento de la renta media) en unos 30-40 años. China está ahora en ello.

¿Qué tiene que ver esto con España? Pues que parece ser que los políticos españoles no lo entienden y sus propuestas económicas para que el país avance carecen de solidez. Claro que la estructura de la economía española ha cambiado y que hoy la de hoy es mucho más moderna (compleja) que la de 1960. Pero la economía española no se ha transformado como las de los vecinos del norte. Llegamos a los años 60 del siglo pasado y el turismo fue la solución, también la construcción, vino y aceite, y sí, algunas manufacturas; pero ni mucho menos como Alemania.

El problema de España es que los sectores avanzados y transables que tiran del resto de la economía (manufacturas y servicios avanzados) son pequeños, no son los grandes empleadores. Claro que España produce productos complejos. España no es Filipinas; pero tampoco es Alemania o Dinamarca. Es más, quizá la complejidad de nuestra economía esté más cerca de la de Filipinas que de la de Alemania, como documento a continuación. Y no hay modo de cerrar la brecha con los vecinos del norte, algo que se lleva intentando desde que se ingresó en la Comunidad Económica Europea en 1986.

Resulta que en el ranking de complejidad de la cesta de exportaciones elaborado por el Center for International Development (CID) de la Universidad de Harvard, España estaba en el puesto 19 de 130 economías en 1995, con un índice de 1,23 (siendo 0 la media mundial). Entonces, Filipinas ocupaba el puesto 72, con un índice de -0,25 (es decir, estaba por debajo de la media mundial).

A día de hoy (2017), España tiene una renta per cápita (en dólares de paridad de compra) casi cuatro veces la de Filipinas ($38.000 y $10.000, respectivamente), pero España ha caído en el ranking de complejidad y hoy está sólo un puesto por encima de Filipinas (puestos 32 y 33, con índices 0,85 y 0,75, respectivamente); muy por debajo de Dinamarca (en el puesto 22 con índice 1,18) y de Alemania (puesto número 4 con índice 2,02). Japón (#1 en el ranking), Corea del Sur (#3), Singapur (#5), China (#19), Tailandia (#25) y Malasia (#28), están delante. Estos últimos países tienen una renta inferior a la española, pero su cesta de exportaciones se ha diversificado mucho en las últimas décadas y también se ha hecho más única, de forma que, cuando los dos indicadores se combinan, el resultado es que estos países han pasado a España. Esto no quiere decir ni mucho menos que la complejidad de la cesta de exportaciones española haya caído. Simplemente quiere decir que mientras España andaba, estos otros corrían. No quiero ahondar en detalles técnicos sobre la construcción de los índices de complejidad. Sólo comento que el nivel de agregación de los productos influye en el resultado. A nivel de 1240 productos, no hay diferenciación, por ejemplo, entre distintos tipos de automóviles, de forma que uno de muy baja calidad y de pequeña cilindrada y un Ferrari, son el mismo producto. Dicho esto, el sesgo que esto pueda introducir en el análisis no invalida el ejercicio, pues les ocurre a todos países; y lo cierto es que el ranking deja muy claro que Alemania está muy por encima de España.

Taxistas, barberos, y camareros (actividades no transables) ganan más en Múnich que en Madrid no porque sean más productivos, sino porque el número de trabajadores alemanes que se dedica a producir productos complejos en sectores transables (manufacturas y algunos servicios avanzados, que se comercian internacionalmente) y que pagan salarios de 40.000 y 50.000 euros al año, es mucho mayor que el de España. Son los salarios de las actividades transables los que tiran del resto (especialmente de los de las actividades no transables), de los salarios de los barberos, de los de los camareros y de los de los taxistas.

En España, el peso del turismo barato es muy alto. Es muy difícil que estos trabajadores lleguen a percibir 50.000 euros al año. Lo que el sector ofrece no es un producto (servicio en este caso) que contenga conocimiento que justifique pagar ese salario. Nuestros olivos y viñedos tampoco dan para salarios de 50.000 euros al año. El atraso de España aquí se remonta a la Edad Media y al poder del Concejo de la Mesta, mientras nuestros vecinos del norte se daban cuenta de que había que industrializarse (Reinert 2007, aquí).

Es verdad que países como Holanda o Dinamarca también exportan productos agrícolas, representando el sector casi el 14% del total de las exportaciones en España y Dinamarca, y casi el 15% en Holanda. El tema es que el diferencial de productividad en este sector es sustancial: un 32% más en Dinamarca y un 65% más en Holanda, con grandes conocimientos de logística y financiación para comercializar y distribuir los tulipanes (datos del año 2015, base de datos EU KLEMS). El diferencial de productividad en el sector manufacturero también es enorme: un 32% más el holandés y un 84% más el danés. El diferencial con Alemania es algo menor, 18%, pero la composición importa: mientras que la maquinaria y los químicos (los dos grupos más complejos) representan respectivamente el 18,5% y 15% del total de las exportaciones alemanas, en España estos dos porcentajes son el 6,7% y 10,6%. Los diferenciales con otros sectores como transporte, información y comunicaciones, o servicios financieros, son igualmente amplios.

El problema de España se resume también en el reciente análisis de Balland et al. (2019, Figura 2). Utilizando patentes a nivel regional para toda Europa como indicador de la capacidad de una región para desarrollar nuevas tecnologías, se ve que las comunidades autónomas españolas salen muy mal paradas comparadas con las regiones del norte de Italia, zonas de Alemania o Austria, reflejando tener muy poca capacidad para saltar a nuevas tecnologías.

Hace años, en medio de la crisis se comenzó a hablar del modelo danés. Dinamarca, como la mayor parte de nuestros vecinos del norte, es un país con una cesta de productos y servicios bastante más compleja que la nuestra. Esto es lo que les da salarios del doble de los que perciben los trabajadores españoles. Los lectores habrán visto alguna vez los barcos de Maersk, compañía danesa líder mundial en transporte y logística, ambos servicios muy complejos. El transporte representa el 21% de las exportaciones danesas (4,05% de las españolas).

¿A qué tipo recomendaciones de política económica lleva este análisis? En ello me centro en la entrada próxima.



jueves, 24 de octubre de 2019

El régimen de monopolio en las oficinas de farmacia en España: ¿para cuándo su abolición?

Por Mateo Silos Ribas y Juan Luis Jiménez

Desde al menos la segunda mitad del siglo XIX, y particularmente desde los años cuarenta del siglo XX, la normativa que regula el sector de la venta minorista de medicamentos en oficinas de farmacia en España incorpora múltiples restricciones a la competencia, que configuran un régimen de monopolio contrario al interés general.

Aunque Nada es Gratis ya ha analizado este tema en otras ocasiones (véase, por ejemplo Llobet en 2013, o Maudes, Sobrino y Romero en 2016), en este post profundizamos en los efectos negativos de estas restricciones, su ausencia de justificación y los beneficios de su eliminación. Por esto último, abogamos por un régimen más favorable a la competencia en la dispensa minorista de medicamentos, que aumente el bienestar social y permita aprovechar todas las ventajas que brinda el progreso tecnológico.

¿Cuáles son las principales restricciones normativas a la competencia en el sector de oficinas de farmacia en España?

1. Restricciones de entrada. Destacan los límites cuantitativos al establecimiento de farmacias y las distancias mínimas (por ejemplo, aquí o aquí). En la mayor parte de las Comunidades Autónomas, el número máximo de farmacias que pueden existir en una zona de salud está determinado por módulos poblacionales (2.800 habitantes es el tramo inicial, en la mayoría de los casos). También se establecen distancias mínimas entre farmacias, de unos 250 metros generalmente.

2. Restricciones de ejercicio. Entre otras (por ejemplo, aquí o aquí): solo los egresados en farmacia, y además colegiados, pueden ser propietarios de una farmacia; solo estas pueden distribuir medicamentos (por ejemplo, en España es ilegal vender ibuprofeno en un supermercado o en una droguería, algo normal en Reino Unido o Estados Unidos). La distribución online de medicamentos sin receta también está reservada a las farmacias – la distribución online de medicamentos con receta está prohibida en España. Adicionalmente, la normativa prohíbe la integración vertical y horizontal de farmacias. La competencia en precios está prohibida de forma general, puesto que los precios mayoristas de los medicamentos están regulados y los márgenes de distribución minorista están fijados por la normativa. Solo en el caso de los medicamentos sin receta y no financiados por el Sistema Nacional de Salud (cuyo precio es libre) se podría llegar a competir en precio, aunque el descuento máximo legal es del 10%. Por último, existen restricciones en materia de horarios de apertura y publicidad.

¿Cuáles son los principales efectos negativos de estas restricciones sobre el bienestar?

Las restricciones producen una escasez artificial de farmacias, en particular a través de los límites cuantitativos, cuyos efectos se han estudiado en varios países. Schaumans y Verboven (2008) estiman que las restricciones de entrada en la distribución minorista de medicamentos reducían en más de un 50% el número de farmacias en Bélgica. Para España, Borrell y Fernández-Villadangos (2009) evaluaron que las regulaciones de entrada reducían en un 71% y un 36% el número de farmacias en Andalucía y País Vasco, respectivamente.

Estas restricciones aumentan el coste de acceder a los medicamentos, por varios motivos:

i)                Al impedir la integración vertical y horizontal de farmacias (a través de cadenas, por ejemplo) o la distribución de medicamentos en establecimientos distintos a las farmacias (como supermercados, entre otros) y de forma online, se reduce la competencia y se dificulta la generación de eficiencias y el aumento de la productividad, lo que se traduce en mayores costes de distribución y mayores precios;

ii)               La regulación impide que las farmacias puedan competir en márgenes y, de este modo, competir en los precios finales de los medicamentos. De acuerdo con una estimación de la OCDE para medicamentos over-the-counter (OTC, medicamentos que pueden adquirirse sin receta, como por ejemplo el Paracetamol) en un panel de 25 países de la Unión Europea, la fijación de los márgenes mayorista y minorista en la normativa elevaba el precio minorista de estos medicamentos en un 22%

iii)             Al crear escasez de farmacias, fuerzan a las personas que necesitan medicamentos a emplear más tiempo y recursos en desplazarse para adquirirlos, incrementando así el coste de acceder a los medicamentos.

Añadido a esto último, la menor presión competitiva reduce la calidad y el rango de elección de los consumidores. Piénsese en cómo restringir la distribución online de medicamentos dificulta el acceso a estos por parte de personas con movilidad reducida, obligándoles a desplazarse a una farmacia; o el propio concepto de la farmacia de guardia, restricción horaria que se configura mediante un acuerdo entre operadores económicos cuya finalidad es restringir la competencia en una variable no precio, los horarios. Eso sí, es un acuerdo colusorio que goza de amparo normativo.

Todo lo anterior genera una redistribución de renta de los consumidores (necesitados, por tener que adquirir medicamentos), y en definitiva de los contribuyentes, hacia los propietarios de farmacias, que operan en régimen de monopolio protegidos por privilegios normativos. Teniendo en cuenta que quienes consumen medicamentos han tenido mala suerte en la lotería natural, el efecto redistributivo del monopolio en este caso es aún más perverso.

¿Se encuentran estas restricciones justificadas desde la óptica del interés público?

Una restricción normativa a la competencia estaría justificada cuando (i) es necesaria para corregir un fallo de mercado o alcanzar un objetivo de interés público y (ii) es además la medida más proporcionada, en términos de minimización de la distorsión competitiva, para alcanzar tal objetivo.

¿Es este el caso de las restricciones comentadas? La respuesta es, claramente, no.

Los poderes públicos argumentan que han establecido estas restricciones por varios motivos de interés público. En primer lugar, para asegurar la accesibilidad a los medicamentos y fomentar un servicio de calidad. No obstante, observamos cómo estas restricciones reducen la disponibilidad de establecimientos que dispensan medicamentos y aumentan su coste, por lo que afectan negativamente a su accesibilidad. A su vez, al limitar la competencia, repercuten negativamente en la calidad, la innovación o el rango de elección de los consumidores. Por lo tanto, estas restricciones tienen un efecto contrario a los objetivos que supuestamente persiguen.

En segundo lugar, los poderes públicos argumentan que la reserva de actividad de las farmacias o las restricciones a la distribución online, entre otras, están justificadas para proteger la salud pública. No obstante, existirían otras medidas menos restrictivas para asegurar dicho objetivo, como el requisito de que un técnico competente dispense los medicamentos o requisitos relativos al almacenamiento y conservación de los medicamentos.

Finalmente, conviene señalar que muchas de las restricciones comentadas en este post no existen en varios países de nuestro entorno (OCDE, 2014). La restricción de propiedad reservada a los farmacéuticos solo existe en siete países europeos. Dieciséis países europeos permiten la venta de medicamentos OTC en establecimientos distintos a las farmacias y en veintiuno no se regula el margen minorista en la dispensa de este tipo de medicamentos. Trece países europeos no establecen restricciones de localización de las farmacias o límites cuantitativos basados en módulos poblacionales.

Eliminando las restricciones, toda la sociedad mejoraría (excepto los propietarios de farmacia actuales)

La evidencia disponible pone de relieve cómo la eliminación de estas restricciones beneficiaría a la sociedad. Por ejemplo, cuando los límites cuantitativos geográficos se flexibilizan o eliminan el número de farmacias aumenta considerablemente. En el año 2000, Navarra eliminó el límite cuantitativo máximo y redujo la distancia mínima entre farmacias. Cinco años después de esta reforma, el número de farmacias en Navarra aumentó aproximadamente un 80% (CNMC, 2015). Navarra es, de lejos, la región española con más farmacias por habitante (9,3).

La flexibilización de las restricciones de entrada en otros países, como el Reino Unido, también ha favorecido una reducción de la escasez (OFT, 2010), con un aumento considerable del número de farmacias, una reducción de la distancia de la población a una farmacia, mayor accesibilidad en materia de horarios comerciales y una reducción en el precio de los medicamentos OTC.

Otro caso interesante son los beneficios derivados de eliminar la reserva de actividad y permitir la competencia en precios. Por ejemplo, en Portugal se permitió la entrada de establecimientos distintos a las farmacias en la distribución de medicamentos OTC y se eliminaron las restricciones a la competencia en precios en este segmento. Los supermercados ofrecían estos productos a un precio un 20% inferior a las farmacias. Las farmacias afectadas por una mayor competencia por parte de los supermercados redujeron los precios entre un 4% y un 5% (Moura y Barros, 2019).

En Italia se adoptaron reformas similares con la Ley Bersani de 2006 y nuevos entrantes (hipermercados y, sobre todo, pequeñas parafarmacias) ofrecían medicamentos OTC con descuentos del 22% y el 16% en términos medios respectivamente (OCDE, 2009), mucho mayores que el descuento medio en farmacias (8%) observado tras la reforma.

Si los perjuicios son tan evidentes, ¿por qué las administraciones públicas mantienen estas restricciones desde hace décadas?

La respuesta solo podemos encontrarla en la lógica de la captura regulatoria (Stigler, 1971; Peltzman, 1976), que fructifica y prospera en contextos donde los beneficios de restringir la competencia se concentran en unos pocos y los costes de restringirla se distribuyen entre todos los ciudadanos. Aquellos a quienes las restricciones benefician, se organizan y se esfuerzan por capturar a las administraciones públicas para que mantengan o introduzcan restricciones, aunque no exista ningún interés público que las justifique.

Los ejemplos de captura, connivencia y actuación coordinada entre “regulador” y “regulado” en este ámbito son numerosos. Por citar uno, el mismo día en el que se publicó el estudio de la CNMC que recomendaba la eliminación de restricciones a la competencia en este sector, el Ministerio de Sanidad publicó una nota de prensa oponiéndose frontalmente a todas las recomendaciones y defendiendo el régimen de monopolio vigente. Esto lo hizo de forma simultánea y alineada con el Consejo General de Colegios Oficiales de Farmacéuticos. Nótese el parecido entre ambos comunicados.

A modo de conclusión

La distribución de medicamentos en oficinas de farmacia en España es un sector en el que podría tener lugar una competencia intensa en variables precio y, lo que aún puede ser más relevante, no-precio (accesibilidad, horarios, localización, o innovación, entre otras), con efectos muy beneficiosos para el conjunto de la sociedad.

Por desgracia, los poderes públicos en España insisten desde hace décadas en mantenerlo en un régimen de monopolio que es contrario al interés público, anteponiendo el beneficio de unos pocos a la pérdida injustificada, ineficiente e injusta de muchos.

Dichos poderes públicos tienen en su mano aumentar el bienestar social. ¿Cómo? Aboliendo este régimen de monopolio y apostando por uno más favorable a la competencia, con mayor libertad de entrada y capacidad de competir, verdaderamente alineado con el interés general de los ciudadanos. Esperemos que esta reforma llegue cuanto antes.



miércoles, 23 de octubre de 2019

¡Pasajeros al Tren!

La fecha es el 14 de diciembre de 2020. Este es el día en que el mercado del transporte pasajeros en ferrocarril debería quedar liberalizado, de acuerdo con el Cuarto Paquete Ferroviario aprobado por la Unión Europea. Por este motivo, en el mes de julio la CNMC publicó un extenso informe en el que analizaba los retos a los que se enfrenta España si quiere que esta liberalización tenga éxito. En esta entrada voy a centrarme, utilizando el análisis de ese informe, en algunos de las principales dificultades de este proceso y discutir cómo determinan la manera en que se puede abordar esta liberalización.

Es importante empezar aclarando que cuando hablamos de transporte de pasajeros de ferrocarril, en realidad nos referimos a una parte muy pequeña de este mercado. La liberalización solo afectará a los trenes de alta velocidad y de larga distancia. En particular, se excluyen todos aquellos trenes para los que rijan Obligaciones de Servicio Público y que corresponden, esencialmente, a los servicios de cercanías y media distancia, que constituyen más del 90% de los trayectos.

Leyendo el informe, lo primero que llama la atención es que la mayor parte de los obstáculos son comunes a los que enfrenta el transporte de mercancías en ferrocarril y que ya discutí en una entrada anterior. La dificultad a la hora de tener acceso a trenes, maquinistas y servicios de mantenimiento es algo que ha limitado la expansión de los “privados” en ese mercado debido a una regulación que se ha demostrado más que ineficaz para garantizar la competencia entre Renfe Mercancías y los operadores alternativos.

El riesgo es, por tanto, que en el caso del transporte de pasajeros suceda algo parecido. En cuanto a los trenes, la coexistencia de la vía de ancho ibérico con el ancho estándar y los distintos sistemas de señalización tanto entre tipos de vía como en relación con los otros países europeos dificultará la entrada. Los operadores no tendrán acceso al mercado internacional de trenes que existe para otros países y, por este motivo, sin una regulación específica, los nuevos operadores deberán adquirir los suyos propios, con el correspondiente coste económico (de 20 a 30 millones por unidad), tiempos de entrega de 3 años y con el consiguiente riesgo para la empresa. En el caso del mantenimiento, la falta de una infraestructura de entidad significativa de talleres alternativa a la de Renfe pone a los operadores en manos de su competidor.

Ambos obstáculos han demostrado ser determinantes en el caso del ferrocarril de mercancías haciendo, junto a las prácticas anticompetitivas de Renfe mercancías, difícil que otros operadores hayan podido competir en igualdad de condiciones. En el caso de los maquinistas, las medidas que recientemente impuso la CNMC precisamente para reducir los obstáculos en este mercado deberían mitigar los problemas también en el caso del transporte de pasajeros.

Un aspecto específico de este caso son las líneas que Renfe sirve como parte de sus Obligaciones de Servicio Público. Como el informe explica, la normativa europea obliga a que estos servicios estén abiertos a la competencia en 2023, pero el gobierno recientemente los otorgó a Renfe hasta 2027 con la posibilidad de prórroga. La complementariedad de estos servicio con los de larga distancia junto con una remuneración generosa que la empresa pudiera recibir del gobierno podría ser un factor que falseara la competencia.

El segundo problema común con el caso del ferrocarril de mercancías es la relación con ADIF y, en particular, la fijación del canon por uso de la infraestructura y la adjudicación de los surcos (el derecho a poder utilizar un tramo de la red en un momento determinado del tiempo). Por un lado, el canon se considera una tasa y, cómo tal, es fijada por el Consejo de Ministros. Aún más sorprendente es el hecho que en el caso de la alta velocidad, el canon tenga dos componentes: Uno es homogéneo para cada tipo de infraestructura (p.e. vías de alta velocidad) y tiene que ver con el pago del coste de mantenimiento. El otro es un recargo es específico de cada ruta, destinado a recuperar parte del coste de construcción (como hemos explicado muchas veces, por ejemplo, aquí, es improbable que se recupere todo el coste de la inversión en la mayor parte de la red). Este último se fija comprobando el margen de Renfe Operadora para esa ruta y viendo qué importe es capaz de soportar. Este sistema, contrario a todo lo que conocemos sobre cómo regular un mercado, será aún más absurdo cuando una ruta esté sujeta a competencia (porque eso reducirá los márgenes). Lo deseable sería que el canon lo fijara un regulador independiente y que, como sucede en el caso francés (ver Crozet (2013)), se utilizaran criterios económicos (precios de Ramsey). Ambas cosas contribuirían a otorgar transparencia y estabilidad a la regulación.

Otro aspecto que enfatiza el informe es la necesidad de que ADIF sea imparcial en relación a todos los operadores, evitando que el operador establecido acapare los mejores surcos. El establecimiento de acuerdos marco con los nuevos operadores a largo plazo que reduzcan su incertidumbre es también esencial.

Liberalización ¿Qué liberalización?

Existen muchas maneras de liberalizar un mercado y cada una da lugar a diferentes niveles de competencia. En este sentido, los retos que hemos discutido sugieren que sin cambios estructurales la liberalización es improbable que atraiga a un número razonable de competidores. Para ello sería necesario hacer cambios institucionales y de regulación del mercado. En cuanto a los primeros, es imprescindible delegar toda la regulación a un organismo independiente. Ya hablamos en su momento de que habría sido deseable tener un regulador independiente del transporte (que incluyera competencias en los otros medios de transporte regulados). Si, como parece, esto no sucederá, al menos necesitamos que la CNMC tenga todas las atribuciones necesarias para velar por la competencia en igualdad de condiciones entre todas las empresas. Este regulador debería poder fijar el canon a partir de criterios económicos.

El segundo aspecto tiene que ver con la estructura del mercado después de la liberalización y, en este caso, las recomendaciones son bastante conocidas. Primero, sería necesario establecer una empresa de alquiler de material (las famosas ROSCO) y nutrirla inicialmente de trenes procedente de Renfe Operadora. Esto es problemático a corto plazo porque obligaría a esta empresa a reducir sus servicios en algunas rutas. Segundo, facilitar que las empresas de mantenimiento se establezcan en instalaciones de ADIF. Tercero, abrir a la competencia los servicios regulados en 2027.

Una reforma de este estilo no parece realista en el contexto español, lo que responde a la pregunta de a qué tipo de liberalización podemos aspirar. La falta de estabilidad sobre qué canon se va a pagar en el futuro y la necesidad de llevar a cabo una gran inversión en material rodante y mantenimiento hará difícil que más de un par de competidores se atrevan a entrar. Esto no es necesariamente malo. La experiencia italiana sugiere que un segundo competidor donde opera puede conllevar un incremento significativo de la competencia. Pero en todo caso, observaremos entradas en unas pocas rutas y difícilmente tendremos el tipo de innovaciones en términos de servicios y tarificación que surgirían en entornos con más empresas.



martes, 22 de octubre de 2019

El impacto de Airbnb en el mercado de vivienda de Barcelona

Por Mariona Segú y Rodrigo Martínez-Mazza

La irrupción de Airbnb en la escena turística ha despertado una gran polémica en la opinión pública y a nivel político. Los defensores del “home-sharing” argumentan que este tipo de plataformas permiten a los residentes disfrutar de una renta adicional y que además facilita la descentralización del turismo a nuevas zonas de la ciudad. Por otro lado, sus detractores argumentan que plataformas como Airbnb disminuyen la oferta de vivienda de largo plazo, encareciendo tanto el precio de compra como el de alquiler. A esta razón se le suma, argumentan, el hecho de que su presencia provoca externalidades negativas debido a las diferentes actividades y horarios que mantienen vecinos y turistas. Ha sido esta preocupación y revuelo causado por la actividad de estas plataformas lo que ha llevado a varios gobiernos locales en ciudades como Ámsterdam, Paris, Nueva York, San Francisco, y Barcelona, a implementar medidas para tratar de contener o mitigar la actividad de estas plataformas. Un reflejo de ésta atención es que en este blog se ha hablado del tema aquí y aquí. Con respecto a esta última entrada, que se trata sobre Airbnb en Madrid, cabe destacar que, mientras dicho trabajo es un análisis cross-section utilizando datos en un único punto en el tiempo, la investigación que presentamos en este post es para el período que va desde 2007 a 2017 en Barcelona. De cualquier manera, volveremos sobre este punto más adelante.

Es interesante analizar esta cuestión desde un punto de vista del bienestar total para poder identificar quienes ganan y quienes pierden con la llegada del home-sharing. Los beneficios se concentran en los propietarios de pisos de alquiler, ya que, por un lado, ven los alquileres subir y por el otro, ahora cuentan con otra posible fuente de ingresos, que consiste en ofertar el piso a través de una de estas plataformas. Sin embargo, los costes recaen en aquellos que viven de alquiler, los cuales tienen que enfrentarse a alquileres más elevados y además tienen que soportar las externalidades negativas asociadas a este tipo de turismo.

Conocer hasta qué punto Airbnb puede afectar al mercado de la vivienda es esencial para esclarecer el debate y para contribuir al buen diseño de las políticas locales. Existen varios estudios científicos que han estudiado esta cuestión en Estados Unidos. Barron et al. (2019) analizan el impacto en las 100 áreas metropolitanas más grandes de los Estados Unidos. Mediante una estrategia de variables instrumentales, encuentran que un aumento del 1% de la actividad de Airbnb, aumenta los precios de alquiler en un 0,018% i los de compra en un 0.026%. En Koster et al. (2018), se evalúa el impacto de prohibir Airbnb en algunos contados de Los Ángeles. Este contexto les permite utilizar una técnica econométrica que consiste en comparar zonas muy próximas separadas solamente por una frontera administrativa para evaluar el efecto de la prohibición. Los autores encuentran que la prohibición redujo la actividad Airbnb en un 50% (lo que demuestra la efectividad de las políticas locales) y que, en consecuencia, los precios de alquiler cayeron un 3%.

En nuestro estudio "Do short-term rental platforms affect housing markets? Evidence from airbnb in Barcelona”, realizado juntamente con Jordi Jofre-Monseny, y Miquel-Àngel Garcia-López, estudiamos el caso de Barcelona para identificar de manera causal, el impacto que Airbnb ha tenido en los precios de venta y en los alquileres. En este estudio combinamos datos sobre Airbnb, obtenidos a través de una página web de libre acceso llamada InsideAirbnb, junto con datos de Idealista sobre el mercado inmobiliario y datos de la Administración Tributaria Catalana derivados del ITP, que contienen información precisa sobre las características de los viviendas ofertadas y vendidas. El periodo de análisis es a grandes rasgos, desde 2009 a 2017. El uso de una dimensión temporal extensa que incluya un periodo sin actividad Airbnb es esencial para poder determinar un efecto causal.

Nuestra estrategia empírica se basa en un modelo de efectos fijos, en donde nuestra variable dependiente será el precio de compra, precio ofertado o de alquiler [1] a nivel de Área Estadística Básica (AEB) en un determinado año [2]. Nuestra principal variable explicativa será la actividad de Airbnb medida como la cantidad de anuncios de activos en un determinado AEB en dicho año. En nuestras especificaciones incluimos efectos fijos a nivel año y efectos fijos geográficos, que capturan que capturan las características de cada zona que no cambian con el tiempo.

El inconveniente principal para poder identificar un efecto causal es que podría ser que los barrios donde Airbnb se desarrolló con más intensidad estuviesen experimentando cambios sociodemográficos (gentrificación) ajenos a Airbnb que también impactan al mercado de la vivienda. Por ejemplo, los barrios del centro de Barcelona vivieron procesos de regeneración urbana a la vez que la llegada de Airbnb. Para resolver este problema, usamos distintas estrategias: en primer lugar, incluimos como variables de control variables demográficas con variación temporal que capturan parte de estos cambios (edad, densidad, ocupación media de los hogares, tasa de paro, renda relativa y porcentaje de extranjeros). En segundo lugar, incluimos como variables de control tendencias especificas en función de las variables demográficas en 2012 permitiendo a barrios con distintas características tener una evolución de precios y alquileres distinta. En tercer lugar, controlamos por tendencias específicas para cada AEB, lo que permite a cada AEB seguir su evolución específica y capturar solo desviaciones de su propia tendencia. Finalmente, estimamos la misma ecuación con una variable dependiente a la cual le hemos quitado la tendencia.

El uso de todas estas técnicas econométricas nos permite identificar un impacto casual de la actividad Airbnb que implica, en media, un aumento en los alquileres de un 1,9% y de los precios de compra venta y anunciados de 5,2% y 3,7%, respectivamente. Este impacto es equivalente al 4%, 20% y 28% del incremento en alquileres, precios de venta y precios anunciados, respectivamente, que experimentó la ciudad de Barcelona durante el periodo 2012-2016.

Como mencionamos anteriormente, en la semana pasada se publicó en este blog una investigación que exploraba el caso de Madrid usando datos de abril de 2018 provenientes de varios portales inmobiliarios. Una diferencia importante entre el estudio sobre Madrid y el nuestro es que, al igual que en el caso de EEUU, nuestra investigación se basa en un modelo de econometría lineal (y no de econometría espacial) ya que nuestro objetivo principal es hacer un análisis causal robusto. En efecto, las hipótesis necesarias para aplicar técnicas de econometría espacial son tan restrictivas respecto a la forma funcional que solo consiguen, en el mejor de los casos, una débil identificación causal (ver Gibbons and Overman, 2012). En nuestro estudio, la correlación espacial puede suponer un problema para la estimación de los errores estándar, sin embargo, nuestros resultados son muy parecidos cuando usamos un nivel de clúster mayor (a nivel barrio), lo que permite que las AEBs (el nivel geográfico con el que trabajamos) estén correlacionadas con otras AEBs cercanas.

Aunque Airbnb se encuentra, actualmente, presente a lo largo de toda la ciudad, su actividad se concentra fuertemente en determinadas zonas. La mayoría de los anuncios se encuentran en el centro de la ciudad, en particular en los alrededores de Ciutat Vella, en aquellas zonas más afectadas, la media de anuncios activos en 2016 era de 200, mientras que el promedio general era de 54 anuncios. Nuestras estimaciones implican que, en las zonas con mayor actividad de Airbnb, el aumento medio causado por Airbnb en precios de alquiler, compra (ITP) y precios de compra anunciados fue de 7%, 20% y 14% respectivamente.

Otro aspecto importante que destacar es que la distribución de anuncios se asemeja fuertemente a la distribución de los alojamientos turísticos tradicionales, por lo que no parece que Airbnb, en este caso, esté descentralizando la actividad turística. Finalmente, es interesante analizar hasta qué punto Airbnb es una plataforma de home-sharing genuino o si se trata de una actividad comercial. Si definimos un anuncio comercial como aquellos que pertenecen a un propietario con más de un anuncio en la plataforma (tanto en pisos enteros como habitaciones) sumados a los anuncios de pisos enteros con al menos 5 reseñas por trimestre, observamos que más de un 75% de los anuncios de Airbnb en Barcelona caen dentro de esta categoría. Lo que nos permite concluir que más de ¾ de la actividad Airbnb es comercial.

En definitiva, el estudio nos ha permitido extraer varias conclusiones. En primer lugar, que la actividad de Airbnb en Barcelona es principalmente comercial, y que se encuentra concentrada especialmente en ciertas zonas de la ciudad. En segundo lugar, los resultados apuntan a que Airbnb ha causado un aumento de los precios de compraventa y de alquileres en la ciudad de Barcelona, pero Airbnb no parece ser el principal actor detrás del aumento de precios de alquiler que la ciudad ha experimentado en los últimos años. A pesar de esto, el impacto de Airbnb en los precios y alquileres en determinadas zonas de la ciudad ha sido considerable.

Referencias

Barron, K., E. Kung, and D. Proserpio (2018): “The Effect of Home-Sharing on House Prices and Rents: Evidence from Airbnb,” SSRN Electronic Journal.

Gibbons, Stephen, and Henry G. Overman. "Mostly pointless spatial econometrics?" Journal of Regional Science 52.2 (2012): 172-191.

Koster, H., J. van Ommeren, and N. Volkhausen (2018): “Short-term rentals and the housing market: Quasi-experimental evidence from Airbnb in Los Angeles,” CEPR Discussion Paper 13094.

Notas

[1] Nuestra variable de interés es en realidad la media del residuo para cada AEB-año que resulta de regresar el log de los precios/alquileres respecto a las características individuales de las viviendas y efectos fijos año. Esto permite controlar por cambios en los precios/alquileres asociados a cambios en las características de las viviendas vendidas/alquiladas.
[2] En el caso de los precios de compra trabajamos a nivel de AEB/trimestre debido a una mayor disponibilidad de datos.



Atentos a esta fake news económica del diario El Mundo

Atentos a esta fake news económica del diario El Mundo. “Varapalo de Bruselas al Gobierno: el gasto de 2020 multiplica por cuatro el máximo recomendado”. El titular de la noticia es contundente. El gasto de 2020 multiplica por cuatro el máximo recomendado. El apocalipsis. La ruina económica del país. Vayamos a los datos técnicos. El gasto presupuestario de España recomendado es de aproximadamente 500.000 millones de euros. Por lo tanto un gasto que multiplica por cuatro esa recomendación es 2.000.000 millones de euros. Pero lo que está sucediendo en realidad es totalmente diferente. Al realizar una lectura detenida se descubre que el gasto propuesto por el Gobierno para 2020 supone un incremento del 3,8%, cuatro veces por encima del incremento recomendado, que es 0,9%. Este matiz supone una realidad económica totalmente diferente a la que se indica en el titular de la noticia, pues implica que el gobierno proyecta para 2020 un gasto de 519.000 millones de euros, por encima del gasto recomendado por Bruselas, que es 504.500. Veamos la diferencia en términos gráficos. Podéis entreteneros en comprobar qué efectos producen las fake news leyendo los comentarios destacados en la noticia del diario El Mundo.

La entrada Atentos a esta fake news económica del diario El Mundo aparece primero en El Captor - Economía y Opinión.



lunes, 21 de octubre de 2019

Repensar la Pobreza: Reflexiones más pausadas sobre el Premio Nobel de Economía 2019 a Abhijit Banerjee, Esther Duflo y Michael Kremer

De Mónica Martínez-BravoPedro Rey Biel  (@pedroreybiel)

Como ya anunciamos en esta entrada express, el conocido como Premio Nobel de Economía (todos los años alguien nos recuerda que Alfred P. Nobel no estableció un premio para nuestra disciplina) ha sido otorgado a Abhijit  Banerjee (MIT), Esther Duflo (MIT) y Michael Kremer (Harvard) por "su enfoque experimental para aliviar la pobreza mundial". Estos tres economistas han revolucionado la forma en la que se estudia cómo se puede estimular el desarrollo económico en países pobres, priorizando intervenciones testadas en experimentos aleatorios y basadas en el conocimiento sobre el terreno de las razones reales que determinan por qué las personas pobres a menudo toman decisiones subóptimas. Este enfoque en a la lucha contra la pobreza supuso un cambio radical frente a lo que venía siendo la práctica habitual en el campo del desarrollo y en las recomendaciones de política pública de los organismos internacionales. Estas recomendaciones surgían de análisis más macro y se basaba en aquellos programas que “deberían” funcionar en teoría pero para los que la relación causa-efecto de su efectividad no estaba necesariamente establecida empíricamente. Como explicó Duflo en su ilustrativa TED talk, no sabíamos si los ingentes recursos destinados a la ayuda al desarrollo eran efectivos o no. Si los resultados observados con posterioridad a la implementación de un programa eran buenos, no sabíamos si esto se debía al programa en si. Quizás los resultados eran buenos por casualidad y hubiesen sido incluso mejores si el programa nunca se hubiese implementado.

Hasta finales de la década de los 90, los economistas que querían evaluar el impacto causal de las políticas públicas sólo podían aspirar a encontrar una fuente de variación exógena ya presente en la implementación del programa. Los llamados “experimentos naturales” utilizaban discontinuidades o factores externos que pudiesen haber ocurrido en las regiones donde el programa se implementó o a los individuos que fueran elegibles. Sin embargo, los premiados comenzaron a preguntarse el por qué deberían limitarse a intentar encontrar estos shocks exógenos y no podían asignar una política pública a un grupo de tratamiento seleccionado aleatoriamente y comparar los resultados de un grupo de control.

Mediante estos experimentos aleatorios aplicados a las políticas públicas, los premiados han conseguido aportar evidencias científicas rigurosas sobre el impacto de diversas intervenciones destinadas a la lucha contra la pobreza. Se han evaluado el efecto de los microcréditos, de sistemas de incentivos para la vacunación infantil, de programas de fomento del uso de fertilizantes en la agricultura o de incentivos para el uso de mosquiteras para prevenir malaria, entre muchos otros. Una de las enseñanzas principales de estas intervenciones es que el proveer de recursos a los pobres no es necesariamente la forma más efectiva de sacarles de la pobreza. Por ejemplo, en el ámbito educativo han observado que el proveer a los alumnos de libros gratuitos o el asegurarles la comida en el centro educativo contribuye menos a disminuir el absentismo escolar que, por ejemplo, adecuar el contenido de los programas educativos a las necesidades reales de los alumnos o prescribirles un fármaco coste-efectivo contra aquellos parásitos intestinales que evitan que los niños puedan ir al colegio de forma continuada. Por último, los galardonados también han comprobado que el rediseño de los incentivos laborales de los profesores puede ayudar a reducir el enorme absentismo laboral en algunos de estos países.

La relativa importancia de los recursos y lo crucial que resulta entender los incentivos de quienes están al mando de los servicios públicos en los países en vías de desarrollo, se refleja también en las intervenciones de los premiados en el ámbito de la salud. Por ejemplo, encontraron que una de las razones de la falta de vacunación infantil en países pobres no es sólo la falta de vacunas sino la facilidad de conseguirlas. En este sentido, sus investigaciones apuntan a la clásica enseñanza de la Economía del Comportamiento sobre el valor de los “gratis”: las tasas de vacunación pasaron en uno de sus experimentos del 18 al 75% en el momento en que las vacunas dejaban de costar algo menos de un dólar y pasaban a ser completamente gratis. De forma similar, el problema no es tanto que las vacunas no estén disponibles en los centros de salud sino que cuando se acudía a vacunarse, los encargados de poner las vacunas no estaban en sus centros de trabajo. Por ello, establecieron un sistema de unidades móviles que realizaban campañas de vacunación dirigiéndose directamente a las zonas más pobladas que, combinándolo con un pequeño incentivo (un kilo de alimentos) consiguió incrementar de forma espectacular las tasas de vacunación.

Por último, no han estado exenta de polémica las investigaciones de los premiados sobre microcréditos financieros, una herramienta clásica propuesta para salir de la pobreza extrema. En varias investigaciones, los premiados encuentran que aunque los microcréditos estén ampliamente disponibles y en condiciones muy ventajosas, los individuos pueden no tomarlos por una falta de racionalidad que afecta a la capacidad emprendedora. Si bien uno de estos créditos podría permitir la inversión en fertilizantes que a medio plazo aumentaran de manera radical la productividad de las tierras cultivadas por agricultores pobres, éstos no los terminan de adoptar por tener preferencias temporales sesgadas hacia el presente: cuando uno es pobre lo que importa es el aquí y ahora, y cuesta mucho hacer un esfuerzo económico hoy, por pequeño que sea, aunque sea muy provechoso en el futuro.

Estos ejemplos ilustran la relevancia y el gran valor para la sociedad del trabajo de los galardonados. Su metodología permite dar prioridad a aquellas políticas públicas para las cuales existen evidencias científicas que funcionan y mejoran el bienestar de las personas. Esto representa un cambio de paradigma respecto a la práctica habitual en la mayoría de países que consiste en implementar aquellas políticas que los políticos “intuyen” que funcionaran mejor o que, simplemente, les darán mayores réditos políticos. Numerosos países en vías de desarrollo ha firmado acuerdos con organismos que promueven el uso de experimentos aleatorios, como el Jameel Poverty Action Lab, fundado Banerjee y Duflo, para comprometerse a diseñar sus políticas públicas en base a la evidencia empírica. Además, instituciones como el Banco Mundial y otros organismos multilaterales han empezado a requerir la realización de evaluaciones de impacto en la mayoría de sus programas de ayuda al desarrollo.

Este ha sido un premio Nobel muy celebrado, tanto por haber sido dado a economistas que se enfocan de forma práctica en obtener resultados para un problema real, como por el hecho de que los galardonados son realmente apreciados en el ámbito académico no sólo por su trabajo, sino también por su servicio a la comunidad científica, y a los investigadores jóvenes especialmente. No obstante, el premio también ha creado un estimulante debate académico. Como ya comentamos en esta entrada, se ha criticado que algunos de sus experimentos carecen de teoría económica por lo que la implementación de sus intervenciones en otros contextos puede generar resultados diferentes. A esto se le llama comúnmente falta de validez externa (lack of external validity). Esto viene acrecentado por basarse los resultados en los múltiple micro-detalles específicos de un problema concreto en un país concreto. Un segunda crítica acusa sobre la relativa falta de ética que tiene el enfoque experimental: para poder establecer causalidad, los experimentos necesitan un grupo de control. En este grupo, una intervención potencialmente beneficiosa no se implementa durante el tiempo del estudio. También es posible que el grupo de tratamiento no se beneficie, sino que se vea perjudicado por la intervención que se estudia.  Frente a la primera crítica, enarbolada por ejemplo por otro reciente premio Nobel como Angus Deaton, cabe preguntarse qué es exactamente la teoría económica y por qué no pueden ser compatibles teorías generales sobre el desarrollo económico con intuiciones, testadas posteriormente sobre el terreno y de las que se pueden establecer enseñanzas más generales. Además muchos de los estudios aleatorios de estos autores cuentan con una teoría detallada y rigurosa. Por ejemplo en el artículo sobre los incentivos a profesorado no sólo presenta un modelo de comportamiento dinámico sino que también lo estima estructuralmente y obtiene estimaciones contrafactuales. Sobre las consideraciones éticas, si bien es cierto que toda investigación experimental, como los ensayos clínicos de nuevos fármacos, sufren esta crítica, uno puede pensar también en el coste de oportunidad de no hacer estas intervenciones y en el análisis coste-beneficio a largo plazo de lo que se aprende entendiendo la relación causal de la efectividad de estos programas. Además, la participación en los grupos de tratamiento siempre es voluntaria y la asignación al grupo de control es aleatoria, por lo que, en ausencia de posibles externalidades del experimento, los “no tratados” no estarán en peor situación que la que ya estaban. Al finalizar la fase experimental, si el programa funciona, a menudo se extiende al grupo de control y los individuos se benefician de una política efectiva.  En todo caso, se trata de un debate importante y apasionante. Debate que, además, nos gustaría impulsar para impulsar de una vez la creación en España de un centro, similar a las agencias existentes en gran parte de los países desarrollados como Estados Unidos, Reino Unido o Australia, que promueva las políticas basadas en la evidencia proveniente de experimentos controlados (RCTs o “Randomized Controlled Trials”) como los que realizan los tres galardonados con el Nobel de Economía este año.

Si se han quedado con ganas de saber más, Mónica, cuyo director de tesis doctoral fue uno de los premiados (Abhijit Banerjee), será una de los ponentes, junto con Anna Sanz y Marcos Vera, de la tradicional mesa redonda anual divulgativa sobre los premios que la Asociación Española de Economía organiza en la Fundación Ramón Areces el 11 de Noviembre por la tarde.

PD: Este post es una versión “expandida” y editada del artículo publicado por Mónica en Expansión el 16/10/2019.