miércoles, 31 de octubre de 2018

La rebelión es el único camino para combatir el desajuste climático

Es difícil de creer hoy en día, pero el espíritu prevaleciente entre la élite culta fue una vez la vocación de servicio público. Como documentó el historiador Tony Judt en “Algo va mal”, la ambición más importante entre los universitarios de los años 50 y 60 era servir a su país a través del gobierno o las profesiones liberales. Su enfoque podría haber sido patricio y a menudo inflexible, pero sus intenciones fueron en su mayoría públicas y cívicas, no privadas y pecuniarias. Hoy en día, la noción de servicio público parece tan pintoresca como una oficina de correos local. Asumimos que aquellos que nos gobiernan arrasan con lo que pueden, permitiendo que bancos y corporaciones depredadoras desplumen lo público para cobrar a continuación su recompensa en forma de lucrativos cargos directivos. Como revela la encuesta del informe “Barómetro de confianza” de Edelman Corporation, la confianza hacia las instituciones se ha derrumbado en todo el mundo, y principalmente hacia los gobiernos. En cuanto a las élites económicas, a medida que emergen las consecuencias de su propia codicia y egoísmo, se limitan a buscar, como los oligarcas romanos que huyeron del colapso del imperio occidental, su supervivencia entre la muchedumbre indignada. Un ensayo del visionario autor Douglas Rushkoff publicado este verano, en el que documenta sus conversaciones con algunas de las personas más ricas del mundo, revela que sus preocupaciones más apremiantes consisten en encontrar un refugio contra la descomposición climática y el colapso económico y social. ¿Deberían irse a Nueva Zelanda o Alaska? ¿Cómo pagarán sus guardaespaldas una vez que el dinero carezca de valor? ¿Podrían “subir” sus mentes a las supercomputadoras? Survival Condo, la compañía que ha convertido los antiguos silos de misiles de Kansas en bunkers fortificados, ha vendido hasta el momento todas las unidades. La confianza, observa […]

La entrada La rebelión es el único camino para combatir el desajuste climático aparece primero en El Captor.



martes, 30 de octubre de 2018

El coste económico del déficit de calidad institucional y la corrupción en España

 

De Francisco Alcalá

Durante los mejores años del boom inmobiliario en España no fue infrecuente una cierta actitud condescendiente hacia la corrupción entre muchos ciudadanos bajo el argumento de que “yo tengo trabajo y me va bien”. Las cosas han cambiado mucho desde entonces y la corrupción es hoy día una de las mayores preocupaciones de los ciudadanos de este país. Ahora bien, más allá de la preocupación que actualmente genera la corrupción desde el punto de vista social y político, resulta conveniente poner de manifiesto sus importantes y negativas consecuencias económicas. En este contexto, el viernes pasado, la Fundación BBVA y el Ivie presentaron un estudio sobre el coste económico del déficit de calidad institucional y la corrupción en España realizado por Fernando Jiménez Sánchez y yo mismo. El estudio puede bajarse aquí y los materiales del workshop que se realizó durante toda la mañana con la participación de otros investigadores y de representantes del la judicatura, las agencias anti-fraude y la sociedad civil se encuentran aquí.

El principal objetivo del informe es mostrar que el déficit de calidad institucional, una de cuyas manifestaciones y consecuencias es la corrupción, tienen un importante coste económico que va más allá del montante de los fondos públicos apropiados indebidamente. La baja calidad institucional y la corrupción disminuyen la rentabilidad de los proyectos empresariales, incrementan su incertidumbre, reducen los niveles de inversión privada, distorsionan la inversión pública, desvían recursos humanos y financieros hacia la influencia en los órganos de decisión pública en lugar de asignarlos a actividades productivas, y orientan los esfuerzos hacia la búsqueda de privilegios desincentivando el emprendimiento y la innovación. La baja calidad institucional y la corrupción se traducen, en definitiva, en menor productividad, mayor desempleo y salarios inferiores a los que serían posibles con la tecnología y el capital humano disponible. La literatura académica sobre este tema es amplísima y en el informe pueden consultarse un amplio número de referencias al respecto.

En el informe se realiza una aproximación al coste económico del déficit de calidad institucional que sufre España y se discute una lista de  posibles actuaciones que contribuirían a mejorar la situación. En el estudio no se intenta cuantificar todas las distorsiones, ineficiencias y pérdidas de recursos que genera el déficit de calidad institucional (algo que sería de muy difícil realización), sino que se realiza una aproximación “macroeconómica”. En concreto, se hace una evaluación cuantitativa de cual es el posible déficit de calidad que presenta España y se traduce ese déficit en una pérdida de productividad y PIB. Para ello, se hace uso de las estimaciones realizadas por la literatura económica sobre el impacto causal que tiene la calidad institucional en la productividad de los países. Así pues, los ingredientes del cálculo son tres: indicadores de calidad institucional, evaluación del déficit en España, estimaciones de la relación causal entre calidad y productividad.

Con respecto al primer ingrediente, los indicadores de calidad, en el informe se utilizan los bien conocidos Worldwide Governance Indicators (WGI) del Banco Mundial. Los WGI ofrecen información sobre la gobernanza de más de 200 países, a partir de una larga lista de indicadores específicos (basados en encuestas a personas, instituciones y empresas, y en informes de analistas y expertos del sector público y privado) procedentes de más de 30 organizaciones públicas, no gubernamentales y privadas. Ejemplos de estas organizaciones son Freedom House, Gallup, Heritage Foundation, Transparency International, Economist Intelligence Unit, Foro Económico Mundial, Institute for Management & Development, Political Risk Services o Reporters Without Borders, etc.. Los WGI reúnen y agregan estos indicadores en seis indicadores sintéticos. En nuestro estudio, utilizamos como un indicador combinado que consiste en la suma de los indicadores de Voz y rendición de cuentas (democracia y libertades), Efectividad gubernamental, Calidad regulatoria, Respeto a la ley y los contratos y Control de la corrupción.

De acuerdo con este indicador combinado, la calidad de las instituciones de gobernanza española se sitúa entre el 20% de los países con un mayor nivel en el mundo (utilizando la muestra de 154 países que tienen más de medio millón de habitantes). Sin embargo, los resultados que obtiene España se sitúan por debajo de lo que le correspondería de acuerdo con el desarrollo de su economía. Escalando el indicador de 0 a 10, España obtiene un valor de 6,8 frente al 8 de la media de Alemania, Francia y Reino Unido, que constituirían modelos de economía avanzada. Desde el lado positivo, cabe apuntar que se sitúa por delante de otras economías mediterráneas  como la italiana y la griega, cuya calidad institucional promedio apenas alcanza un valor de 5,8. El país presenta su mejor desempeño en las categorías de voz y rendición de cuentas y efectividad del gobierno, mientras que las mayores debilidades aparecen en los indicadores sobre calidad regulatoria y corrupción. En la comparativa mundial, España aparece en el percentil 75 de la distribución del indicador sobre corrupción percibida. Adviértase que los países en el percentil 75 de la distribución mundial de productividades tienen una productividad por ocupado inferior en un 23% a la de la economía española.

¿Cómo evaluar el posible déficit de calidad institucional de España? Uno podría considerar que la referencia debería ser el conjunto de economías avanzadas al que nos queremos asimilar, como por ejemplo ese trío de Alemania, Francia y Reino Unido anteriormente considerado. Esta referencia es útil para fijar nuestras aspiraciones, pero sería, sin embargo, demasiado exigente para evaluar los costes actuales de nuestras limitaciones. El planteamiento que seguimos es tomar como referencia para el cálculo del déficit, el nivel de calidad institucional que correspondería a nuestro nivel de productividad (de acuerdo con los niveles de calidad y productividad que observamos en el mundo). La idea es la siguiente. La productividad de un país depende de un conjunto de factores como su capital humano, físico y empresarial, la apertura al comercio, los recursos naturales, la posición geográfica y la calidad institucional. Si todos estos factores se moviesen conjuntamente, un país con una productividad situada, por ejemplo, en el percentil 56 de la distribución mundial de productividades de los países, tendría también un nivel educativo situado en el percentil 56 de la distribución correspondiente a esta otra variable. Y lo mismo sucedería con su dotación de capital físico per cápita, su apertura comercial, su capital empresarial, etc. que también se situarían en ese mismo percentil 56. Naturalmente, los factores que determinan la productividad de un país no se mueven al unísono, de modo que cada país tiene ventajas competitivas en unos factores específicos en los que aparece en una posición relativamente destacada (situándose en un percentil de la distribución mundial de este factor por encima del percentil que ocupa en la distribución de productividades), mientras que el país adolece de posiciones relativamente desfavorables en otros factores. Los primeros factores constituyen las fortalezas de la economía en cuestión mientras que los últimos constituyen sus debilidades o déficits relativos.

En el gráfico aparecen los percentiles que ocupan los países más ricos del mundo en la distribución mundial de calidad institucional y de productividad. Los países que están por encima de la línea beige muestran un superávit relativo de calidad institucional con respecto a su nivel de desarrollo (medido este por su productividad). Los que están por debajo tienen un déficit relativo. Así, por ejemplo, el petróleo permite a Arabia Saudi (SAU), Kuwait (KWT) y Catar (QAT) disfrutar de un valor de la producción por ocupado que está entre el 5% de las mayores del mundo a pesar de presentar una calidad institucional relativamente muy baja. En el caso de  España, el indicador combinado de calidad sitúa al país en torno al percentil 81, mientras que la productividad figura notablemente más arriba, en torno al percentil 85. La calidad institucional aparece, pues, como una debilidad o un déficit relativo de la economía española (que de algún modo es compensado por la fortaleza en otros factores).

Podemos ahora evaluar el coste que tiene ese déficit de calidad institucional, estimando en cuanto aumentaría el PIB de España si fuésemos capaces de elevar la calidad institucional del país hasta el nivel que disfrutan los países situados en el percentil 85 de la distribución mundial del indicador de calidad institucional. El resultado central que obtenemos haciendo uso de las estimaciones más aceptadas por la literatura académica es que el PIB a largo plazo se podría elevar en un 16%. Esto podría significar  elevar el crecimiento medio anual de la economía española en torno a un punto porcentual a lo largo de un periodo de 15 años.

Evidentemente, tanto la mejora de la calidad institucional como sus efectos sobre el sistema económico llevarían tiempo. El impacto positivo que tendría la mejora de la calidad institucional sobre el PIB se produciría indirectamente, a través de mecanismos que aumentarían la inversión y la eficiencia en la asignación de los recursos y, con ellas, la productividad y el empleo. La mayor seguridad jurídica, la reducción de la corrupción, la eliminación de trabas administrativas, la mejor regulación, la mayor competencia, etc. incentivarían la inversión nacional y extranjera, harían más fáciles y rentables el emprendimiento y la innovación y mejorarían la asignación de recursos privados y públicos hacia las empresas más competitivas y las actividades más productivas.

Sin duda, este tipo de cálculos tiene limitaciones y está sujeto a intervalos de confianza y márgenes de error no despreciables, como se indica en el informe. Los académicos tenemos una alternativa para no correr el riesgo de equivocarnos o de que nos malinterpreten con este tipo de cálculos que pueden tener un impacto en el debate ciudadano. La alternativa es dejar que sean los tertulianos los únicos que se acerquen e informen a la opinión pública y que lo hagan sin más base que los prejuicios y la inspiración con la que se levantan cada mañana. Pero nos parece que una de las responsabilidades de los académicos es reducir la brecha entre la investigación académica y el conocimiento utilizado en el debate ciudadano.

En la última parte del informe se proporciona una lista de líneas de actuación para la mejora de la calidad institucional en España. La lista no es exhaustiva, ni original puesto que comparte muchos elementos con otros trabajos que han ido apareciendo en los últimos años sobre la necesidad de una regeneración institucional (por ejemplo, Carles Ramió, La renovación de la función pública: estrategias para frenar la corrupción política en España, Madrid: Libros de la Catarata, 2016; Javier Andrés y Rafael Domenech, En busca de la prosperidad: los retos de la sociedad española en la economía global del s. XXI, Deusto S.A. Ediciones, Bilbao, 2015; Víctor Lapuente, La corrupción en España. Un paseo por el lado oscuro de la democracia y el gobierno, Madrid: Alianza Editorial, 2016; Carlos Sebastián, España estancada. Por qué somos poco eficientes, Madrid: Galaxia Gutenberg, 2016; Manuel Villoria, José M. Gimeno y Julio Tejedor (eds.), La corrupción en España: ámbitos, causas y remedios jurídicos, Barcelona: Atelier, 2016).

Las recomendaciones se ordenan en tres grupos: (i) refuerzo de los controles y contrapesos del poder, (ii) mejora de la independencia, calidad y transparencia de la administración; y (iii) mejora de la efectividad de las elecciones como mecanismos de selección y control.  Dentro del primer grupo, entre otras líneas de actuación, se aboga por mejorar la independencia y los medios del poder judicial, por ampliar los medios para el control parlamentario del ejecutivo (creando, por ejemplo, una oficina de evaluación de las políticas públicas), por fortalecer la independencia y dotar de más medios a otros órganos como los tribunales de cuentas, la AIREF y los consejos de transparencia, y por eliminar las interferencias en los medios de comunicación.

Dentro del grupo de medidas para mejorar la independencia, calidad y transparencia de la administración se defiende la necesidad de, entre otras cuestiones, una simplificación normativa, el refuerzo de la independencia de los organismos de regulación y supervisión (como tantas veces se ha pedido desde este blog; por ejemplo, aquí) y la despolitización de los niveles superiores de las administraciones públicas y sus entes instrumentales. Y dentro del tercer grupo de recomendaciones relativas a la mejora de la efectividad de las elecciones como mecanismos de selección y control, se aboga por el desbloqueo de las listas electorales.

El reto de mejorar la calidad de las instituciones de gobernanza no es, pues, trivial. Con todo, más allá de las cifras y recomendaciones concretas, el mensaje general del estudio es lo imprescindible que resulta mejorar la calidad de la gobernanza en España para consolidar su posición como una economía avanzada y hacer posible el crecimiento de la productividad, los salarios y el empleo a largo plazo.



lunes, 29 de octubre de 2018

Mesa redonda sobre el Premio Nobel de Economía 2108: Cambio climático e innovación en el crecimiento económico

Desde 2014 la Asociación Española de Economía  (AEE) organiza, en colaboración con la Fundación Ramón Areces (FRA) un acto para divulgar las contribuciones científicas de los galardonados con el Premio Nobel de Economía de cada año. Se trata de una de las actividades con las que la AEE trata de conseguir su principal objetivo: “la promoción y difusión del conocimiento científico en Economía”.

En NeG, donde compartimos la preocupación por mejorar la difusión del conocimiento económico, nos hemos ocupado regularmente también de divulgar las contribuciones de economistas galardonadas con premios variados, entre ellos el Nobel. Y algunos de nuestros editores y colaboradores han participado en ediciones anteriores de la mesa redonda organizada por la AEE y la FRA. Anuncios y reseñas de esta actividad han aparecido oportunamente en este blog, por ejemplo, aquíaquí, y aquí.

En esta ocasión, la mesa redonda sobre William Nordhaus y Paul Romer, galardonados con el Premio Nobel de Economía 2018, tendrá lugar el próximo 7 de noviembre a las 19h en la sede de la FRA en Madrid (Calle Vitruvio, 5). La asistencia es libre pero se requiere inscripción previa (el programa, solicitud de inscripción y más detalles del evento están disponibles aquí). Moderada por David Pérez-Castrillo (UAB), vicepresidente primero de la AAE, en la mesa redonda intervendrán María Loureiro (USC), Jordi Caballé (UAB) y Angel de la Fuente (FEDEA).

Cuando se anunció el premio Diego Comin y yo mismo resumimos (aquí y aquí) las principales contribuciones de Nordahus y Romer por las que han recibido el Premio Nobel de Economía 2018. Se tratan fundamentalmente de avances sobre las viejas cuestiones económicas relativas a las causas del crecimiento económico y a cuáles pueden ser sus limitaciones. El propio título de la mesa redonda del próximo día 7 de noviembre también ofrece pistas. Por lo que respecta a las causas del crecimiento económico, son las ideas (que permiten innovaciones científicas y tecnológico) las que pueden sustentar indefinidamente el crecimiento de la productividad que permite mejoras en el bienestar social. En cuanto a los limites, cada vez es más evidente que el modelo energético y las consecuencias que tiene para el medio ambiente son los principales retos a resolver. Ambos temas requieren análisis económicos (teóricos y empíricos) bien fundamentados y tienen implicaciones prácticas y para las políticas económicas que deberían ser tenidas en cuenta con prioridad y urgencia.

Como organizador y moderador, estuve presente en las dos ediciones anteriores de estas mesas redondas divulgativas y también asistí a la de 2015. En las tres ocasiones fui testigo de que contribuciones científicas que parecen complejas se puede explicar de una manera muy accesible, amena e interactiva. (Para que no tengan que tomar mis palabras como única prueba, aquí están los vínculos a las grabaciones de las ediciones anteriores, 2014, 2015, 2016 y 2017). No tengo ninguna duda de que la mesa redonda de este año tampoco defraudará a los asistentes.



domingo, 28 de octubre de 2018

Un atlas de oportunidades

¿Hasta qué punto influye en nuestra vida como adultos el lugar donde crecimos? La respuesta a esta pregunta no es obvia y requiere un enorme esfuerzo de recolección de datos. Sin embargo, se trata sin duda de una cuestión de vital importancia, por lo menos en países como Estados Unidos, donde hay diferencias gigantes en el nivel de vida de distintos barrios y ciudades.

Hace ya tres años, Manuel Bagüés escribió una excelente entrada (ver aquí) sobre el proyecto Moving to Opportunity, una iniciativa que pretende medir las oportunidades de los jóvenes estadounidenses en función del barrio en que crecieron. Hace unos meses, yo mismo volví a hablar de este tema (ver aquí).

Recientemente, Raj Chetty, profesor de economía en Harvard, sacó a la luz el impresionante del llamado Opportunity Atlas, un mapa interactivo donde uno puede localizar cualquier barrio de Estados Unidos y ver rápidamente cual es la probabilidad de que un niño nacido allí tenga buenos prospectos económicos.

Prácticamente todos los estudios existentes sobre las características de los barrios se basan en datos de sección cruzada. Es decir, estudian las características de un barrio (nivel medio de ingresos, educación, crimen, etc.) en un año concreto. La gran innovación del Opportunity Atlas es construir datos longitudinales, es decir, conseguir medidas sobre el progreso de niños cuando se convierten en adultos. Estas medidas tratan después de explicarse en función del barrio en el que los niños crecieron.

El Opportunity Atlas ofrece un mapa completo de Estados Unidos a un nivel muy desagregado: los barrios que se estudian tienen, en media, una población de 4.250 personas. Esto supone un gran paso adelante respecto a estudios como el Moving to Opportunity, que sólo consideraba un pequeño número de barrios en cuatro ciudades estadounidenses y respecto a otros estudios (ver aquí) donde las unidades geográficas estudiadas son mucho más grandes.

El Opportunity Atlas estudia 20.5 millones de niños y niñas nacidos entre 1978 y 1983, representando prácticamente (un 96.2%) del total de niños/as nacidos en el país en esos años. Las medidas que se estudian son las tasas de encarcelación, tasas de natalidad en adolescentes, género de los individuos, y el nivel de ingresos de sus padres. Los niños/as son asignados a un barrio en función de los años que pasaron en él cuando eran pequeños.

Algunas de las conclusiones del estudio son las siguientes: en primer lugar, los resultados varían muchísimo entre barrios, incluso condicionando por el nivel de ingresos de los padres: la desviación estándar de los ingresos medios cuando son adultos entre los niños/as más pobres (esos con padres por debajo del percentil 25 de ingresos) es de 6.700 dólares, es decir, un 21% de los ingresos medios. Además, es sorprendente cómo las cosas cambian enormemente con solo desplazarse dos o tres kilómetros. Un claro ejemplo es el caso del infame barrio de Watts en Los Ángeles, donde, en media, el 44% de los hombres negros que crecieron allí están en la cárcel. Ese porcentaje es del 6.2% en el barrio de Crompton, situado a tan solo 3.7 kilómetros de Watts. En segundo lugar, los barrios no son unidimensionales, es decir que tienen diferentes efectos para distintos grupos de población y para diferentes variables. Por ejemplo, volviendo al barrio de Watts, las tasas de encarcelación de los hispanos son mucho más bajas que las de los negros- un 4.7%. Tercero, las variables-resultado (por ejemplo, los ingresos) de los niños/as difieren sustancialmente de las medidas tradicionales del nivel económico de un barrio. Por ejemplo, Atlanta es una ciudad que ofrece, hoy mismo, fantásticas oportunidades de trabajo. Sin embargo, los niños/as que crecieron en muchos barrios de esa ciudad, tienen unos resultados malísimos cuando se convierten en adultos. Esto refleja la enorme importancia de analizar los barrios usando datos longitudinales en lugar de secciones cruzadas.

En el trabajo que acompaña al Opportunity Atlas (ver aquí), Chetty y sus coautores muestran detalladamente porque los efectos de los barrios en los niños/as pueden considerarse causales. Es decir, aunque es posible que, en parte, las familias se autoseleccionen a peores barrios, son los barrios en los que los niños/as crecieron los que realmente causan los malos resultados. Para convencernos de ello se apoyan en el experimento Moving to Opportunity que ya discutimos Manuel y yo y en evidencia cuasi-experimental (ver aquí) sobre familias que de cambian de barrio, explotando la variación en el momento en el que lo hicieron. No quiero discutir aquí los detalles de este segundo estudio- simplemente decir que la clave para identificar causalidad en este último trabajo es asumir que los determinantes de los resultados de los niños/as cuando son adultos no están correlacionados con la edad en la que se trasladaron a diferentes barrios.

El Opportunity Atlas ofrece una plataforma que da pie a pensar en varias políticas públicas. La primera: ¿es posible encontrar vivienda asequible para trasladar a un número sustancial de niños/as de barrios pobres a barrios no tan pobres? La respuesta es, claramente sí: la correlación entre los ingresos medios de niños con padres por debajo del percentil 25 de ingresos y las tasas de alquiler medianas es sólo del 44%. Dicho de otra forma, existen muchos barrios con viviendas asequibles donde podrían trasladarse las familias de barrios pobres. Una crítica inmediata a esto es que, obviamente, hay un nivel máximo de familias que se pueden trasladar antes de que estas tasas de alquiler aumenten. Es decir, como reconoció Chetty en la charla a la que asistí en Nueva York hace unos días, éste es un ejercicio de equilibrio parcial puesto que no tiene en cuenta que, cuando un número suficiente de familias se desplaza a un barrio, el aumento en la demanda de vivienda causaría un aumento en los precios de la misma. Es posible pensar en subsidios del gobierno para compensar por este efecto, pero está claro que este aspecto de un programa así debe estudiarse con más detalle. Una segunda critica a este tipo de políticas es que tal vez tendría más sentido invertir en cómo mejorar los barrios pobres en vez de incentivar a las familias a abandonarlos. El problema aquí radica en identificar qué es exactamente lo que hace que un barrio sea malo. Además, no es obvio como cambiar las dinámicas de los barrios debido a que, a menudo, pequeñas intervenciones no bastan: es necesario cambiar los incentivos de un número suficiente de individuos para que el cambio surta efecto. Por último, un problema práctico con el Opportunity Atlas es que los estimadores de movilidad social que produce llegan necesariamente con retraso, puesto que uno tiene que esperar hasta que los niños/as sean adultos para ver los efectos del barrio en que nacieron. Esto no parece ser un gran problema ya que, como muestran los autores, el poder de predicción del ejercicio cae solamente un 10% cada década, así que es bastante fiable usar datos históricos sobre barrios para predecir su efecto en niños/as que viven en ellos actualmente.

En resumen, el Opportunity Atlas es un impresionante proyecto que permite llegar a la conclusión de que las características de los barrios tienen grandes efectos en los prospectos económicos a largo plazo de los niños/as que crecieron en ellos. Raj comentó en su charla que hay mucho interés en replicar esta metodología en otros países, aunque, según entiendo, ninguno se ha llevado a cabo aún. Ya comenté en su día que sería estupendo poder realizar un estudio parecido para el caso español.



La verdad sobre las economías nórdicas

El reciente informe del Consejo de Asesores Económicos de la Casa Blanca sobre los males del socialismo ha generado un gran ridículo, y con razón. Se reduce a algo así como “¿Quieres Medicare -asistencia sanitaria universal- para todos; ancianos, jóvenes…? Vale, entonces ¿qué hay de las cosas terribles que sucedieron con Mao Zedong?” Vaya caricatura. Sea como sea, uno de los temas tratados en el informe ha suscitado el interés de -incluso- los liberales: las economías nórdicas, que son vistas como modelos a seguir por los estadounidenses progresistas. El informe señala que el PIB real per cápita de estos países de la economía europea es inferior al de los EE. UU., lo que prueba el enorme coste que representan los países con estados de bienestar expansivos. Pero, ¿es correcto realizar una valoración negativa de las economías nórdicas aludiendo a esta información? Eso no está del todo claro. El dato del PIB per cápita oculta dos puntos importantes. Primero, cualquier análisis de las personas de la parte inferior de la distribución de ingresos indica que en las sociedades nórdicas su situación es mucho mejor que en Estados Unidos. Es decir, hay mucha menos pobreza en Escandinavia, y como, además, su probabilidad de caer en el escalafón de menor renta es baja, el riesgo de padecer pobreza es menor para una proporción mucho mayor de la población. Segundo, gran parte de su brecha en el PIB real representa una elección, no un coste. Los trabajadores nórdicos tienen muchas más vacaciones, mucho más tiempo para la familia y el ocio que sus homólogos de la denominada “nación sin vacaciones”, es decir, Estados Unidos. Así que he pensado que podría ser útil reunir información acerca de la situación comparativa real entre las economías nórdicas y la de los EE. UU. En primer lugar, los nórdicos han […]

La entrada La verdad sobre las economías nórdicas aparece primero en El Captor.



jueves, 25 de octubre de 2018

Ahora o nunca

En mi entrada del mes pasado hablé de como el cambio climático es más que simple calentamiento global, ya que lo que está pasando es que estamos cambiando la propia dinámica del clima. Este mes vuelvo sobre el tema a raíz, en primer lugar, de la concesión del Premio Nobel de Economía (o como se diga correctamente) a William Nordhaus, de la cual ya se hizo eco NeG aquí, pero sobre todo a raíz de la aparición del informe del Panel Internacional sobre Cambio Climático (IPCC por sus siglas en inglés) sobre Calentamiento de 1,5ºC. Aunque este informe tuvo bastante repercusión en prensa y medios (ejemplos aquí, aquí y aquí), tengo la sensación de que ha pasado sin pena ni gloria. Y no debería, porque es un informe muy serio, muy grave y que básicamente se puede reducir en las tres palabras del título del post: ¡Ahora o nunca!

El informe es muy exhaustivo y detallado, si bien contiene un resumen para los policymakers (nunca sé cómo traducir bien esta palabra al español sin decir "políticos") y un resumen en titulares. Aún resumida así la información, es mucha y aborda aspectos diversos del cambio climático, desde sus posibles (bueno, más que probables en muchos casos) impactos hasta medidas para intentar atajarlo. Así que lo que pretendo con este post es resaltar tan sólo algunos de los puntos que a mi juicio son de los más importantes del report, con el propósito de causar la mayor alarma social posible. Me saltaré cosas que ya creo más que evidentes, como el insistir en que las actividades humanas ya han causado un aumento de temperatura de 1ºC respecto a niveles preindustrial, para ir a los datos del informe realmente alarmantes. Manos a la obra:

En primer lugar, algo que parece evidente pero que el informe cuantifica, el impacto del cambio climático será menor si llegamos a aumentos de 1,5ºC que si llegamos a 2ºC como pide el acuerdo de París. Menos evidente, pero más en la línea de mi post del año pasado, es que los modelos predicen diferencias muy importantes en las características regionales del clima entre la situación de hoy y un aumento de 1,5ºC, y entre este y el de 2ºC. Estas diferencias incluyen incrementos de temperatura en la mayoría de (pero no todas) las regiones, precipitaciones extremas en varias regiones, y sequías en otras. En definitiva, un panorama muy complicado que 0,5ºC complicarán aún más.

En segundo lugar, es ahora o nunca como ya dije. El informe contiene el siguiente y revelador gráfico, que a vez si soy capaz de explicar bien:

La gráfica de arriba representa la evolución predicha del aumento de temperatura promedio global a lo largo de los años. El punto rojo y la línea vertical marcan 2017, que es el año de referencia del informe. En esa evolución se contemplan tres escenarios: el primero, líneas grises y barra gris al final, supone que las emisiones decrecen a cero en 2055 desde el nivel actual (línea gris en la gráfica b de abajo), y además se reduce la contribución de otros gases (non-CO2 radiative forcing, debido por ejemplo a metano u óxido nitroso) a partir de 2030. En este supuesto, la gráfica muestra que en 2100 es muy probable que el aumento de temperatura esté por debajo de 1,5ºC. Si en vez de llegar a cero emisiones en 2055 llegamos en 2040, ya estamos casi seguros de quedarnos por debajo de esa cota, pero si no se implementan medidas sobre el resto de gases en 2030 (gráfica d) entonces hay una gran probabilidad de que superemos el aumento de 1,5ºC. Atención, alarmado lector, insisto: todo esto suponiendo que como muy tarde en 2055 vamos a cero emisiones (con una reducción del 45% sobre el nivel actual en 2030) y a no aumentar más el CO2 acumulado en la atmósfera (gráfica c). Y ahora voy a citar textualmente el informe (la traducción es mía):

Los escenarios en los que se limita el calentamiento global a 1'5ºC con poco o nada de exceso temporal (overshoot) requerirían transiciones rápidas y de gran alcance en infraestructuras de energía, tierra y urbanas (incluyendo transporte y edificios), así como en sistemas industriales. Estas transiciones no tienen precedentes en términos de escala, pero no necesariamente en términos de velocidad, e implican reducciones de emisiones profundas en todos los sectores, un amplio abanico de opciones de mitigación y un aumento significativo de las inversiones en dichas opciones. 

O sea: que tenemos que ponernos las pilas ahora mismo, mejor dicho, ayer mismo. Como detalle adicional diré que estos escenarios suponen, además, una capacidad de eliminación de CO2, es decir, de retirar CO2 de la atmósfera, del orden de al menos 100 y quizá 1000 gigatoneladas a lo largo de este siglo. Esto es necesario para tener en cuenta que la reducción a cero nunca será cero, que hay emisiones residuales, y que si no las hay miel sobre hojuelas y pasamos a emisiones negativas. Por otro lado, el informe insiste en que evitar el overshoot, es decir, el pasarnos de 1,5ºC de aumento aunque al final en 2100 nos quedemos ahí, que es una situación peor, pasa por reducir las emisiones sustancialmente mucho antes de 2030, y no queda mucho tiempo hasta 2030.

Finalmente, hay que actuar inmediatamente, pero actuar no sólo nos va a permitir permanecer en aumentos de temperatura aceptables sino que tendrá muchos beneficios (y algunos efectos negativos). La gráfica que viene a continuación resume estos beneficios y perjuicios en el contexto de los Objetivos de Desarrollo Sostenible de la ONU:

En las filas de la gráfica aparecen las distintas metas, y para cada una de ella se indican los efectos positivos (synergies) y negativos (trade-offs) con las actuaciones en el ámbito de la oferta de energía, la demanda de energía y el uso de la tierra. Los tonos más oscuros indican que el informe predice con más alto grado de confianza ese nivel de uno o de otro. Lo que vemos en general es que los efectos positivos superarán con mucha probabilidad a los negativos, destacando el impacto positivo sobre los objetivos 3 (salud), 7 (energía limpia), 11 (ciudades y comunidades), 12 (consumo y producción responsables) y 14 (océanos). En cuanto a los posibles problemas, se concentrarán en los objetivos 1 (pobreza), 2 (hambre), 6 (agua) y 7 (acceso a la energía), lo que requerirá un cuidado especial en estos aspectos tal y como indica el informe. En concreto, será necesario incrementar las inversiones en adaptación al y mitigación del cambio climático, diseñar nuevos instrumentos y políticas, acelerar la innovación tecnológica y promover cambios de comportamiento, entre otras medidas.

Para cerrar este necesariamente muy breve resumen del informe sobre Calentamiento Global de 1'5ºC, tan solo quiero volver sobre mi deseo de crear alarma social. Cada día está más claro que ni los gobiernos ni las grandes empresas, en particular las energéticas, van a hacer nada motu proprio para luchar contra el cambio climático, y cada día está más claro que sólo una presión monumental desde la sociedad les va a obligar a hacerlo. Tenemos ya un ejemplo en los Países Bajos, donde también este mes se ha confirmado la sentencia que obliga al gobierno neerlandés a tomar medidas contra el calentamiento global, impulsada por un grupo de ciudadanos. Y como hemos visto más arriba, el primer paso es haber reducido las emisiones un 45% en 2030, o sea, pasado mañana. Así que es ¡Ahora o nunca! para el planeta pero también es ¡Ahora o nunca! para la protesta y la presión. U obligamos a quienes tienen que actuar a hacerlo ya pero ya ya ya, o lo dejamos correr y nos vamos haciendo a la idea de que las vamos a pasar canutas, y sálvese quién pueda. No queda otra.



miércoles, 24 de octubre de 2018

El crédito oficial durante las crisis

De Yolanda Blasco, Joaquim Cuevas y M. Carme Riera

Esta entrada, basada en un trabajo todavía en fase de elaboración (aquí), analiza el comportamiento del crédito público en las dos crisis económicas más importantes que ha padecido España: la de fines de la década de 1970 y principios de los 80’s, en plena transición política, y la reciente crisis financiera de 2008.

El papel que debe desempeñar la banca pública fue analizado y formalizado en la década de 1980 por Jack Revell, quien dedicó un estudio al caso español (aquí). Según este experto, además de incidir en la economía como banca de desarrollo al servicio del gobierno, la banca pública puede ser utilizada para incidir y modificar el comportamiento de la banca privada. Si la banca pública tiene un peso específico puede presionar los mercados subiendo o bajando los tipos de interés, y si su actuación tiene capacidad de ser disuasoria puede incluso disciplinar a la banca privada.

El papel del crédito público ha cobrado una relevancia especial en tiempo de crisis. La literatura ha analizado el comportamiento de la banca pública enfocándose en su grado de eficiencia y en su actuación más o menos cíclica (en relación con la banca privada) respecto de la coyuntura económica. Algunos trabajos señalan peores resultados para los bancos públicos, tanto en economías avanzadas como en economías de transición (aquí, aquí, aquí o aquí). Otros autores, sin embargo, son más cautos a la hora de comparar las ratios financieras de la banca pública y la privada e insisten en la función de promoción social de la primera (aquí).

La fragilidad del sistema bancario y el papel del crédito durante la reciente crisis financiera ha sido analizada en otras entradas de este blog (aquí y aquí). Cabe preguntarse si el papel de suavizar el ciclo económico que se supone debe cumplir el crédito oficial, realmente lo cumple. También vale la pena preguntarse sobre el impacto que su actuación puede tener en la recuperación de la economía. Nuestro trabajo analiza el crédito oficial en España, que está representado por el Instituto de Crédito Oficial, ICO (su evolución fue revisada en este blog aquí). En los inicios de la crisis de 2008, el comportamiento del ICO concitó el interés social y su capacidad para impulsar la economía ha sido puesta en cuestión y defendida en numerosas ocasiones (aquí o aquí). Ahora bien, ¿cuál era el papel que podría jugar la banca pública frente a la crisis?

Sin duda uno de los motivos que explican la existencia de la banca pública es que puede actuar moderando la tendencia del ciclo económico. Así, cuando la tendencia es alcista el crédito público debería actuar desincentivando las inversiones crediticias para así frenar el calentamiento de la economía. En caso contrario, ante una tendencia bajista, es de esperar que intervenga promoviendo las inversiones con objeto de ayudar a recuperar la normalidad más rápidamente. En general, el comportamiento de los bancos públicos con relación al crédito es menos cíclico que el de los bancos privados. La literatura que se ha ocupado de la cuestión muestra resultados robustos y bastante homogéneos en economías muy diversas (aquí, aquí o aquí). Además, en los países donde las instituciones oficiales cuentan con una mejor gobernanza, el comportamiento de la banca pública es contracíclico en períodos de crisis, y, por tanto, pueden desempeñar ese papel estabilizador que se le supone sobre el conjunto del crédito. Esta evidencia resulta aplicable a economías tan distintas como Estados Unidos, Europa, o América Latina, existiendo, además, una relación positiva entre mayor grado de desarrollo económico e institucional y capacidad de los bancos públicos para absorber shocks.

En el caso español, la evolución del crédito público desde la década de 1970 permite identificar dos periodos con el punto de ruptura situado en 1991, año en el cual las Entidades Oficiales de Crédito (los bancos sectoriales que agrupaba el ICO) fueron a parar a manos de Argentaria, que se privatizaría poco después. A partir de ese momento y de la desaparición de los bancos oficiales, la actividad del ICO como agencia financiera del Estado se realizó a través de la banca privada (son suficientemente conocidas las líneas de mediación ICO) buscando, además, fuentes financieras propias, sin depender de los Presupuestos Generales del Estado, como había sido habitual en el periodo anterior. En el Gráfico 1 puede observarse la evolución del crédito del ICO y el salto abrupto que significó, en su volumen de crédito, la pérdida de los bancos oficiales a manos de Argentaria. Si en los años del tardofranquismo el crédito oficial se situaba en torno al 10-15% del crédito total, en las primeras décadas del siglo XXI no ha superado el 4%, ni siquiera en el peor momento de la crisis. Esto significa, a priori, que la capacidad de actuación del crédito público ha sido necesariamente menor en la reciente crisis que en las décadas de 1970 y 1980.

Gráfico 1: Evolución del crédito y el PIB 1971-2015, millones de euros constantes

Para analizar sintéticamente el grado de sincronización entre el crédito público y el PIB empezamos identificando las fases (bajistas y alcistas) utilizando el algoritmo à la Bry and Boschan modificado por Harding y Pagan. Con ello se obtienen los puntos de inflexión a lo largo del ciclo y se calcula el índice de concordancia (CIxy), que permite comprobar en qué medida dos variables están en la misma fase (alcista o recesiva) del ciclo, es decir, su grado de prociclicidad o contraciclicidad. En concreto, valores muy cercanos a la unidad implicarán que las series se mueven totalmente sincronizadas, mientras que valores cercanos a cero serán fruto de una alta contraciclicidad. Hemos tenido en cuenta también la posibilidad de que el crédito crezca o decrezca de forma distinta en función de si la economía se encuentra en un período de crecimiento o de recesión. Para ello dividimos el índice de concordancia en dos índices distintos, uno para la parte alcista (CIxy expansión), y otro para la recesiva (CIxy recesión). Posteriormente, para comprobar la estabilidad de los datos a lo largo de la totalidad del período analizado aplicamos el test de cambio estructural de Chow, el cual indica la presencia de un corte que coincide con la creación de Argentaria, lo que le da plena validez.

Lo que se observa a partir de los resultados de nuestro análisis es que, aunque durante los periodos bajistas del ciclo económico el crédito público sigue un comportamiento levemente contracíclico, durante los periodos de crecimiento de la economía el ICO no contribuyó a moderar el ciclo. Así, para todo el periodo 1971-2015 no puede afirmarse que el ICO tuviese un comportamiento que moderase la evolución económica. Esto puede deberse al propio papel del ICO, vinculado a la financiación del Estado, o a la propia organización del Instituto, cuya dirección depende del ministerio de Economía y responde a intereses políticos. Si observamos el comportamiento del crédito por periodos, se observa que, mientras el crédito privado, según avanza el tiempo, se comporta siguiendo las directrices del mercado y con cierta aversión al riesgo en épocas de crisis, el crédito público es más bien procíclico en el primer subperíodo (1971-1991) y ligeramente contracíclico en el segundo (1992-2015). La prociclicidad durante las décadas de 1970-80 puede explicarse por su participación en los procesos de reconversión industrial y modernización de la administración pública, derivados de una política fiscal claramente expansiva.

Gráfico 2: Crédito oficial y PIB (2008-2015) millones de euros constantes.

Esa contraciclicidad en la actuación del crédito público que hemos señalado en los periodos recesivos del ciclo se observa con cierta claridad a partir de 2008, en especial entre 2011 y 2012, los peores años de la crisis financiera (gráfico 2). Su papel contracíclico durante la última crisis ha respondido a la política implementada por el gobierno, así el ICO había comenzado a incrementar su balance antes del inicio de la crisis y en 2008 se hizo cargo del Plan Español para el Estímulo de la Economía y el Empleo (Plan E) puesto en marcha por el gobierno socialista. Durante los años de la crisis, tanto con gobiernos conservadores como socialistas, el Instituto expandió significativamente su crédito, justo al contrario de lo que ocurrió con el crédito de los bancos privados. Contribuyó a paliar la falta de liquidez de las instituciones locales públicas, ayuntamientos y regiones (a través de mecanismos tales como el FLA). Entre 2007 y 2013 el balance de la entidad se multiplicó por tres. Fue en este período de crisis cuando el ICO ejerció su papel de banco público, con tendencia a compensar la falta de liquidez de la economía y el colapso del crédito privado. Ante la desaparición de las cajas de ahorros y la restricción crediticia del resto del sistema bancario, el ICO redobló sus líneas de mediación para pymes y empresarios y el crédito directo a clientes. El trabajo pone de manifiesto el papel que el crédito oficial ha jugado puntualmente como amortiguador durante cierta parte de las fases recesivas de la economía española, es decir, su capacidad de actuar adaptando su activo a las exigencias de la realidad económica, expandiéndose y contrayéndose con cierta facilidad.



¿A qué mierda estás jugando otra vez, Volkswagen?

El último anuncio de Volkswagen –ver el vídeo aquí– vuelve a conjugar elementos estéticos de tipo visual y sonoro ciertamente seductores. Y esta vez lo hace para convertir lo que en la actualidad parece uno de los más temibles enemigos de la industria automovilística –el boom de los nuevos medios de transporte urbano, como patinetes o bicicletas eléctricas– en un potente recurso de generación de ventas. Los argumentos ideológicos y publicitarios que utiliza para ello son tan brillantes como siniestros, motivo por el que a continuación destacamos cinco de los mismos a través de cinco imágenes del reciente spot comercial emitido por la histórica firma alemana del sector de la automoción. 1- La locura es la cordura: “Esta vida loca, loca, loca, con su loca realidad, que se ha vuelto loca, loca, loca, por buscar otro lugar”. La letra de una de las mejores canciones de Pancho Céspedes, el cantante cubano de 61 años nacionalizado mexicano, nos remite al falso contexto inicial que la empresa europea pretende caracterizar: “buscar una alternativa al transporte tradicional basado en el motor de combustión, ya sea para contaminar menos, hacer menos ruido, ser más moderno o promover un medio ambiente sano o limpio, es una locura, un estado triste del alma como el que desprende la aterciopelada y penosa voz del cantante latinoamericano. 2- El socialismo frente el individualismo: Imágenes de miles de personas perfectamente sincronizadas, realizando movimientos circulares y concéntricos con patinetes eléctricos, evocando desfiles militares uniformados y realizados en países de tradición comunista, como, por ejemplo, Corea del Norte. Pretenden que nos cuestionemos si queremos diferenciarnos, saciar nuestro impulso individualista, o acabar por el contrario extraviados y confundidos entre la masa, convertidos en sujetos reemplazables en urbes terriblemente impersonales. 3- Lo cool es lo freaky: Desplazarse en patinete eléctrico por la ciudad, con comodidad y sin riesgo, haciéndolo […]

La entrada ¿A qué mierda estás jugando otra vez, Volkswagen? aparece primero en El Captor.



martes, 23 de octubre de 2018

¿Por qué viven más años las mujeres que los hombres?

Leía hace unos días esta noticia en The Guardian, donde se anuncia que en 2040, España será el país más longevo del mundo, con una esperanza de vida de 86 años. La esperanza de vida al nacer en España era de 83 años en 2017, según el INE, aunque la media esconde grandes diferencias por sexo: 86 años para las mujeres contra 80 para los hombres (de longevidad ya les hemos hablado antes, por ejemplo aquí y aquí). La figura 1 muestra que esta diferencia en longevidad por género se observa sin grandes cambios desde que tenemos buenos datos para España (1975). ¿A qué se debe la mayor longevidad de las mujeres?

Figura 1. Esperanza de vida al nacer en España, 1975-2017 (fuente: INE)

En primer lugar, esta ventaja de las mujeres en longevidad se observa en la actualidad en la gran mayoría de países. Por ejemplo, aquí se puede ver que las mujeres viven en media más que los hombres en todos los países de la OCDE.

Este hecho es bien conocido, y he participado en muchas charlas de café donde cada uno exponía sus hipótesis sobre el origen de esta brecha de género. He oído conjeturas de lo más variadas, incluyendo: los hombres van a la guerra y las mujeres no, los hombres tienen trabajos más “chungos”, mientras que las mujeres tienen una vida más fácil (¿?), los hombres fuman y beben más, etc. ¿Tenemos evidencia científica que nos ayude a responder a esta pregunta?

Hoy quería contarles los resultados de un trabajo reciente de las brillantes economistas Claudia Goldin y Adriana Lleras-Muney, historiadora económica y economista de la salud, respectivamente, en el que afrontan esta cuestión. En su estudio, empiezan por constatar que efectivamente esta diferencia a favor de las mujeres se encuentra en casi todas partes en la actualidad. A continuación, se preguntan si esto ha sido siempre así, y la respuesta es que no. Por los datos históricos de que se dispone, parece que hasta finales del siglo XIX, la ventaja de las mujeres en mortalidad no existía. Por ejemplo, en Francia en 1850, la esperanza de vida a la edad de 1 año era la misma para hombres y mujeres, y en el Reino Unido era un poco mayor entre los hombres (aquí).

Goldin y Lleras-Muney proponen que quizá podemos entender qué explica la brecha actual si estudiamos cuándo se produce el cambio, y a qué se debe.

Los datos sugieren que el cambio (la aparición y aumento de una importante brecha de género en esperanza de vida) se produce a principios del siglo XX (por supuesto con alguna variación entre países). Por ejemplo, la figura 2 muestra la esperanza de vida a los 45 años por sexo en EEUU, entre 1795 y 2014. Ambas series se superponen hasta 1900, cuando se abre una brecha que va aumentando durante la primera mitad del siglo, de modo que en 1950 ya se alcanza una diferencia de magnitud similar a la actual. El patrón es parecido en Francia o Inglaterra.

Figura 2. Esperanza de vida a los 45 años en Estados Unidos, 1975-2014 (fuente: Goldin y Lleras-Muney, 2018)

El siguiente paso es averiguar a qué pudo deberse que el aumento en la longevidad durante el siglo XX beneficiara más a las mujeres. En primer lugar, las autoras descartan algunas posibilidades. Es verdad, por ejemplo, que a principios del siglo XX el uso del tabaco se extendió entre los hombres en muchos países, y no tanto entre las mujeres (la diferencia se ha reducido en décadas más recientes). Sin embargo, el tabaco tarda al menos 20-30 años en matar, con lo que los tiempos no cuadran, ya que la brecha se abre antes de lo que cabría esperar si el tabaco fuera el culpable.

Otro argumento que he oído antes es que antiguamente la mortalidad femenina era más alta debido a la elevada morbilidad y mortalidad en torno al parto. Quizá al reducirse la fecundidad y la mortalidad maternal, aumentó mucho la esperanza de vida femenina, y de ahí el cambio. El estudio explora esta posibilidad en detalle, y concluye que este factor sólo puede explicar una pequeña parte de la brecha, no más del 15%.

La aparición y aumento de la “ventaja” femenina en mortalidad precedió a la reducción de la mortalidad maternal, y a los efectos del aumento en el tabaquismo entre los hombres. ¿Cuál es entonces la razón?

Parece ser que la causa se halla en la reducción en la incidencia de enfermedades infecciosas a principios del siglo XX. El argumento es el siguiente. En el siglo XIX, las niñas y mujeres jóvenes se veían más afectadas por enfermedades infecciosas que los hombres (por ejemplo, la tuberculosis), al menos una vez superado el primer año de vida. Un ejemplo muy marcado puede verse en la “gripe española” de 1918, de la que murieron más niñas que niños. Cuando la incidencia de enfermedades infecciosas cayó (para todo el mundo), gracias sobre todo a intervenciones de salud pública, esa desventaja desapareció. Esta mejora en la salud de las niñas dio lugar a un aumento en la longevidad de las mujeres adultas.

La figura 3 muestra cómo la mortalidad por enfermedades infecciosas de las niñas (de 10 a 15 años) era mayor que la de los niños a finales del siglo XIX y principios del XX en EEUU. Puede observarse también el pico de 1918. A partir de 1920, las muertes por enfermedades infecciosas caen para niños y niñas, pero de manera más pronunciada para las segundas. Un patrón parecido puede observarse en la figura 4, que muestra tasas de mortalidad infantil (es decir, dividiendo muertes por población), excluyendo las muertes violentas. La ventaja masculina evidente en 1890 ha desaparecido en 1940.

Figura 3. Fracción de muertes de niños de 10 a 15 años por enfermedades infecciosas (Massachusetts, 1887-1940) (fuente: Goldin y Lleras-Muney, 2018)

Figura 4. Tasas de mortalidad (muertes no violentas) de niños de 10 a 15 años (Massachusetts 1980-1930) (fuente: Goldin y Lleras-Muney, 2018)

Es importante recalcar que no hablamos (sólo) del efecto "inmediato" procedente de la menor mortalidad provocada directamente por enfermedades infecciosas. Este tipo de enfermedades provoca secuelas entre los supervivientes que afectan a su salud adulta, y por tanto a la longevidad. Al reducirse la incidencia de las enfermedades infecciosas, bajó la mortalidad y la morbilidad tanto de hombres como de mujeres, pero éstas, al verse más afectadas por estas enfermedades, se beneficiaron más. Un punto que el estudio no desentraña de manera convincente es por qué históricamente las mujeres (las niñas) se veían más afectadas por enfermedades infecciosas que los hombres.

La próxima vez que en la sobremesa se discuta sobre por qué las mujeres viven más que los hombres, ya puede presumir delante de su cuñado de estar al día de los últimos resultados científicos.



lunes, 22 de octubre de 2018

Por Halloween... Tres Historias de Terror sobre Evaluaciones Docentes

De Pedro Rey Biel  (@pedroreybiel)

Inspirado por el episodio anual de Los Simpson en el que se cuentan tres historias de terror, hoy me decido a hablarles de tres espeluznantes casos relacionados con cómo se mide la calidad docente de los profesores. Como saben, creemos que  hay muchas cosas que arreglar en nuestra universidad, y muchas de ellas pasan por evaluar de forma correcta lo que ocurre en nuestras aulas...sin olvidarnos de la correlación positiva existente entre buena docencia y productividad investigadora. Aquí van nuestros tres terroríficas historias, basadas en anónimos casos reales.

1. El caso de las evaluaciones docentes que desaparecían. En una universidad pública había gran consternación porque las tasas de respuesta de los alumnos a las evaluaciones docentes periódicas habían descendido del 85% a poco más del 3%. ¿La razón de tan brúsqueda caída? La tecnología. Decanato decídió dejar de subcontratar a una empresa externa para realizar cuestionarios en papel, pensando que un cuestionario online que rellenaran los alumnos conseguiría los mismos objetivos, ahorrando además en papel. Sin embargo, no entendieron que los estudiantes, al no verse forzados a rellenar cuestionarios durante 10 minutos dentro del aula, no tenían ningún incentivo a perder el tiempo contestando esas mismas preguntas online. Y no es que fueran especialmente perversos o vagos, sino que la propia legislación de la universidad era extremadamente garantista y protegía a los profesores manteniendo los resultados de estas encuestas anónimos. Total, que básicamente los resultados no se usaban para nada, algo que conocían los alumnos. Tras varios años de reuniones de la junta de facultad en que los distintos decanos  decían que "algo había que hacer para subir las tasas de respuesta", sin proponer ninguna medida, un (no ya tan) joven profesor de economía del comportamiento se ofreció a estudiar el problema e intentar solucionarlo. Se creó una comisión que se reunió varias veces. Se propusieron ideas tanto desde el lado de la oferta como de la demanda. La primera de ellas era sencilla, y copiaba lo que se hace en otra institución rival a un coste bajo y tecnológicamente muy sencillo: para que los alumnos puedan ver las notas de sus asignaturas online, primero deben contestar la encuesta docente. Pero la junta de facultad tumbó la medida por excesiva (a pesar de que las notas ya se publicaban físicamente en tablones en el campus...se trataba sólo de facilitar el acceso online a cambio de colaborar en un objetivo común de la universidad). Entonces se propusieron otras ideas: modificar los cuestionarios para que las preguntas reflejaran de forma más veraz y útil lo que ocurria en las aulas, hacer los resultados de las encuestas públicos y dar prioridad a los alumnos con mejores notas para poder elegir con qué profesores matricularse (rechazado por exponer en exceso a los malos profesores), hacer sólo públicos los resultados de los mejores docentes y premiarles de alguna forma (ni siquiera se consiguió aprobar que hubiera un reconocimiento expreso, sin incurrir en ningún coste económico), utilizar los teléfonos móviles para que los alumnos rellenaran la encuesta online desde el aula (imposible técnicamente porque la escasa capacidad del servidor de la universidad provocaba el colapso de la red). Tras dos años de reuniones frustrantes, sin ninguna decisión aprobada, la comisión desapareció y el profesor, quien precisamente había publicado un artículo sobre cómo utilizar los incentivos para aumentar la tasa de respuesta de los cuestionarios a clientes de empresas, abandonó por ésta, junto con otras muchas otras razones administrativas similarmente frustrantes, la universidad pública.

2.El lamento de los profesores pasteleros. Las cosas no iban mejor en las universidades privadas y en las escuelas de negocios, donde las evaluaciones docentes se utilizan de forma expresa para tomar decisiones sobre contratación y renovación de profesores. El problema aquí no es la tasa de respuesta, sino que se toma demasiado en serio una "encuesta de satisfacción del cliente". De hecho, en un reciente claustro de profesores que duró más de dos horas, algunos profesores se sorprendieron de la importancia que el rector daba a estas estadísticas, mostrando múltiples gráficos que mostraban que los alumnos estaban contentos... cuando otras palabras como "aprendizaje" o "investigación" apenas se mencionaron. El alumno paga, en muchos casos cantidades considerables, y por tanto, hay que tenerlo satisfecho. Pero ¿qué es lo que mantiene contento a un alumno, que a su vez es evaluado por un profesor? Se lo pueden imaginar fácilmente. Como me dijeron cuando estaba decidiendo el contenido del temario del nuevo curso que me invitaron a dar en una escuela de negocions americana... "Do not worry...just keep them entertained!" ("no te preocupes...!entretenlos!"). He visto profesores realmente angustiados preparando presentaciones llenas de dibujitos y animaciones para hacer sus clases más dinámicas (lo cuál en sí no es negativo... salvo la parte de la angustia), renunciando a cargar sus clases de contenido difícil por la creencia firme en que les podía repercutir negativamente en sus evaluaciones docentes...y en su carrera en la institución. He visto profesores decidiendo estratégicamente administrar la encuesta docente en el día que daban "la clase más divertida" y, lo que ya roza el ridículo, he visto profesores cocinar galletas y brownies para distribuir entre los alumnos mientras rellenan la encuesta. Lo que en aquel entonces me parecía evidencia anécdótica, se ha confirmado recientemente con un experimento aleatorizado.  !Cocinar galletas funciona!: en aquellos grupos en los que aletoriamente el profesor distribuye galletas entre sus alumnos, tanto el contenido del curso como el profesor que lo imparte obtienen calificaciones más altas. Así que ya saben...!a cocinar!  Se han propuesto otras soluciones para hacer que estas evaluaciones sean más serias: cotejar las evaluaciones docentes con resultados de los mismos alumnos en cursos posteriores para los que los conocimientos del curso evaluado son necesarios, evaluaciones externas de los alumnos que midan lo que realmente han aprendido, seleccionar a los mejores alumnos de cada curso para que sean sólo ellos los que den su opinión... Todas estas medidas tienen por supuesto dificultades prácticas...pero quizá sean preferibles a realizar encuestas de popularidad sobre qué profesor entretiene mejor a sus alumnos (que insisto, debe ser parte de un buen docente) a costa de no enseñarles mucho o de darles buenas notas (y galletas).

3.El ataque contra las profesoras eficientes. Un último caso que pone los pelos de punta a quienes creemos que es importante evaluar y premiar la buena docencia, se pone de manifiesto en este amplio estudio de Friederike Mengel, Jan Sauermann y Ulf Zölitz, publicado recientemente en el Journal of the European Economic Association  que utiliza 20.000 evaluaciones docentes para investigar la posible discriminación que puede existir en contra de determinados grupos. En particular, encuentran que las profesoras son evaluadas sistemáticamente peor que los profesores. Además, la discriminación se produce especialmente en contra de las profesoras que están iniciando su carrera y, en mayor medida, por parte de los alumnos varones. Además, ocurre con más frecuencia en cursos considerados más "técnicos", cargados de contenido matemático. y resultados similares se han obtenido sobre discriminación en contra de profesores extranjeros o pertenecientes a ciertas etnias.

¿Qué hacer ante tan terribles historias? Creo que, en primer lugar, debemos tomarnos en serio la evaluación docente. De nada sirve obtener tasas de respuesta ridículas que en absoluto son representativas y que vienen marcadas por las opiniones de los alumnos extremos...sólo aquellos que te adoran o te odian van a entrar en un cuestionario online si no tienen ninguna otra razón para hacerlo. Dar señales de que esas evaluaciones son útiles y sirven para tomar decisiones es importante, siempre y cuando se sepa lo que se está midiendo y no se creen incentivos perversos y competiciones de popularidad. Por último, ser conscientes de los sesgos existentes, de las razones por las que se producen, y tenerlos en cuenta a la hora de tomar decisiones, tampoco estaría de más.

!Feliz día de difuntos! (un poco adelantado, pero me tocaba entrada hoy).

 



El gobierno de los multimillonarios significa tiranía o revolución

A los diez años me becaron para ir a un internado escolar diseñado para los multimillonarios de Massachusetts. Viví entre los estadounidenses más ricos durante ocho años. Escuché sus prejuicios y sufrí sus complejos de superioridad. Insistían en que eran privilegiados y ricos por consecuencia de su inteligencia y talento. Experimentaban un desprecio burlón por los que se situaban en una escala inferior a ellos en estatus material y social, incluyendo en tal desprecio también a los estudiantes de clase media y alta. La mayoría de los multimillonarios carecían de empatía y compasión. Se autoblindaban para molestar, intimidar e insultar a cualquier inconformista que desafiara o no encajara en su mundo de egolatría. Era imposible entablar una amistad con la mayoría de los hijos de estos multimillonarios. La amistad según ellos venía definida por un “¿qué hay para mí?” Y desde el  momento de su nacimiento estaban rodeados por personas que satisfacían sus deseos y necesidades. Eran reacios a comunicarse con cualquier persona que estuviese en apuros -pero si ellos tenían algún pequeño capricho o problema, les dominaba hasta tal punto que cualquier sufrimiento terrible en los demás parecía inexistente, y esto pasaba también incluso con sus propios familiares-. Solo sabían cómo recibir. Ignoraban el concepto de dar. Se habían deformado y vagaban en un estado de infelicidad profunda, presos de un narcisismo insaciable. Es esencial entender las patologías de los multimillonarios. Porque han amasado el poder político mundial. Estas patologías describen a los Donald Trump, sus hijos, los Brett Kavanaughs y los multimillonarios que dirigen la administración. Los súper ricos son incapaces de ver el mundo desde una perspectiva que no sea la suya. Las personas que los rodean, incluidas las mujeres de las que estos hombres se aprovechan, son objetos diseñados para satisfacer deseos momentáneos o ser manipulados. Los súper ricos son casi siempre amorales. Correcto. Equivocado. Verdad. Mentira. Justicia. Injusticia. Estos conceptos se sitúan en otra esfera para ellos. Simplemente, lo que les beneficia […]

La entrada El gobierno de los multimillonarios significa tiranía o revolución aparece primero en El Captor.



domingo, 21 de octubre de 2018

La sentencia (o no) del Supremo sobre el impuesto en las hipotecas y la ley de Dalton

La semana pasada presenciamos dos episodios más de la larga serie de vaivenes jurisprudenciales sobre quién debe pagar el Impuesto de Actos Jurídicos Documentados (AJD) en los préstamos hipotecarios. He tomado la expresión anterior del blog Hay derecho, cuya entrada al respecto recomiendo para entender los detalles jurídicos. El jueves nos decía el Tribunal Supremo que este impuesto lo debe pagar el prestamista (el banco), en contra de lo que viene sucediendo, y el viernes nos dijo que se lo va a pensar un poco más por la “enorme repercusión económica y social” que producirá la sentencia. Veo muy loable que la ley y su aplicación tengan en cuenta estas repercusiones. Vamos a hablar de las económicas, que es lo nuestro.

La primera es la posible diferencia de las consecuencias económicas que hay entre señalar al banco o al cliente como pagador nominal del impuesto. La segunda es la implicación de hacer retroactiva o no la decisión de que pague el vendedor cuando hasta ahora pagaba el comprador. Como tercera consecuencia tendríamos los costes de transición si se decide el cambio de criterio. Finalmente, y sin ánimo de ser exhaustivo, tendríamos las consecuencias de la inseguridad jurídica cuando la ley no está clara o cuando se pueden esperar cambios futuros.

El pagador nominal y el pagador real

Cualquier ciudadano sabe que un impuesto sobre un bien o servicio, aunque deba ser pagado por la empresa que lo suministra, acaba siendo trasladado al precio que pagará finalmente el consumidor, por lo menos en parte. La cuestión es si lo que acaba trasladándose al consumidor es más o menos que lo que pagaría este si fuera el pagador. El análisis económico dice que la manera en que pagan finalmente el impuesto el comprador y el vendedor depende de las condiciones de la oferta y la demanda (de sus elasticidades) y no de quién sea el que nominalmente debe pagar. Si los compradores tienen pocas alternativas y apenas alteran sus decisiones de compra según el precio, la elasticidad de la demanda será muy baja y entonces los vendedores podrán trasladar la mayor parte del impuesto. Si ocurre al contrario, y la elasticidad es baja en la oferta porque, por ejemplo, haya mucha competencia entre oferentes, el impuesto apenas repercutirá en el precio que paga el consumidor. Lo importante para nuestro caso es que esta división del pago real del impuesto no depende de sobre quien recaiga nominalmente el pago.

Izquierda: La oferta se desplaza hacia arriba por el monto del impuesto al vendedor. Derecha: La demanda se desplaza hacia abajo por el monto del impuesto comprador. En ambos casos la introducción del impuesto produce un cambio en la cantidad de Q a Q´, y en el precio de P a Pc para el comprador y Pv para el vendedor. La diferencia entre Pc y Pv es el impuesto.

Una manera de entenderlo es la siguiente: a la hora de comprar una lavadora la factura muestra un precio neto de 100 y un impuesto del 10%. El consumidor está pagando 110, mientras que el vendedor debe dedicar 10 de esos 110 para pagar el impuesto. Es decir, el comprador “ve” un precio de “110”, que es el relevante para sus cálculos de compra y el vendedor “ve” un precio de 100, que es el relevante para sus cálculos de venta. Las condiciones del mercado hacen que esos dos precios sean los que ajustan los planes de compradores y vendedores. Si ahora ponemos que el pago del impuesto debe recaer sobre el vendedor, como las condiciones del mercado no han variado, esos mismos precios deben ser los que prevalezcan. Para que el comprador “vea” un precio de 110 debe ser que lo que pague al vendedor sea 110. De esta manera el vendedor “ve” el precio de 100, igual que antes, puesto que debe dedicar 10 a pagar a Hacienda. Cuando en la factura pone que el precio neto es 100 y el impuesto es 10, da igual si pone eso porque el impuesto lo paga el comprador o porque el vendedor informa al comprador que ese es el impuesto que paga el vendedor.

El resultado general sobre la irrelevancia de quién es el sujeto nominal del impuesto es conocido en Economía como la ley de Dalton y los estudios empíricos sobre la incidencia de los impuestos lo tienen en cuenta (aquí un ejemplo). En general, se entiende que se aplica bien en mercados donde el análisis de equilibrio es un buen modelo explicativo (las referencias clásicas son esta y esta). Sin embargo, estudios más recientes muestran que la ley no se cumple (por lo menos, no en su versión original) en sectores donde prima la negociación, como en el mercado de trabajo cuando se introducen salarios de eficiencia (aquí). El resultado puede ser reproducido muy fácilmente en experimentos de laboratorio. Yo mismo, cuando enseño un curso de Introducción a la Economía, hago este experimento en clase y muestro cómo se cumple la teoría casi al 100%.

Las consecuencias de la retroactividad

Si en el momento A el impuesto es pagado nominalmente por el comprador y en el momento B pasa a ser pagado por el vendedor, las consecuencias económicas de la retroactividad serían simplemente que los bancos deberán realizar unas transferencias de renta a sus clientes por el monto de los impuestos pagados en la transacción. El “simplemente” era un poco irónico. La consecuencia es simple de señalar, pero el monto de las cantidades será muy grande, con importantes ramificaciones en su repercusión.

Como hemos visto en el punto anterior, si en el momento A hubiera sido el vendedor quien hubiera pagado, las consecuencias económicas habrían sido las mismas que en la situación a la que se quiere cambiar. Por tanto, no se podrá apelar a ningún coste o abuso por haber estado en esa situación, y sí se podrá apelar a un coste no justificado por cambiarla retroactivamente.

Los costes de transición y la inseguridad jurídica

La transición de una situación legal a la nueva paralizará el mercado durante un tiempo hasta que se ajusten todos los contratos a los nuevos requerimientos. No sé lo importante que será esta parálisis temporal, pero la preveo de mucha menos magnitud que los costos derivados de la inseguridad jurídica. De estos costes saben bien los juristas, así que no voy a incidir en ellos. Solamente diré que la consecuencia económica obvia de estos costes mayores serán menos contratos y más caros. Una última consecuencia es la falta de confianza que puede inducirse en la ciudadanía, que, con los cambios de criterio, pueden pensar que se protege a los bancos frente a los consumidores. Ciertamente esto ocurre demasiadas veces, pero no en esta ocasión.

Los jueces tienen un trabajo que hacer. Aunque a la hora de legislar sea irrelevante desde el punto de vista económico que la ley diga una cosa u otra acerca de quién debe pagar nominalmente un impuesto, la ley debe ser acorde con el resto del ordenamiento jurídico, y una vez escrita la ley los actos deben corresponderse con su letra y espíritu. Si hay alguna confusión, ahí estarán los jueces para resolver. No seré yo quien niegue la importancia de hacer bien las cosas. Esta entrada no tiene tal intención, sino la de aclarar las consecuencias económicas que deben ser tenidas en cuenta por los jueces, en la medida que ellos dictaminen.

Aprovecho esta entrada para sugerir algo más de contenido y asesoría técnica en ciertas discusiones jurídicas. Me consta, porque los conozco, que hay juristas con grandes conocimientos económicos, sociales o científicos relacionados con sus áreas de especialidad (derecho laboral, patentes, negligencias médicas, etc.), pero estas áreas son tantas que es difícil que un tribunal en particular las abarque todas. En lo que toca a la Economía, una formación mínima en la materia Análisis Económico del Derecho vendría muy bien. Esta disciplina se incluye en algunas facultades de Derecho y de Economía y debería estar más extendida. Ignoro si los jueces involucrados en estas decisiones conocen la ley de Dalton o si han paralizado la sentencia tras caer en la cuenta de su relevancia. En cualquier caso, necesitan saber las consecuencias de sus decisiones para tomar decisiones justas.



miércoles, 17 de octubre de 2018

¿Por qué no crecen los salarios en España? (I)

Florentino Felgueroso y Marcel Jansen

El empleo en España está creciendo a buen ritmo desde 2014. Una de las preguntas que centra buena parte del debate entre los expertos y responsables políticos es por qué el vigoroso crecimiento del empleo no se ha trasladado a los salarios. Hoy iniciamos una nueva serie de entradas para indagar en las causas de este (a priori) estancamiento de los salarios.

El Gráfico 1 muestra la evidencia que motiva la serie de entradas. Las seis líneas muestran las tasas de crecimiento del salario medio durante los últimos veinte años, utilizando distintas fuentes. Todas ellas siguen el mismo patrón con fuertes subidas en el período antes de la crisis, una rápida desaceleración a principios de esta década y subidas salariales nominales muy exiguas desde entonces. En términos nominales, los salarios medios habrían crecido en promedio a un ritmo de entre 0.3 y 0.5% anual. En el período 2001-2009, crecieron sobre 4% anual. En términos reales y sobre el total acumulado de cada período, los salarios habrían crecido entre un 11-16% entre 2001 y 2009. Por contra, desde el 2011 se habrían reducido entre 6 y 8%.

El bajo crecimiento salarial durante la recuperación no es un problema exclusivamente español, aunque el estancamiento aquí sea aún mayor que en otros países europeos o EEUU. Un interesante trabajo de Pilar Cuadrado y Federico Tagliati, publicado la semana pasada por el Banco de España, intenta explicar esta moderación salarial, en perspectiva europea. Con datos de la Contabilidad Nacional, estos autores muestran que la moderación salarial se puede explicar por los niveles de holgura del mercado de trabajo, es decir, la diferencia entra la oferta y demanda de empleo y por las bajas expectativas de inflación. Además, en el resto de la UE, el menor crecimiento de la productividad también seria un factor explicativo de la moderación salarial.

La evolución reciente de los salarios en España ha preocupado sobremanera en este blog (aquíaquí, aquí y aquí, con la MCVL, por ejemplo), y en especial, la evolución de la distribución salarial (aquí con la EES, aquí con la EPA, aquí Global Wage Report de la OIT y aquí, con la MCVL). El objetivo de esta nueva serie de entradas es actualizar los datos y profundizar en el tema usando los microdatos de la MCVL, lo que permite abordar el problema no sólo en la media, sino en toda la distribución salarial, y tratarlo desde una perspectiva dinámica, es decir, teniendo en cuenta los continuos procesos de creación y destrucción de empleo, siguiendo un enfoque iniciado aquí, aquí y aquí .

En concreto, intentaremos testar diversas hipótesis sobre las causas de la moderación salarial. Dos de estas hipótesis están marcando la agenda de investigación sobre este tema: la relación con la existencia de “slack” u "holgura” incorporando diversas medidas de infrautilización del trabajo. Aquí nos preguntaremos en cuanto pueden estar influyendo los cambios en la relaciones laborales (aumento del subempleo y de los contratos de corta duración, aquí) en la evolución de los salarios, véase aquí). Una segunda hipótesis es que se esté produciendo un aumento del poder de monopsonio de las empresas (tema tratado aquí y aquí en Neg), y una tercera hipótesis es la debilidad de la negociación colectiva derivada de la reforma laboral. En concreto, nos preguntaremos si acuerdos como el firmado para aumentar los salarios mínimos de convenio pueden ser efectivos, es decir, pueden conseguir mayores crecimientos reales de los salarios.

Efectos de composición

Pero antes,  iniciamos esta serie intentando analizar en qué medida se están moderando los salarios, y, en concreto, en documentar qué parte de la moderación salarial se debe a un efecto composición producido por la creación y destrucción de empleo a lo largo del ciclo, y cuánto se debe a cambios en los salarios de los trabajadores que mantienen su empleo de un año para otro. Recordarán que al inicio de la Gran Recesión se produjo una discusión considerable sobre por qué en plena crisis (año 2009) habían crecido tanto los salarios. Por una parte, se decía que este aumento estaba causado por la rigidez de nuestro sistema de negociación colectiva y el uso generalizado de cláusulas de garantía salarial en un contexto inflacionista. Por otra parte, también se argumentaba que los salarios medios crecían sobremanera porque la reducción del empleo se había centrado en los de menos salarios. Intentamos dar una primera respuesta aquí en el año 2011. En la entrada de hoy completamos el análisis en base a datos que incluyen varios años de recuperación.

Otras fuentes como el IPT del INE también ofrecen un cálculo de las variaciones de los salarios por ocupaciones una vez controlados los efectos composición (cambios por características) usando la Encuesta de Estructura Salarial (ESS). La ventaja de la MCVL es que permite distinguir entre las personas que permanecen en las empresas, y las que se dan de alta o baja, y ver en qué parte de la distribución salarial se sitúan al principio y al final de un período.

Distribución de salario a tiempo completo equivalente

Para empezar el análisis, los Gráfico 2a y 2b muestran las tasas de variación interanual de los salarios para distintos percentiles de la distribución salarial. En el Grafico 2a, se muestran los salarios por día, mientras que en el 2b se muestran los salarios día equivalentes a tiempo completo, es decir, ponderados por el coeficiente de la jornada (o porcentaje respecto del tiempo completo).

Presentamos ambos gráficos para mostrar que las conclusiones son bien distintas cuando se usan salarios con y sin correcciones por horas de trabajo (en este caso, una proxy de los salarios por hora). En concreto, el Gráfico 2a muestra que los cambios de salariales día han sido mucho más notables en la parte baja de la distribución salarial, en especial para los del percentil 10 y sobre todo en la fase recesiva. Nótese que los aumentos recientes de los salarios en esta parte de la distribución salarial también son relativamente grandes pero estos se deben en gran parte a una modificación legal de los conceptos que entran en las base de cotización en 2013-2014 (mayormente complementos lineales que afectan relativamente más a los salarios bajos) y en el último dato de la serie al aumento notable del salario mínimo en el año 2017.

Al contrario, si tenemos en cuenta los ajustes de jornada (Gráfico 2b), el patrón de crecimiento de los salarios no ha sido muy distinto a lo largo de la distribución salarial, en particular desde el inicio del período de moderación salarial. O dicho de otro modo, el aumento de la desigualdad salarial en España se puede explicar en gran parte por los ajustes de la jornada. Aún así, antes del período de moderación salarial, y en especial en el inicio de la crisis, los crecimientos de los salarios corregidos por la jornada, crecieron algo menos en la parte inferior de la distribución de salarios, generando parte de la desigualdad salarial.

Las diferencias entre altas, bajas y permanencias

Nuestro siguiente gráfico muestra la evolución de las medianas de los salarios días equivalentes a tiempo completo correspondientes a altas, bajas y permanencias (o supervivencia). Las altas y bajas se pueden asimilar con la creación y destrucción de emparejamientos entre una empresa y un trabajador. La inspección del gráfico muestra que los trabajadores afectados directamente por los flujos de creación y destrucción perciben un salario mediano menor que los individuos que permanecen en la misma empresa durante dos años consecutivos (la linea verde). Además, los salarios medianos de altas y bajas son muy similares, siendo los primeros solo algo inferiores a los segundos entre 2010 y 2013, los últimos años de la Gran Recesión.

La descomposición de la variación de los salarios

La evidencia sobre la distinta evolución de los salarios para altas, bajas y permanencias nos lleva al objetivo final de esta entrada: la descomposición del cambio salarial en lo que podemos llamar un efecto salarial – es decir un cambio en el nivel del salario manteniendo constante las características de la persona – y un efecto composición.

Los efectos de composición pueden ser considerables. En una fase expansiva, el flujo de altas es superior al flujo de salidas generando una caída en la proporción de stayers con salarios relativamente altos. Por el contrario, durante recesiones, hay más salidas que entradas generando un aumento en la proporción de stayers. Además, cuando los empleos que se destruyen están por debajo (por encima) de un percentil determinado (por ejemplo, la mediana), tirarán para arriba (para abajo) este indicador, y lo contrario en caso de destrucción.

 La descomposición de la variación de los percentiles de salarios se puede realizar utilizando un procedimiento similar al de Daily, Hobijn y Wiles (2012).

Deteniéndonos  en la mediana, observamos que parte de la “congelación salarial”, se debe a una efecto composición negativa, y que una vez aislado dicho efecto durante el período de moderación se habría producido un aumento de la mediana salarial anual bastante estable, en torno al 2% (Gráfico 4).La descomposición del efecto composición en la mediana se explica en el Gráfico 5, por una parte las bajas habrían producido un efecto positivo sobre el salario mediano, y las altas un efecto negativo. En definitiva el efecto de las altas con una menor salario que la medianas parece imponerse sobre los demás efectos composición, de tal forma que en términos netos resulta negativo desde el año 2010.

En definitiva, la baja tasa de crecimiento que muestran indicadores como la mediana salarial desde el inicio de esta década se produce esencialmente por la presencia un efecto composición negativo (flujos netos de creación de empleo positivos por debajo de la mediana) desde el año 2013 y por un efecto salarial positivo y relativamente estable desde el año 2010, aunque de tamaño sustancialmente inferior al registrado hasta el año 2009.