lunes, 30 de julio de 2018

Parada biológica 2018

De Pedro Rey (@pedroreybiel)

Volvemos a hacer nuestra pausa habitual del verano, en la que tratamos de resumir el último año del blog (aquí están las entradas para 2017, 2016, 20152014, 2013, 2012 y 2011) y nos tomamos un respiro hasta principios de septiembre.

En contraposición con los vaivenes políticos, este ha sido para nosotros un año relativamente tranquilo, sin cambios visibles ni en la composición del equipo editorial, ni en el grupo de colaboradores habituales. No obstante, sí que hemos tenido numerosas colaboraciones puntuales, como las de Julián Messina o las de Luis Puch, que se han terminado estabilizando. En todo caso, seguimos trabajando para incorporar nuevos colaboradores, que amplíen el grueso de temas que tratamos y para reenganchar a algunos de los que nuestros lectores más echan de menos.

Como muestra de la diversidad de temas tratados, entre las entradas más populares han estado ésta de Manuel Bagüés sobre los salarios de los alcaldes españoles, las advertencias de Nacho Conde sobre las chapuzas en la reforma del IRPF del anterior gobierno, o los escalofriantes datos sobre depresión juvenil que nos explicó Marcos Vera. Por barrer un poco para casa, les diré que me puso especialmente contento el que los diferentes posts dedicados al Premio Nobel de Economía 2017, Richard Thaler, y a la economía del comportamiento, hayan tenido también bastante éxito. Como en los últimos años, también los temas de género, y especialmente las explicaciones económicas a las diferencias en el mercado laboral entre hombres y mujeres, han centrado nuestra atención. Por otra parte, entre las entradas conjuntas de los editores, tuvo especial repercusión nuestra denuncia sobre la situación de la universidad pública española, a raiz de los sucesivos casos de políticos a los que se le había facilitado obtener títulos de postgrado (!hasta nos llegaron a elogiar por ella en medios de comunicación no sospechosos de ser muy afines a nosotros!).

Con las urgencias de finde curso, nos quedamos con las ganas de haber hablar un poco más de la huelga de taxis de estos últimos días, pero creemos que en los últimos años hemos dado suficientes y variados argumentos sobre el tema. Por ejemplo, en esta estupenda entrada de Daniel García, de este mismo año, o en las de años anteriores de Jesús Fernández.Villaverde o de Gerard Llobet.

En total, este año hemos publicado más de 230 entradas, con una media de 135.000 visitas mensuales, lo que nos anima a renovar esfuerzos y pensar en nuevas ideas que nos permitan seguir creciendo.  Como todos los años, acabamos con un sincero agradecimiento a nuestros lectores, tanto por seguir ahí como por su aportaciones, ya sea a través de comentarios y sugerencias, como a través de las sucesivas campañas de donaciones que nos permiten sufragar gastos y mantener nuestra independencia. Iniciaremos una nueva campaña de donaciones en Otoño, pero ya saben que siempre pueden dejar aquí su donación. !Nos vemos en un mes!

 



29/07/2018 – El Día – Overshooting; la palabra que se puede poner de moda

A fines de la década del 70, cuando los debates sobre el impacto de la emisión monetaria eran moneda corriente, Rudiger Dornbusch, uno de los mejores macroeconomistas de todos los tiempos, planteó la idea de que los shocks monetarios generaban, obviamente, una devaluación de la moneda, pero que el tipo de cambio sobre reaccionaba primero, para acomodarse al nuevo equilibrio después.

En castellano; si el Gobierno le daba a la maquinita, por ejemplo, para financiar el déficit fiscal, el traslado a precios se producía mas rápido en los activos financieros (el dólar, por ejemplo), que en el resto de los bienes de la economía.

Expresado en términos de la situación actual; si sube primero el dólar, pero lo hace de manera exagerada, luego habrá más inflación y se licuará una parte del efecto real de la subida del tipo de cambio. El mecanismo puede ser un poco distinto del pensado por el economista alemán, porque acá no hubo un shock de emisión, sino un derrumbe de la demanda de dinero, pero a los efectos prácticos la lógica es similar, porque si la gente no quiere los billetes que imprime el gobierno, pues sobra liquidez, que termina yendo a precios, sea de bienes o del dólar.

 

UN DESCUBRIMIENTO NOBEL

En el año 2013 la Academia sueca galardonó con su máxima distinción a Robert Shiller, el padre de la Economía del Comportamiento aplicada a las finanzas, quien demostró que los mercados de acciones y bonos no funcionan tan eficientemente como enseñamos en la facultad, sino que tienden a sobre reaccionar a los datos con excesivo optimismo cuando aparecen buenas noticias, pero con exagerado pesimismo cuando la novedad les hace pensar que las cosas empeorarán.

Por supuesto, siempre es mas fácil identificar ese tipo de comportamiento cuando miramos hacia atrás, en la historia de una variable financiera. Si fuera tan simple darse cuenta en el momento, que el mercado se esta pasando de rosca en el ajuste de los precios a las nuevas condiciones, todos podríamos ser millonarios.

Aunque el dólar parece ahora estabilizado, no podemos estar seguros de estar viviendo la corrección de la sobre reacción a la que hacía referencia Shiller, pero es probable que los casi 30 pesos a los que llegó la moneda norteamericana hace un mes haya sido el pico máximo del billete y que el pánico que se apoderó de los inversores haya cedido, una vez que el mercado se convención que el Banco Central finalmente había vuelto a controlar la situación.

Vimos desde entonces un retroceso de casi dos pesos, que tiene que ver con el efecto Shiller, pero todavía no terminamos de ver el ajuste del resto de los precios de la economía, aunque si Dornbusch estaba en lo cierto, es plausibe pensar que en los próximos meses veremos más inflación que aumento del dólar, o para ponerlo en otras palabras, que el tipo de cambio real de Argentina se abaratará un poco.

 

LA SOBRE REACCIÓN DE LAS EXPECTATIVAS

¿Piensa usted que el segundo semestre será malo? ¿Piensa que será muy malo? Esa pregunta la hizo esta semana el analista bursátil Claudio Zuchovicki a un conjunto de empresarios reunidos para escuchar su visión sobre la economía. La enorme mayoría de los presentes contestó de manera afirmativa ambas preguntas. Entonces el economista respiró y les dijo: “Es probable que sea malo, pero si ustedes ya tomaron todas sus decisiones descontando que será un desastre, entonces es posible que la realidad los sorprenda y que, si efectivamente la crisis resulta más suave de lo pensado, terminen el año más conformes.”

La crisis que estamos viviendo se produjo porque Argentina gasta mas dólares de los que genera y se cortó el financiamiento de esa diferencia. Los datos del balance cambiario de junio muestran que ese desajuste se corrigió fuertemente y que, de persistir la tendencia en los próximos meses, este valor del dólar podría alcanzar para resolver el problema. Si esto es así y de la mano del regreso de algunos capitales del exterior, el tipo de cambio se abaratará un poco en términos reales, podrían recuperarse las expectativas de los consumidores y empujar nuevamente a la economía hacia fin de año.

El problema de las crisis que generan las devaluaciones es que, aunque el dólar más competitivo ayuda a las economías regionales, a los productores de bienes exportables en general y a las industrias que compiten con las importaciones, ese es un efecto de largo plazo. En el corto, el dólar más alto hace caer la capacidad adquisitiva de los asalariados y frena el consumo por esa vía, pero también por el impacto negativo del deterioro de las expectativas. El récord de gente que compró dólares en estos dos meses de corrida, sacó del circuito económico 170.000 millones de pesos, que fueron a billetes verdes debajo del colchón, en vez de alimentar el consumo.

Si el Gobierno logra contagiar la percepción colectiva de que el dólar se pasó de rosca a $29,50 y la crisis por el freno del consumo en el segundo semestre no resulta tan profunda como todos están pensando, es posible que las expectativas empiecen a mejorar y que la economía se recupere antes de que los efectos positivos de largo plazo comiencen a sentirse, en los primeros meses del año próximo.



29/07/2018 – Clarín – Metas versus Agregados

En los mercados, se sabe, el Estado puede controlar el precio o la cantidad, pero nunca los dos al mismo tiempo. Tomemos por caso el dólar; el Banco Central puede fijar arbitrariamente la cotización por debajo del nivel de equilibrio, pero no puede evitar el exceso de demanda resultante; siempre que una cosa está muy barata sobran los compradores, pero faltan los vendedores. Alternativamente, como hizo en su momento con el cepo, la autoridad monetaria podría limitar la demanda estableciendo cupos, pero si no hay suficiente para todos, subirá el precio. Si el regulador quiere controlar el precio y la cantidad al mismo tiempo, lo que ocurrirá es que habrá un mercado paralelo donde se encontrarán los que no están dispuestos a vender barato, con los que se quedaron afuera de la cuota establecida oficialmente.

El mercado de dinero no es muy distinto. Si usted necesita liquidez y no cuenta con ella, puede ir a una institución financiera y alquilarla. A cambio pagará un arrendamiento que normalmente se denomina “tasa de interés”. El Banco Central puede entonces controlar la tasa de interés o establecer el nivel de dinero con que contará la economía, pero lo importante es que no puede hacer las dos cosas al mismo tiempo; debe elegir.

Cuando el Gobierno quiere frenar la velocidad a la que crecen los precios puede optar por dos caminos; o bien establece metas de inflación y regula la tasa de interés, en cuyo caso la cantidad de dinero que termina emitiendo es la que demanda la economía, o puede alternativamente fijar el crecimiento de los agregados monetarios y bancarse la tasa resultante.

En un escenario de plena credibilidad en la política monetaria con estabilidad en la demanda de dinero y donde el Banco Central conociera con precisión esa magnitud, no hay mayores diferencias entre ambos enfoques. Si la autoridad dice que la inflación será 20% y todo el mundo le cree, pues las remarcaciones estarán en ese orden y la determinación de la tasa de interés se convierte en una tarea de sintonía fina. Lo mismo ocurre si lo que hay que establecer es la tasa a la cual crece la cantidad de dinero.

El principal problema Por simplicidad voy a analizar ahora el caso donde el principal problema es el de credibilidad, puesto que ilustra lo que está ocurriendo hace varios años en nuestro país.

¿Como funcionan las metas de inflación?

Bajo este modelo, el BCRA establece primero la meta y luego usa la tasa de interés (controla el precio de alquiler del dinero), para ajustar las diferencias entre sus objetivos y la realidad. Si el público remarca por encima de lo establecido, el Banco Central está obligado a hacer dos cosas; por un lado, debe emitir y meter en el sistema todo el dinero que el mercado pida y, por otro lado, sube la tasa de interés para que baje la inflación.

Con tasas mas altas, se encarece el crédito para consumo (no necesariamente el que se destina a la inversión de largo plazo), bajan las expectativas de inflación y se abarata el dólar, porque entran capitales especulativos a buscar esas tasas mas altas. Dependiendo de las características de cada economía, esos tres efectos frenan en mayor o menor medida la inflación.

Acá aparece entonces la clave mas importante; si la gente no le cree al Banco Central o la economía tienen mecanismos de ajuste de precios que le imprimen inercia al proceso, la consecuencia es que la inflación baja mas despacio de lo que quiere el gobierno, aunque la economía nunca se quedará sin liquidez para trabajar.

¿Cómo opera el control de agregados?

Si en cambio el BCRA controla la cantidad de dinero, lo que hará es asegurarse que los agregados monetarios (la oferta de dinero) crezcan a una velocidad compatible con la inflación buscada y el crecimiento esperado; por ejemplo y simplificando la matemática financiera, si el Banco Central busca una inflación del 20% para los próximos 12 meses y proyecta un crecimiento real de la actividad del orden del 3%, entonces la cantidad de dinero debería crecer 23% en los próximos doce meses.

A la larga, si la demanda de dinero no se derrumba, los precios de la economía no pueden crecer en promedio por encima de la cantidad de dinero. El problema es a la corta.

Si los formadores de precios no le creen al gobierno y esperan una inflación del 30%, entonces los alquileres se firmarán con clausulas del 30%, las paritarias se cerrarán en torno a ese mismo nivel, los comerciantes remarcarán también cerca del 30% y así sucesivamente se irán formando todos los precios de la economía de acuerdo con las expectativas de próximos aumentos. Pero incluso si le creyeran, podrían existir contratos escalonados, con clausulas de aumentos, o expectativas de recomposiciones de ingresos de algunos sectores, que le dieran inercia al proceso e hicieran que, aunque el dinero creciera al 23% los precios corrieran al 30%.

Y aquí surge entonces la clave del modelo de control de agregados; bajo ese modelo, en el corto plazo, la falta de credibilidad en la política monetaria se paga con menor actividad económica, porque si no hay dinero suficiente como para efectuar todas las transacciones de la economía con aumentos del 30%, pues faltará dinero y consecuentemente subirá el precio de alquilarlo.

Aunque Phillips se vista de seda… Si no hay credibilidad en la economía, el gobierno deberá elegir entre bajar la inflación mas lentamente (metas de inflación) o hacerlo mas rápido, pero al costo de una recesión (control de agregados).

La única salida al dilema que plantea esta suerte de curva de Phillips es quebrar las expectativas y lograr que todos esperen menos inflación hacia delante, puesto que de ese modo es posible reactivar la economía y desacelerar los precios al mismo tiempo.

Esas expectativas naturalmente no nacen de un repollo, sino que surgen de la interpretación que el público hace de las medidas del gobierno y de la credibilidad que tienen en las autoridades, retroalimentándose con los resultados que, a su vez, tienen una cuota de azar.

Por suerte la nueva conducción del BCRA tiene una chance de recomponer la confianza de la gente si es que logra dominar al dólar. Además, si el cambio al esquema de control de agregados es correctamente comunicado, contribuirá en el mismo sentido y el Central tendrá la chance de moderar el dilema entre inflación y recesión.



domingo, 29 de julio de 2018

Políticas basadas en la evidencia: el movimiento se demuestra andando

"As a Citizens we want evidence-based policy NOT "policy-based evidence": where evidence is typically used as a weapon — mangled and used selectively in order to claim that it supports a politician’s predetermined position", Graham Leicester (1999) (*)

Dejen volar su imaginación.. Imagínense una página web en la que pudieran encontrar listados de políticas y programas sociales puntuados en función de su eficacia, probada con la evidencia empírica. Estos programas vendrían clasificados por ámbitos: salud, empleo, formación, educación y pobreza, por ejemplo, y según los objetivos que pretenden alcanzar: reducir el consumo de una sustancia nociva, la inserción de los parados de larga duración, aumentar la participación en la formación continua, reducir el abandono escolar, erradicar la pobreza infantil, por poner también unos ejemplos.

Cada programa o política sería puntuado, tomando, por ejemplo, valores positivos cuando se dispone de evidencia consistente y consensuada que ha mostrado ser eficaz, es decir, ha alcanzado sus objetivos en aplicaciones previas, y tendrían valores negativos aquellos de los que la evidencia muestre lo contrario, es decir, que han mostrado ser ineficaces. Además, la puntuación aumentaría (en valor absoluto) a medida que los resultados reportados sean más sólidos y generalizables, esto es, que se obtengan mediante evaluaciones que sigan unos criterios científicos que garanticen su calidad, que se mantengan en distintas localidades o ámbitos, con distintos procedimientos y en el tiempo. Valores inferiores se darían a aquellos programas para los que no existe aún suficientes evaluaciones de calidad y sus resultados no sea generalizables, o para los que se obtengan resultados dispares. El valor cero se dejaría para aquellos para los que, aún habiendo evidencia no se puede concluir que han sido eficaces o ineficaces. Aquellos programas para los que no se disponga de evidencia no sería puntuados.Claro está, la puntuación otorgada sería documentada y justificada, y complementada con otro tipo de información como la sospechas de que pueden tener efectos indirectos sobre colectivos no beneficiarios, por ejemplo.

¿Para qué podría servir este tipo de página web? Yendo un poco más allá, esta información podría incorporarse a los proyectos de presupuestos, junto con los costes financieros previstos de cada política o programa, sirviendo para los debates parlamentarios. De igual manera, podrían incorporarse a los programas electorales. La idea es que los gestores públicos puedan tomar sus decisiones siguiendo no sólo su ideología, sino también basándose en una evidencia que pueda asegurar que el dinero público se gaste eficazmente, es decir, tenga un impacto real sobre el bienestar de la gente, al margen de especulaciones o presiones para satisfacer los intereses de unos lobbies (**) . Los beneficiarios de estas políticas podrían también ser los usuarios de una página similar. Por ejemplo, los receptores de unos bonos de formación podría usarlos en aquellos cursos que hayan mostrado ser más eficaces par la inserción o promoción laboral. Finalmente, los usuarios últimos podríamos ser los votantes.

Pueden considerar Vds que no es más que un sueño de una noche de verano de un fanático de la política basada en la evidencia, ciencia ficción, que estamos a mil años luz de ver algo similar, al menos en nuestro país, y que en cualquier caso habría que discutir muy mucho sobre la utilidad y los posibles efectos que podría tener una herramienta similar, y en parte estaría de acuerdo. Sin embargo, en EEUU, existen ya algunas páginas de este tipo. Así, la Coalition for Evidence-based Policy, mantuvo activa entre 2008-2015 una página web en la que se un panel de expertos identificaban programas sociales “respaldados por fuertes evidencias de que tienen impactos importantes en las vida de las personas”. El objetivo de esta iniciativa era asistir a gestores públicos en la identificación de intervenciones que cumplieran estándares de “evidencia de nivel superior” (Top tier evidence).

Los programas eran clasificados en función del nivel de confianza  de producirían importantes efectos si se implementaran fielmente en entornos y poblaciones similares a las de los estudios originales. Así, pueden ser considerados como "Top Tier"  cuando se dispone dichos efectos se obtienen con al menos 2 RCTs (Pruebas controladas aleatorizadas) llevados a cabo en diferentes lugares o alternativamente por un amplio RCT implementado en varias localidades y "Near Top  Tier" cumplan resultados similares a los del Top Tier, pero que necesiten replicas, al basarse en un único estudio, es decir, que confirme que se pueden generalizar los resultados a varios ámbitos.

El relevo de esta página ha sido tomado por la página de la Social Programmes That Work (evidencebasedprograms.org) de la  Laura and John Arnold Foundation’s (LJAF). Además de los programas "Top Tier" y "Near Top Tier", añadieron una nueva categoría que denominaron "Suggestive Top Tier" para los programas que han sido evaluados con uno o varios RCT (o con evidencia cuasi-experimental) y de lo que se obtienen efectos positivos, aunque sólo para el corto plazo, o efectos con escasa significatividad estadística.  En la actualidad, la página proporciona una lista de programas en 11 áreas temáticas,  actualidad, 12 programas han sido clasificados "Top Tier", 15  como "Near Top Tier2, y 31 han sido considerados como "Suggestive Top Tier"

En un reciente monográfico que la American Academy of Political Science, varios expertos, no sólo académicos, hace repaso a la historia del movimiento de la política basa en la evidencia en EEUU, cómo se ha llegado por ejemplo a este tipo de herramienta, su impacto en la práctica y también los retos y expectativas que ha generado y sigue generando el movimiento en este país.

En su introducción, Ron Haskins menciona tres factores que han influido sobre el desarrollo de este movimiento. El primero es que las ciencias sociales han avanzado suficientemente para proveer evidencia que puede ser útil para la formulación de políticas. El segundo factor es que tanto los gobiernos estatales como locales han acumulado suficiente masa crítica de programas basados en la evidencia. El tercero, y quizás más importante, es que cada vez más gestores públicos están convencidos de que pueden usar la evidencia para desarrollar políticas que funcionan o que, al menos,  prometen funcionar.  Así, en un país extremadamente dividido políticamente en multitud de temas, se aprobó  la creación de una Commission on Evidence-Based Policymaking, votada de forma unánimemente tanto en el Senado y en el Congreso. Los trabajos de esta Comisión se concretaron en una serie de recomendaciones centradas especialmente en promover un acceso más eficaz y efectivo de los datos que las agencias federales y estatales colectan para mejorar la evidencia disponible sobre las políticas públicas.

Conclusiones

Si tuviéramos que importar este modelo en España, probablemente tardásemos unos 50 años, los mismos que llevamos de retraso con EEUU en materia de evaluación de programas públicos usando RCTs.  Estamos bien lejos de tener una masa critica, los RCTs en políticas sociales de los que disponemos podrían contarse con los dedos de la mano de un manco. Pero, lo que si tenemos ya es una masa crítica de investigadores sociales suficientemente preparados para contribuir a que este movimiento se ponga también en marcha en nuestro país. Cierto es que EEUU no es el único modelo a seguir en esta materia. La experiencia en otros países, por ejemplo, el What Works Network en el Reino Unido lleva ya unos cuantos años funcionando sobre una base distinta, apoyando en la implementación, gestión y evaluación de políticas públicas con muy buenos resultados.

Por otra parte, sin quitar importancia a este tipo de experimentos para extraer conclusiones causales, que por tanto permitirían realizar recomendaciones informadas, aún sabiendo de sus límites (ver las discusiones en varias entradas anteriores de este blog, aquí o aquí, por ejemplo),y mientras no se extienda su cultura en España, hemos de acudir a evaluaciones cuasi-experimentales, y para avanzar en esta materia, es estrictamente necesario que se abra el acceso de los datos administrativos a la comunidad científica, y se pueda canalizar todo el trabajo realizado por nuestros investigadores sociales para que pueda revertir en la sociedad. El acceso abierto a estos microdatos es condición sine qua non no sólo para que mejore nuestra gestión de programas públicos,  también para entender mejor como funciona nuestra economía, y cuales son los efectos reales de las distintas regulaciones e instituciones.

Pero el movimiento se demuestra andando, preferiblemente hacia delante.

En mi entrada anterior, reclamaba a los nuevos responsables del ministerio de trabajo  que hiceran un esfuerzo y dieran un paso hacia delante, abriendo el acceso de una serie de microdatos necesarios para avanzar en nuestro conocimiento de cómo funciona el mercado de trabajo español y evaluar las políticas de empleo. También apelaba a la Airef para jugase un rol aún más relevante en la evaluación de políticas públicas y permitiera el acceso a lo datos que manejan para el Spending Review. El objetivo es que pudiera disponer de un stock de evidencia que facilitara las próximas edicaciones de mismo.

Pasaron dos cosas desde entonces: una negativa y otra positiva. La primera es que el gobierno decidió prescindir de la Dirección General de Estadísticas y Estudios Sociolaborales, encargada de gestionar los cruces entre distintas bases de datos del propio ministerio, como las procedentes del Servicio Público de Empleo, y los datos de afiliación a la Seguridad Social. Un paso atrás importante, que esperemos sinceramente no sea la señal de un nuevo apagón estadístico.

La (muy positiva) es que parece que la Airef si que estaría dispuesta a dar el paso de abrir el acceso a los datos. Asi lo trasmitió el propio presidente de la Airef en un arículo en El País. Retomand los términos utilzados en el post, decía que:

“Ahora creemos que es momento de dar un paso más y aprovechar la fuerza de la inteligencia colectiva en la evaluación de políticas, abriendo a la comunidad científica los datos cedidos para este Spending Review y ofreciendo la infraestructura de seguridad construida para garantizar la confidencialidad de los datos, así como el tratamiento previo de la información recopilada para facilitar su uso para el análisis. Con ello, la AIReF quiere contribuir a la consecución de una verdadera estrategia nacional de evaluación de políticas públicas”.

Creo sinceramente que esta es la buena y única dirección. Bien estaría que los distintos grupos políticos dieran un paso conjunto y apoyarán esta iniciativa, regulando y proporcionando los recursos que facilitar esta tarea y puedan así beneficiarse de esta labor.

Desde luego, creo que recibiría el apoyo casi unánime de la comunidad científica. Mi pregunta es:  ¿qué podemos hacer desde la comunidad científica para mostrar nuestro firme apoyo a esta iniciativa?

(*) Graham Leicester (1999) Viewpoint: The Seven Enemies of Evidence-Based PolicyPublic Money & Management 19:1, pages 5-7. vía Eulalia Dalmau,

http://findouteulalia.blogspot.com/2018/07/back-to-basics-7-enemies-of-evidence.html

(**) Una propuesta similar se puede encontrar aquí para su implementación por el Congressional Budget Office (CBO) de EEUU. Este ya evalúa el presupuesto y otorga una puntuación a cada acción o programa en función de los costes que generaría si se convirtiera en ley. Esta puntuación es ponderada ponderada en función de los beneficios esperados para los ciudadanos (en términos de salud, carga fiscal, seguridad nacional, .., pero estas ponderaciones no se basan aún en la evidencia empírica disponible. Estas puntuaciones también podrían variar en función de la fuente de financiación, por ejemplo, vía una reducción de impuestos o unas subvenciones (ver por ejemplo, esta propuesta)

 



jueves, 26 de julio de 2018

Economía liberal y corridas de toros

Como cada verano cuando visito España, llega el día en el que nos tomamos un café en algún bar donde un nutrido grupo de gente, normalmente de avanzada edad, parece disfrutar de algún espectáculo taurino.  Mis hijos, que han crecido fuera de España, perplejos ante el sanguíneo espectáculo me hacen siempre dos inevitables preguntas: ¿cómo es posible que alguien disfrute viendo algo así? y ¿esto no está prohibido? Mi respuesta a la primera pregunta siempre es: “No tengo ni idea.” La respuesta a la segunda suele ser: “Los toros en España es un asunto muy delicado.” Vaya por delante que detesto las corridas de toros. No las puedo entender. Pero en esta entrada me quiero poner el sombrero de economista liberal e intentar responder a dicha pregunta fríamente, sin dejar que estos sentimientos afecten el análisis.

Los economistas liberales creemos que el gobierno debe entrometerse más bien poco en la vida de la gente a no ser que haya una evidencia clara que los mecanismos de mercados no funcionan. Un supuesto clave en nuestra forma de pensar es que la gente es utilitarista, en el sentido de que van por la vida maximizando lo que llamamos su función de utilidad o de felicidad. Podríamos hacer el supuesto que los toros también maximizan su utilidad, pero tal vez esto es un poco irreal. Supongamos, en cambio, que queremos, de forma altruista, lo mejor para el toro. Existen tres opciones para el tipo de vida que puede tener un toro en un país moderno: la primera, vivir toda su vida en una pequeña jaula hasta ser sacrificado de forma rápida y sin apenas dolor, para el consumo de su carne. La segunda, puesto que la carne de toro no tiene demasiado valor comercial, dejar de criar toros, lo que, eventualmente, llevaría a su extinción. Y la tercera, vivir una vida en el campo, con espacio y bien alimentado, pero eso sí, muriendo lentamente y pasándolas canutas una tarde de agosto en cualquier plaza de toros. ¿Qué elegiría alguien que se preocupa principalmente por el bienestar del toro? Es posible que mucha gente piense que la primera opción, vivir enjaulado y morir sin sufrimiento, es la mejor para el toro. Sin embargo, es difícil justificar elección si eres un economista utilitarista. Es cierto que el modelo utilitarista asume que a la gente (a los toros, en este caso) les molesta mucho tener grandes cambios en la felicidad a lo largo de su vida -es preferible, por ejemplo, consumir la misma cantidad de bienes a lo largo de la vida, que disfrutar mucho algunos años y pasar hambre en otros-. Es decir, se prefiere alisar el consumo a lo largo del tiempo a tener cambios bruscos en él. En este caso hablamos del consumo de bienestar y el modelo implica que la aversión a unas horas de tortura podría pesar más que una vida disfrutando de espacio y buenos alimentos. Sin embargo, es difícil imaginar que esa pérdida de utilidad le haría elegir al economista liberal la opción de vivir en cautividad (y por lo tanto con la misma bajísima felicidad) toda su vida. Así que, el modelo utilitarista nos dice que seguramente el toro, si se le hiciese la pregunta, elegiría morir en la plaza. La segunda opción -dejar de criar toros de lidia y por lo tanto, llevarles a su extinción- es más difícil de evaluar. Por un lado, seguramente muchos de nosotros damos valor a que sigan existiendo cuantas más especies de animales como sea posible, aunque hay que decir que el toro de lidia es una especie artificial. Esta preferencia es obvia para un biólogo y algo abstracta para la mayoría de la gente, pero parece que, bajo esta perspectiva, también la opción de morir en la plaza es la menos mala. Otra forma, aun mas filosófica, de plantearse el efecto de la extinción de una especie es pensar en el bienestar de los toros que nuca llegaran a nacer. Esta discusión es la misma  (ver aquí) que la que analiza  hasta qué punto una sociedad está peor si nacen menos niños en el sentido de que privamos de disfrutar de la vida a gente que aún no existe (¿qué peso le asignamos a seres que aún no han nacido?). Si pensamos que estos aún inexistentes seres deben ser respetados, seguramente la opción de las corridas sigue siendo la mejor.

Pensándolo así, ¿cómo puede justificarse la prohibición de las corridas desde un punto de vista utilitarista? Seguramente el argumento de fondo es que, la mayoría de gente (donde me incluyo) no entiende que alguien disfrute y esté dispuesto a pagar bastante para ver sufrir a un animal. Los defensores de las corridas argumentan que eso es lo de menos, que lo que de verdad importa es el arte asociado a cómo se mata al animal. Pero este argumento es muy subjetivo: para los que no entendemos (ni queremos entender) este supuesto arte, el espectáculo de ver sufrir a un animal pesa mucho más. El otro clásico argumento de los defensores de las corridas es que se trata de una tradición muy antigua, pero huelga decir que la longevidad de una tradición no puede, per se, justificar su perpetuación. La realidad es que las corridas de toros vienen de una cultura de antaño y que hoy es totalmente ajena a muchos españoles, incluso los que han vivido siempre aquí. La sensibilidad por los derechos de los animales va aumentando a lo largo del tiempo, aunque eso sí, va tan despacio (véase la normativa sobre la explotación de carne y sobre jaulas) que es difícil pensar que tenga la suficiente fuerza para que desaparezcan las corridas de toros en el medio plazo

Me gustaría hacer ver al lector que en el párrafo anterior ya no estamos hablando de la felicidad del toro, sino de nuestras preferencias sobre lo que es moralmente aceptable y lo que no lo es. Y ahí el economista utilitarista entra en terreno pantanoso. Ya nos contaron los premios Nobel Gary Becker y George Stigler hace muchos años (aquí) que de gustibus non est dispuntandum, o sea que poco podemos (ni debemos) hacer para cambiar los gustos de la gente. Por lo tanto, el argumento de prohibir un espectáculo cruel porque nos molesta tiene poco peso. Lo que sí tendría más sentido, en mi opinión, es interpretar las corridas de toros como algo que genera una externalidad negativa en la mayoría de la sociedad. El hecho de que en un pueblo se torture a un animal y los espectadores disfruten del espectáculo, genera un efecto negativo en muchos de los aldeanos y, por lo tanto, es eficiente que los que van a la corrida les compensen de alguna forma por esta externalidad. Alguien podría decir: “lo mismo ocurre con permitir a parejas homosexuales caminar de la mano por la calle.” A un homófobo le molesta eso y podría argumentar que esas parejas deberían pagar un impuesto por la externalidad que a él le genera verles. Jose Luis Ferreira escribió sobre el tema aquí. No obstante, una diferencia clave es que en este caso no hay un abuso contra nadie, mientras que, en el caso de las corridas de toros, la legislación de protección y bienestar animal deja claro que hay formas mucho menos crueles de acabar con la vida de un animal. Así que el economista liberal estaría conforme con preguntar a la sociedad si quiere aplicar un impuesto pigouviano que corrija la externalidad causada por las corridas de toros. En caso de ser aprobado, ese impuesto se añadiría al coste de la entrada y su recaudación podría usarse para compensar al resto de la sociedad, por ejemplo, construyendo una bonita fuente. O, tal vez, para financiar una ONG que se dedique a proteger o a mejorar la calidad de vida de otros animales. Esto me recuerda cuando hace tres años un cazador norteamericano mató, por deporte, al famoso león africano Cecil (ver aquí). El principal argumento en contra de castigar al individuo fue que había pagado por un permiso (bastante caro, si no recuerdo mal) que le permitía matar leones. Además, aunque supongo que a mucha gente nos pareció horrible su acto, se dijo que ese dinero se usaba (desconozco cuánto hay de cierto en esto) para, tal vez paradójicamente, proteger la vida de muchos otros leones de la zona.

En resumen: si la cuestión fuera prohibir corridas de pollos que se pasan la vida en una jaula y el ultimo día en el planeta se les tortura, el economista utilitarista sugeriría que se prohibieran, puesto que cualquier pollo estaría objetivamente peor con la práctica de ese espectáculo. Pero como a los toros de lidia se les compensa con una muy buena vida… el modelo no tiene esa implicación. Solamente si aceptamos que las corridas de toros generan una clara externalidad negativa en una parte sustancial de la sociedad, el modelo apoyaría la instauración de un impuesto para compensarle por ello.



miércoles, 25 de julio de 2018

El impuesto a la banca (neto de populismo)

La nueva Ministra de Hacienda, María Jesús Montero, ha anunciado recientemente un plan de creación de nuevos espacios fiscales para el siglo XXI que incluiría, entre otras medidas, la introducción de un impuesto extraordinario a la banca. Es la evolución coherente de la propuesta del PSOE, planteada por Pedro Sánchez en enero de 2018, de imponer una sobretasa en el impuesto de sociedades al sector bancario para sostener el sistema público de pensiones. En virtud de la robinhoodiana combinación banca-rica-pensionistas-pobres la iniciativa tiene una innegable potencia política, y contará con amplio apoyo de la ciudadanía y reducida oposición entre el plantel político. De hecho, “Podemos” ha entrado a competir con el PSOE para atribuirse el mérito de la propuesta.

Como es habitual en nuestro país con independencia del partido en el gobierno, estas medidas-estrella de política económica suelen venir acompañadas más de una campaña de marketing que de un análisis serio de sus consecuencias. Superado el efecto mediático de ciertas declaraciones - “Si los españoles contribuyeron con el sudor de su frente al rescate a la banca, es justo que ahora sea la banca la que ayude a sostener el sistema de pensiones” (P. Sánchez) - nada ha trascendido sobre algo que se parezca remotamente a una evaluación ex ante de la medida, excepto que con el nuevo impuesto se espera recaudar unos 1.000 millones de euros (algo más de un 0,1 por cien del PIB).

A continuación, y con la información disponible, voy a hacer una valoración rápida de la medida propuesta por el gobierno, a modo de apuntes sobre lo que debería ser una evaluación económica ex ante, después de eliminar los ingredientes populistas. Mi valoración general coincide en algunos aspectos con la de Joaquín Maudos o la de José Moisés y Manuel Hidalgo, cuyas lecturas les recomiendo.

La evaluación ex ante de cualquier política económica debe responder a tres cuestiones: A) ¿Está justificada la medida propuesta? B) ¿Es factible su implementación? C) ¿Es esperable que cumpla con los objetivos para los que se ha diseñado?

  1. A) ¿Está justificada la medida propuesta?

Tres son los argumentos que se han utilizado para apoyar el nuevo impuesto a la banca.

1) La banca ha necesitado durante la crisis de un rescate con un elevado coste para el contribuyente.

Este argumento se puede interpretar en términos del pasado (la banca, con su comportamiento irresponsable, originó un problema y merece ser castigada por ello) o en términos de futuro (la banca puede, en el futuro, crear un problema similar, y una recarga en el impuesto sobre sus beneficios puede contribuir a reducir la probabilidad de que esto ocurra). En relación al pasado, las entidades rescatadas fueron básicamente cajas de ahorro. La mayoría de los bancos no recibieron ayudas, sino que han contribuido con sus aportaciones al Fondo de Garantía de Depósitos (FGD) a solucionar parte del problema generado por las entidades rescatadas. Por lo tanto, desde el punto de vista del pasado el mismo argumento exoneraría del pago del impuesto a una parte importante del sector bancario.

En cuanto al argumento hacia el futuro, cabe recordar que la nueva regulación bancaria limita de forma importante las aportaciones de dinero público en las quiebras bancarias, estableciendo un cortafuegos a las mismas por medio del coste que deben soportar los accionistas y acreedores.

Faltaría por cuantificar el papel que un impuesto sobre los beneficios puede jugar en la probabilidad de crisis financieras futuras. La evidencia empírica reciente (como este experimento cuasi natural) apunta, por el contrario, a que el esfuerzo de la banca para monitorizar la calidad de su activo disminuye con el impuesto. En cualquier caso, los mecanismos de supervisión y las regulaciones prudenciales parecen instrumentos más eficaces que un impuesto para modular la asunción de riesgos del sector.

2) Los bancos contribuyen menos en términos fiscales que otras empresas.

Según la información de la Agencia Estatal de Administración Tributaria (AEAT) el tipo efectivo (en % de la base imponible sin consolidar) para todas las empresas en el periodo 2007-2015 fue del 18,4% en promedio, en comparación con un 20,2% para las entidades de crédito con beneficios. En el año 2015, la tasa efectiva (en % del resultado contable) fue del 10% para el conjunto de empresas y del 26% para las entidades de crédito.

Por lo tanto, con la información de la AEAT no parece que este argumento se sostenga. Además, al impuesto sobre sociedades se podría añadir el IVA soportado por el sector, que no puede ser repercutido, al estar las operaciones financieras exentas de IVA, y las aportaciones ordinarias y extraordinarias al FGD de las que he hablado en el punto anterior.

3) El salario medio en el sector financiero es superior al del resto de sectores en la economía, lo que apuntaría a una apropiación extraordinaria de renta por parte del factor trabajo, probablemente más acusada en el tramo alto de la escala salarial (una exposición más detallada de este argumento puede encontrarse en este artículo de Javier G. Jorrín en El Confidencial).

No se entiende que el pagar salarios más elevados en un sector, con independencia de las causas, sea un argumento para gravar más el capital con fines recaudatorios. El tipo implícito medio sobre las rentas del trabajo en España se sitúa en torno a 32 puntos, de los que 22 corresponden a las cotizaciones sociales. El tipo marginal de los salarios más elevados en el IRPF es del 45 por cien. Frente a estos tipos, la sobretasa propuesta en el impuesto sobre sociedades a la banca se estima en un 8 por cien.

Por lo tanto, por comparación con lo que sería el equivalente en beneficios, no parece que el excesivo peso de los salarios más elevados en el valor añadido sea un factor que afecte negativamente a la recaudación, sino más bien al contrario.

Un último matiz en relación al comportamiento de los salarios en el sector bancario. Si los bancos tuvieran un comportamiento similar a las empresas-superestrella, deberíamos  esperar, a la luz de la última evidencia disponible (Autor et al, 2017), que su mayor poder de mercado estuviera acompañado de una menor participación de los salarios en el VAB. La evidencia para España indica que en promedio la participación de los salarios en el VAB del sector financiero y seguros (en el que se encuentra la banca) ha sido 4 puntos porcentuales superior a la del resto de la economía desde 1995 hasta 2017.

  1. B) ¿Es factible su implementación?

Hasta lo que se conoce, lo recaudado con el nuevo gravamen a la banca se destinará a rellenar parte de la hucha de las pensiones. A un impuesto que se recauda con una finalidad concreta se le llama impuesto finalista. La propuesta de hacer del impuesto a la banca un impuesto finalista contraviene la normativa europea. Los impuestos finalistas sobre sectores o actividades concretas sólo tienen sentido cuando existen externalidades negativas (como los medioambientales), porque se quiere aumentar el coste de generar la externalidad (la contaminación) y reducir la actividad que la genera aumentando el precio que pagan los consumidores. Además, la recaudación de un impuesto finalista ha de estar vinculada a un gasto relacionado con la actividad que se quiere gravar[1] (por ejemplo, en el caso de un impuesto medioambiental, se puede recaudar para invertir en reforestación o limpieza de aguas, o en el caso de la banca, se podría recaudar para aumentar las aportaciones al FGD).

No se puede aplicar un impuesto finalista a la banca sin identificar antes las externalidades negativas a corregir. Y aunque se pudiera aplicar, no se podría utilizar para aliviar el déficit de la Seguridad Social porque las pensiones no están ligadas a la actividad de la banca. Y aunque se utilizara para gastar en pensiones, estaríamos todavía lejos de solucionar el problema, pues los 1.000 millones que se espera recaudar representan poco más del 5% del déficit de la Seguridad Social en 2017.

  1. C) ¿Es esperable que el impuesto cumpla con los objetivos para los que se ha diseñado?

La idea que se está vendiendo de cuáles serán los efectos de la política es la siguiente: se impone un recargo a la banca sobre los beneficios del 8%, pero las comisiones y los tipos de interés de los créditos y depósitos no van a cambiar. En estas circunstancias la recaudación aumentaría un 8% de los beneficios antes de impuestos, es decir, unos 1.000 millones, y los beneficios de la banca después de impuestos se reducirían en esa proporción. Se produciría una transferencia pura de beneficios a pensiones sin pérdida de eficiencia, pues lo que perderían los bancos (y sus accionistas) se compensaría exactamente con lo que recaudaría el estado.

Para que lo anterior suceda a corto, medio, y largo plazo, lo que la teoría económica nos enseña es que la banca debería ofrecer siempre la misma cantidad fija de productos financieros con independencia de cuáles fueran los tipos de interés, algo que, obviamente, no sucede en la realidad. De hecho, cuando hay mucha competencia en el mercado, la situación en el largo plazo será justo la contraria: el impuesto tendrá muy poco efecto sobre los reducidos beneficios y se trasladará íntegramente a los tipos de interés, por lo que serían los clientes de la banca (hogares y empresas) los que terminarían pagando el impuesto.

Entre estos dos extremos hay una gran casuística teórica que depende, básicamente, de la intensidad de la competencia en el sector, y del modo en el que los clientes reaccionan ante los cambios en los tipos de interés (es decir, de la elasticidad de la demanda)[2]. Hablando de imposición óptima, cuanto más elástica es la curva de demanda del sector bancario, menos justificado está el impuesto, pues mayor es la pérdida irrecuperable de eficiencia asociada con una contracción del crédito. Sin embargo, cuanto más inelástica es la curva de demanda a la que se enfrenta un banco en el sector, menor tendría que ser el impuesto, para compensar así el efecto negativo de los mayores márgenes financieros sobre los consumidores.

Dicho esto, no se puede dar por finalizado el debate sobre la idoneidad de un impuesto a la banca sólo a partir del análisis de equilibrio parcial de su incidencia. El impuesto desencadenaría también importantes efectos de equilibrio general. Supongamos que la curva de demanda del sector es muy elástica (para que el resultado inicial sea una baja traslación del impuesto a los consumidores, como desearía el gobierno). En este caso, los beneficios bancarios caerían (lo que parece entrar dentro de los cálculos optimistas de los partidarios), y el volumen de crédito se reduciría considerablemente (esto es lo que suele suceder cuando la demanda es muy elástica). Hasta aquí los efectos de equilibrio parcial.

El equilibrio general también tendría en cuenta, por ejemplo,  que el crédito se dirige a hogares para financiar sus planes de consumo o adquisición de viviendas, y a las empresas, para financiar sus decisiones de inversión. La contracción del crédito provocaría entonces efectos en el sector de la vivienda, en el capital productivo, en la demanda de productos y en el empleo. Los cambios en el precio de la vivienda afectarían al valor del colateral que los hogares utilizan para asegurar su deuda, lo que impactaría sobre la calidad de los balances de los bancos. A su vez, la reducción en el beneficio deterioraría la capacidad de la banca de generar capital, lo que le desviaría de la ratio de solvencia que impone Basilea, afectando de nuevo por esta vía a los márgenes financieros y a la oferta de crédito, en el intento de la banca de restaurar dicha ratio. Todos estos efectos negativos no se verían completamente compensados por el aumento de la demanda de los consumidores que se benefician de las mayores transferencias públicas, por lo que el balance neto sería negativo.

Tanto el Ministerio de Economía como el Ministerio de Hacienda disponen de una herramienta que permite simular los efectos macroeconómicos dinámicos de equilibrio general de un impuesto a la banca bajo distintos escenarios, por lo que recomiendo su uso para cuantificar todos los efectos que acabo de comentar.

A esta alturas del post seguro que hay quien piensa que todo lo dicho queda en el plano de lo teórico. A fin de cuentas, las evaluaciones ex ante, al carecer del soporte de los resultados observados de la medida de política, trabajan con contrafactuales. Sin embargo, una primera pista de que la banca sí traslada a los tipos de interés y al volumen de crédito los cambios en los costes nos la da la política monetaria. Si los tipos de interés que la banca cobra y paga a sus clientes fueran insensibles a los costes financieros, muchos de los instrumentos utilizados por el BCE para terminar cambiando las condiciones del crédito no tendrían sentido.

Afortunadamente, tenemos algunos (pocos) resultados que proceden de la evaluación ex post de medidas similares en otros países. Todos ellos encuentran, de forma nada sorprendente, que los bancos terminan trasladando parte del impuesto a los tipos de interés y a las comisiones, y que la oferta de crédito se ve negativamente afectada. Existe evidencia para Tokio (Banerji et al, 2017), para un panel de países de la UE (Kogler, 2016), o para Hungría (Capelle-Blancard y Havrylchyk, 2017).

Como conclusión, el impuesto extraordinario a la banca en España tiene difícil justificación, se enfrenta a problemas de implementación en su diseño finalista, no resuelve el problema de las pensiones y, en caso de aplicarse, generará con una elevada probabilidad aumentos en los tipos de interés y reducción del volumen de crédito, con el consiguiente impacto negativo en la actividad económica.

El gobierno está todavía a tiempo de rectificar, como ya hizo el mismísimo Humphrey: “anoche dijimos muchas cosas”. En cualquier caso, con impuesto o sin impuesto, recuerden que siempre nos quedará París.

Buen verano a todos los lectores.

 

 

 

 

[1] Esta fue una de las razones por las que el Tribunal de Justicia de la Unión Europea dictaminó que el céntimo sanitario era contrario al derecho comunitario.

[2] El lector interesado puede ver derivada la fórmula del impuesto óptimo en condiciones de competencia monopolística en Reinhorn (2011) .



martes, 24 de julio de 2018

Incentivos y recursos para mejorar la salud en las escuelas (Chinas)

Primero una disculpa porque hace bastante que no he escrito. Mi excusa les cae bastante cerca: nuestro Antonio me encomendó la tarea de jefe de exámenes aquí en el departamento, y dicha tarea me ha tenido muy ocupado. Y que conste que no le echo la culpa a Antonio, sino a mi limitada capacidad de trabajo. Otro día escribiré sobre la (gran) diferencia que existe en el sistema de exámenes universitarios en España y en el Reino Unido (hay más economía en el asunto de lo que uno pensaría), pero antes me tengo que poner al día de los cambios que ha habido en España, que seguro que alguno ha habido desde que yo daba clases.

Hoy quería hablarles sobre uno de mis temas de investigación favoritos, y sobre el que he escrito en alguna otra ocasión (aquí, aquí, y aquí): los incentivos en salud. El artículo (“Can Bureaucrats Really Be Paid Like CEOs? Substitution Between Incentives and Resources Among School Administrators in China”), que pronto saldrá publicado, (versión documento de trabajo aquí) combina educación y salud, pues se trata de un experimento sobre incentivos para mejorar la salud en escuelas rurales de China. Una paréntesis para decir que desde hace ya algún tiempo, la asistencia al colegio de educación primaria es muy alta en países o zonas pobres, por lo que puede ser muy coste-efectivo intentar mejorar la salud interviniendo en las escuelas: tienes a muchos niños juntos por lo que los costes de acceso son limitados. Por ejemplo, este estudio que ha sido uno de los artículos más influyentes en la Economía del Desarrollo (y que no ha estado libre de polémica) muestra que distribuir medicinas en las escuelas rurales de Kenya para desparasitar a los niños de lombrices ha tenido efectos a largo plazo en la educación y oferta de trabajo de los niños cuando han llegado a adultos (quien esté interesado en la polémica, puede empezar, pero no acabar, por aquí). Las intervenciones para mejorar la salud en las escuelas también son populares en nuestro entorno. Véase, por ejemplo, la entrada reciente de Toni Mora y Beatriz Valcárcel sobre una intervención para mejorar los hábitos alimenticios en escuelas de Barcelona.

Sobre el trabajo en China, mis co-autores (Renfu Luo, Grant Miller, Scott Rozelle, Sean Sylvia) y yo analizamos un experimento en el que 170 escuelas fueron aletoriamente asignadas a dos tipos de tratamiento. Un tipo de tratamiento es si el director de la escuela recibe un incentivo monetario considerable para disminuir la anemia entre los niños del colegio, o un incentivo pequeño, o ningún incentivo. Otro tipo de tratamiento es si la escuela recibe una subida pequeña o una subida mayor en su presupuesto. Se trata de un diseño de 3x2.

Distribución de escuelas según el tratamiento al que fue asignada aleatoriamente
  Sin Incentivo Incentivo Pequeño Incentivo Considerable
Subida menor de presupuesto 32 escuelas 20 escuelas 33 escuelas
Subida mayor de presupuesto 33 escuelas 20 escuelas 32 escuelas

Para darles una idea, la subida pequeña en el presupuesto era suficiente para comprar suplementos de hierro para todos los niños, y la subida mayor era equivalente a comprar 60 gramos de carne para cada niño de la escuela tres días a la semana. Cabe decir que los directores de la escuela eran libre de gastarse en dinero de otras formas (siempre que se lo gastaran en la escuela), y de hecho se gastaron un porcentaje importante en cosas que no tienen que ver con la nutrición o la salud. En cuantos al incentivo, con la reducción de anemia que nosotros esperábamos, el director de la escuela podría aumentar su salario en un 15% con el incentivo considerable, y en un 1.5% con el incentivo pequeño.

Pues bien, ¿cuáles fueron los resultados tras 9 meses de experimento? Empecemos por el incentivo pequeño. En media no funcionó, es decir, no afectó a la tasa de niños con anemia. Pero en línea con lo que predice algunas teorías del comportamiento (por ejemplo, véase este artículo de nuestro Pedro), tuvo un efecto adverso en aquellos directores de escuelas que tenían unas preferencias más sociales. Lección: tener cuidado con los incentivos muy pequeños, pueden tener efectos adversos.

Qué pasó con el presupuesto y con el incentivo considerable. Si partimos de la situación (incentivo nulo – subida menor de presupuesto), y subimos el presupuesto entonces la tasa de anemia (entre los niños que eran anémicos al comienzo del experimento) se reduce en un 40% gracias a subir el presupuesto. La misma reducción se consiguió partiendo de la situación (incentivo nulo – subida menor de presupuesto) y subiendo el incentivo hasta llegar al nivel del incentivo considerable. Tanto la subida de presupuesto como la subida del incentivo funcionaron, y además lo hicieron en magnitudes muy similares. El incentivo costó mucho menos que el presupuesto adicional, así que en este caso el incentivo fue más coste-efectivo. Pero hay que tener cuidado y no generalizar. Solo podemos decir lo que pasó con los contratos analizados, y no podemos hacer generalizaciones del tipo de “incentivos son más coste-efectivos que subidas presupuestarias.” Por ejemplo, no sabemos que hubiera pasado si la subida en el presupuesto no hubiese sido tan grande. Quizás hubiéramos obtenido la misma reducción en la tasa de anemia. Por lo tanto, nuestra lección ha de ser comedida: se pueden diseñar subidas presupuestarias e incentivos monetarios a directores de escuela que reduzcan la anemia.

Un resultado muy interesante, y que no esperábamos, es que los directores de escuela que estaban incentivados diseñaron estrategias para que los padres también se involucraran en la mejora de la nutrición de sus niños: dieron charlas y organizaban reuniones donde hablaban a los padres sobre la importancia de la nutrición, y como podían mejorarla. De hecho, obtenemos el resultado que la dieta en el hogar mejora. Tiene todo el sentido: el director de la escuela quiere evitar el problema que los padres alimenten peor a los niños en el hogar porque están siendo mejor alimentados en el colegio. Este tipo de comportamiento de los padres disminuiría la mejora en la tasa de anemia, y por lo tanto el incentivo que el director de la escuela pueda ganar. Por lo tanto, es racional que el director de la escuela intente que no pase. Nótese que uno no esperaría ese comportamiento si el incentivo fuera por insumos (por ejemplo, por cantidad de carne que se le de a los niños).

Por último, llegamos a lo que más nos interesaba del experimento, que era si la subida de presupuesto y los incentivos son substitutos o complementarios. Cabría pensar que si tienen más recursos, y están bien incentivados, vayan a poder hacer cosas fabulosas para reducir la tasa de anemia. Pero nada de nada, la ley de rendimientos decrecientes es muy poderosa, y hubo una substitución muy fuerte entre recursos adicionales e incentivos, tanto que no hay diferencias estadísticamente significativas en la reducción de la tasa de anemia que se consigue con el mayor presupuesto y el incentivo considerable juntos, con la reducción que se consigue con cada uno por separado. Lección: no siempre más es mejor.



lunes, 23 de julio de 2018

¿Alérgicos al poder de mercado? I

El EpiPen, un medicamento auto-inyectable para tratar reacciones alérgicas severas, copó los titulares hace un par de años por una subida de casi un 500% en su precio. El EpiPen contiene epinefrina, una droga esencial para tratar la anafilaxis, una alergia capaz de causar la muerte en minutos. Si bien la compañía desarrolladora respondió a las presiones políticas con la creación de una versión “genérica” a mitad de precio, el hecho es que años después el precio del EpiPen, ya sea en su versión genérica u original, sigue siendo muy alto.

¿Por qué? Porque su fabricante tiene poca presión competitiva sobre su producto y por lo tanto mucho poder de mercado en un sector nicho.

El de EpiPen es un caso de dimensiones exageradas, pero ¿cuántos casos similares existirán que no han recibido la misma atención pública? ¿Qué es lo que está pasando con el poder de mercado a nivel general?

Para ser capaces de contestar estas preguntas es necesario entender cómo se mide este poder de mercado. Y he aquí la cuestión. El poder de mercado es justamente esa capacidad de las empresas de aumentar su precio por sobre el coste marginal, es decir que para medirlo debemos ser capaces de estimar el markup, o margen de ganancia.

Medir el markup es una tarea enormemente difícil: Recabar datos sobre costo marginal y precios para una cantidad grande y representativa de empresas es una tarea complicada. Tradicionalmente se ha abordado esta medición utilizando el llamado método de la demanda. Pero este método requiere del uso de datos sobre precios y cantidades (y de supuestos sobre la naturaleza de la competencia de las empresas y del mercado en sí) que no están disponibles para realizar un estudio generalizado a nivel país o a nivel global.

En respuesta a esto, De Loecker & Eeckhout (2017, 2018) han optado por utilizar una metodología basada en costes, cuya ventaja principal, además de no tener que realizar supuestos sobre demanda o competencia, radica en la posibilidad de extraer los datos de los estados financieros de las empresas. Utilizando información de empresas públicas, los autores estiman la evolución del markup en el tiempo y pueden agregar los datos a nivel de una economía.

Los gráficos siguientes muestran la evolución del markup promedio para EEUU desde 1955, para todo el mundo, y finalmente, para algunas regiones. La tendencia es muy clara y generalizada.

Figura 1. Markups promedio para Estados Unidos. 1955-2016

Fuente: De Loecker & Eeckhout (2018)

Para EEUU, a partir de los años ochenta los markups suben de manera sostenida hasta los 2000 y, después de la Gran Recesión del 2008 vuelven a subir hasta niveles de 1,6 en 2016. Este incremento significa que los precios están un 61% por encima del costo marginal.

A nivel global observamos lo mismo – una subida sostenida desde niveles cercanos a 1,1 en los 80’s a niveles de 1,6 en 2016.

Lo más interesante es la distribución de estos markups: la mediana permanece relativamente estable en el tiempo, pero no así la media. La subida se experimenta desde el percentil 75 en adelante, siendo el percentil 90 el que muestra la subida más fuerte: de 1.8 en 1980 a 2.8 en 2016. En conclusión, el cambio en el markup promedio se debe a unas pocas empresas dentro de cada industria.

Esta tendencia se observa dentro de cada sector, es decir, no se trata de un único sector como podría ser el de tecnología empujando la media de la economía.

Figura 2. Markups promedio a nivel mundial. 1980-2016

Figura 3. Markups promedio por regiones. 1980-2016

Fuente: De Loecker & Eeckhout (2018)

Esta medida innovadora de DeLoecker & Eeckhout (2017) abre dos discusiones interesantes: la importancia de los costes fijos (dado el cambio tecnológico) y de las inversiones en intangibles.

1.Un posible motivo del aumento de los markups sería el incremento que han experimentado los costes fijos desde los años 80: las empresas necesitarían ajustar sus precios a la alza para cubrir el aumento de los costes fijos. Sin embargo, utilizando el valor de mercado como proxy, los autores observan que los beneficios sí han aumentado aun teniendo en cuenta estos costes adicionales. El retorno sobre los activos sube de un 1% en los 80’s a un 8% en 2016. De hecho las empresas con mayores costes fijos son las que tiene markups, beneficios y pagos de dividendos más elevados. El gráfico nos muestra el cambio en el tiempo de la distribución de la tasa beneficios.

2.¿Y qué pasa con la inversión en intangibles, se incorpora? A priori las empresas no esconden gastos, si tuvieran más gastos en intangibles (inversión en capital humano via salarios, o formación; inversión en marca via gastos de marketing y publicidad; gastos de R&D; inversión en relaciones de ‘supply chain’) estos estarían reflejados en la cuenta de resultados. Y si no lo están, pasan a verse reflejados en los beneficios. De hecho los gastos en R&D se traducen en beneficios más altos además de precios más altos. En una economía competitiva, R&D aumentaría markups pero no beneficios.

En otras palabras, el aumento observado en el markup es indicativo de un aumento en el poder de mercado.  ¿Y qué implicaciones económicas tiene esto? En la próxima entrada nos concentraremos en este tema.



Pablo Casado y la economía vudú

Pablo Casado ya es el presidente del PP y su campaña en clave económica ha recordado a la de Ronald Reagan en 1981. Reagan conoció a Arthur Laffer en un restaurante y en una servilleta le explicó lo que luego sería el pilar fundamental de su campaña y de su política económica: bajar los impuestos aumentará el empleo y la recaudación. En el mundo económico se les conoce como la economía vudú. 

Esa fue también la campaña de Aznar en el año 2000 en la que decían que la bajada de impuestos había aumentado la recaudación. Cristóbal Montoro era un ardiente defensor de la curva Laffer, el mismo que en 2011 aprobó una subida del IRPF (por encima de la propuesta de Izquierda Unida en la campaña), argumentado que era para reducir el déficit, todo lo contrario de lo que dice Laffer y él mismo había defendido.

1. Bajar impuestos no sube la recaudación, pero Pablo Casado sigue con la misma canción

La Universidad Complutense de Madrid nombró doctor en economía a Rodrigo Rato con sobresaliente cum laude con una tesis en la que defendió que la curva de Laffer en España se había cumplido durante su mandato y bajar impuestos aumentaba la recaudación.

 

Pablo Casado

La diferencia entre 1980, el año 2000 y hoy es que tenemos evidencia empírica para afirmar que siempre que se han bajado impuestos ha bajado la recaudación y cuando se han subido, ha subido la recaudación. En el gráfico anterior se ve claramente que lo que hizo Reagan en 1982 fue una política keynesiana. Keynes recomendaba bajar los impuestos en las recesiones para compensar la caída de consumo e inversión privada.

El problema es que Reagan bajó los ingresos públicos sobre PIB y aumentó el déficit y la deuda pública en medio de una estanflación y forzó a la Reserva Federal a mantener más altos los tipos de interés, lo cual apreció el dólar. La política fiscal expansiva y el dólar fuerte provocó un problema de déficit exterior que es estructural desde entonces en EEUU. Ahora Trump quiere resolver con proteccionismo sin subir el ahorro y reducir el déficit público, que es el mal congénito de la economía americana desde hace 40 años.

Altos tipos de interés y dólar fuerte frenaban la inversión privada y Reagan optó por poner aranceles a las importaciones, lo mismo que está haciendo Trump, que es subir impuestos. Pero como los aranceles no salen en la curva de Laffer y no se llaman impuestos, les permitió seguir diciendo que ellos bajaban los impuestos. Como se ve en el gráfico posterior, lo que realmente hizo Reagan fue diferir el pago de impuestos de sus votantes a sus hijos y a sus nietos aumentando la deuda pública 15% del PIB.

 

 Pablo Casado

En España, Pablo Casado tiene evidencia propia ya que ha sido diputado del PP desde 2011, ha votado todas y cada una de las subidas de impuestos de Rajoy y las ha defendido debatiendo conmigo en la televisión.

Yo vivo en Madrid y Rajoy y Casado me han subido el IVA, Botella me subió el IBI y me puso un nuevo impuesto por recogerme la basura y Cifuentes les ha duplicado los precios de las matrículas a mis alumnos de la Universidad.

Rajoy, Casado, Botella y Cifuentes han aumentado la deuda que debemos los madrileños y que pagarán mis hijos. A la vez, le han eliminado el impuesto de patrimonio al 0,2% a los madrileños más ricos. Y desde 2011 los únicos madrileños que pagan menos IRPF son los que cobran más de 60.000 euros al año, o sea el 95% de los madrileños pagamos el mismo impuesto pero desde 2011 a 2015 pagamos más impuestos con Rajoy y Casado que con ningún presidente en la historia de la democracia. 

Para desmentir la economía vudú de Laffer y los reaganomics, hoy los economistas usamos mediciones estructurales que eliminan el efecto del ciclo para medir el impacto de la política fiscal. En el gráfico posterior he utilizado la medición de ingresos estructurales realizada por la Comisión Europea.

 

Pablo Casado

Como se puede observar, en España hasta 2007 aumentaba la recaudación porque había una burbuja que inflaba los salarios y la inflación. También aumentaba artificialmente los beneficios empresariales y la recaudación de esos impuestos y los vinculados al boom de la vivienda, principalmente el ITP de ventas de viviendas y al AJD de registro de hipotecas. Así como los ingresos de los ayuntamientos por ventas de suelo, licencias de obra e impuesto de plusvalías.

2. Desmontando los bulos de la economía vudú

Cuando la burbuja pinchó en medio de la peor crisis financiera global en ochenta años los ingresos estructurales cayeron 7 puntos de PIB. Aznar y Casado siguen culpando a Zapatero de la crisis sin reconocer que la burbuja se formó durante sus ocho años de gobierno. Ésta fue la principal causa de la crisis, de la masiva destrucción de empleo y del brutal aumento del déficit y la deuda pública.

Un simple gráfico sirve para desmontar los bulos de la economía vudú de la curva de Laffer. En el gráfico también se puede comprobar cómo en 2010 (gobierno de Zapatero) y en 2012 (gobierno de Rajoy) subieron los impuestos aumentaron los ingresos estructurales sobre el PIB. Y cuando en 2015 y 2016 el gobierno de Rajoy retornó el IRPF al mismo nivel que dejó Zapatero en 2011 bajaron los ingresos estructurales sobre PIB. El nivel de ingresos estructurales sigue en el mismo nivel que lo dejó Zapatero pero todos los españoles pagamos más IVA mientras Rajoy y Casado le han bajado los impuestos a las grandes empresas y a las rentas altas en el IRPF.

 

 

Casado ha prometido en su campaña bajar el tipo máximo del IRPF al 39% y el de sociedades al 10%. Eso, según mis estimaciones, reduciría los ingresos estructurales casi un punto de PIB, la mayor parte a las empresas, aumentando el déficit, la deuda pública y los impuestos de nuestros hijos y nuestros nietos. Luego harían como Trump que, además de subir aranceles, le acaba de pedir a la Reserva Federal que aumente la inflación que es lo que hizo Reagan y que es el impuesto más dañino sobre las clases medias y especialmente sobre los más pobres, ya que pagan el mismo tipo que el 1% de población más rica.

3. Por fortuna, en Bruselas no creen en la curva de Laffer

Por fortuna este populismo fiscal ya no es posible en España. Como expliqué en mi reciente columna en El País, en 2011 se aprobó en Bruselas un mecanismo preventivo que obliga a los países a reducir su déficit estructural en los años de expansión económica, cuando crece el empleo y los ingresos fiscales por encima de su potencial de crecimiento a largo plazo. Por fortuna, en Bruselas no creen en la curva de Laffer.

Por lo tanto, Pablo Casado está prometiendo cosas que si llega al gobierno, sabe que no podrá cumplir. Es lo que le pasó a Rajoy en 2011 y al negarse a incumplir sus promesas de campaña llevó a España al rescate, a una intensa fuga de depósitos y de capitales que provocó la destrucción de un millón de empleos y una caída del crédito a empresas y familias del 30% del PIB.

 

 

Es lo que le está pasando ahora a Pedro Sánchez que prometió cosas en su campaña de primarias que ahora no puede cumplir. Es lo que le pasaría también a Albert Rivera que también promete bajadas de impuestos como Casado. Y lo mismo que a Pablo Iglesias que promete aumentos de gasto y de déficit incumpliendo el mecanismo.

La verdadera alternativa liberal es la que defienden desde la academia economistas como Carlos Rodríguez Braun. Rodriguez Braun propone un regla sencilla que es reducir el gasto público un 10% lineal en todas sus partidas. Eso supondría un recorte del 10% de la pensión a 7 millones de españoles, un 10% de bajada de salario a 3 millones de empleados públicos o recortar un 10% el número de profesores, médicos, policías, etcétera. Recortar un 10% la obra pública, recortar un 10% los autobuses y la frecuencia del metro y los trenes de cercanías en nuestras ciudades, etcétera.

Pero Pablo Casado es un político y nunca haría eso ya que sabe que si lo promete, no habría sido elegido presidente del PP ni tendría ninguna opción de ser presidente del gobierno. En Wall Street ya se teme que el proteccionismo de Trump genera una recesión en EEUU y se habla abiertamente de burbuja en las bolsas, especialmente en las empresas tecnológicas. Estamos viendo mucha inestabilidad en países emergentes y es muy probable que 2019 sea un año de inestabilidad financiera. España tendrá que emitir el próximo año 220.000 de deuda pública en los mercados sin la protección de las compras del BCE. Y nuestros líderes políticos viven en el país de Nunca Jamás.

 

blog josé carlos díez

La entrada Pablo Casado y la economía vudú aparece primero en El Blog de José Carlos Díez.



domingo, 22 de julio de 2018

De lo bueno lo mejor ... depende para quién

Voy a empezar este post diciendo una obviedad: la investigación científica necesita dinero para financiar sus necesidades: equipos, mano de obra, viajes, publicaciones, etc. Ese dinero, en un porcentaje alto, sobre todo en España, viene de los contribuyentes, a través de convocatorias competitivas (por ejemplo, las del Ministerio), en las que los investigadores presentan proyectos. Esos proyectos son evaluados, normalmente por otros investigadores, y al final se seleccionan y se financian una parte, que puede ir del 1% en alguna de las convocatorias más competitivas de la Unión Europea, a cifras en torno al 30-40%. Y ahora viene la segunda obviedad, que es de lo que va este post: evaluar y seleccionar estos proyectos es muy difícil. Lo que ya no es tan obvio es analizar esta dificultad y sus consecuencias, y eso es lo que ha hecho un grupo de investigadores encabezados por Libby Pier en un artículo aparecido recientemente en PNAS.

Analizar científicamente y con datos los procesos de evaluación es bastante complicado, por no decir casi imposible. El principal problema es que los datos son confidenciales: los nombres de los evaluadores pueden ser públicos, pero no es público qué proyectos ha evaluado cada uno, y menos todavía qué han dicho de ellos, por razones obvias de posibles represalias cuando los papeles se inviertan. Los investigadores suelen recibir un informe con el resultado de la evaluación, pero solo referido a su proyecto, con lo que tampoco eso sirve para obtener información o datos. Y los resultados de la evaluación, aparte de qué proyectos se financian y cuáles no, tampoco están disponibles en general. En esta situación, lo que han hecho Pier y colaboradores es reproducir el proceso de la manera lo más parecida posible. Para ello, se fijaron en las convocatorias de los National Institutes of Health (NIH) de Estados Unidos. El NIH es el mayor financiador de investigación biomédica del mundo, con un presupuesto anual de unos 32 000 millones de dólares, y sus convocatorias son muy competitivas. Pidieron a un grupo de 43 investigadores que han evaluado convocatorias del NIH que colaboraran en su investigación, y reproduciendo al máximo todos los detalles del proceso, que no vienen al caso, les pidieron que evaluaran un conjunto de 25 propuestas. Lo más interesante para mí es que estas propuestas eran o excelentes o muy buenas, y ahora explicaré cómo consiguieron esto, pero hace falta explicar primero por qué este es el problema interesante, más que el de la evaluación en general.

Por suerte o por desgracia, tengo alguna experiencia como evaluador de proyectos científicos en convocatorias de varias autonomías en España, del Ministerio se llame cómo se llame en cada momento, de la Comisión Europea, de organismos financiadores de la ciencia en distintos países, y hasta de algunas instituciones privadas (modesto, lo que se dice modesto, no soy, parece). Y hay algo que no es difícil en general, que es distinguir el grano de la paja. Obviamente, uno siempre puede cometer algún error, somos humanos, pero normalmente decidir qué solicitudes hay que ver con cuidado y cuáles son claramente de un nivel de calidad inferior es fácil. Insisto, lo digo por experiencia, e insisto, seguramente habré alguna vez infravalorado alguna solicitud, pero no me habré equivocado en muchas. Sobre todo porque los evaluadores solemos ser prudentes, y si tienes dudas de que algo que te parece que no es muy bueno pueda serlo porque tú no lo entiendes bien, lo dejas seguir adelante. Y adelante es donde está el problema: ahora tenemos un grupo de solicitudes que nos parecen muy buenas, pero no hay dinero para pagarlas todas. ¿Cómo separamos de lo bueno lo mejor?

Ahora que tenemos más acotado el problema, ya podemos explicar como para esta investigación consiguieron unas solicitudes "excelentes" y otras "muy buenas". Lo que hicieron es seleccionar entre las solicitudes concedidas en los últimos 4 años algunas concedidas a la primera, es decir, envían el proyecto y se concede, y otras que lo fueron a la segunda; fueron evaluadas pero no financiadas, y los proponentes utilizaron el informe de los evaluadores para mejorar su propuesta y volverla a presentar, siendo entonces financiadas. Este material es el que se proporcionó a los participantes en la investigación (sin indicación alguna de lo que había pasado anteriormente), y como ya he dicho a partir de aquí se siguió exactamente el proceso de evaluación del NIH. 

Imagen anonimizada de una de las reuniones de evaluación llevada a cabo para esta investigación.

¿El resultado? Malo, sin paliativos. Concretamente, utilizando varios indicadores y técnicas cuantitativas para calibrar el acuerdo entre evaluadores y la correspondencia entre problemas identificados en cada propuesta y la correspondiente nota, los investigadores concluyeron que:

1. Diferentes evaluadores dieron valoraciones distintas e identificaron números de fortalezas y debilidades diferentes para la misma solicitud. Tres indicadores cuantitativos distintos entre sí coinciden en apoyar esta conclusión. De hecho, el grado medio de acuerdo entre evaluadores es bastante bajo.

2. Los evaluadores no coincidieron en general con las evaluaciones que en su momento y de verdad organizó el NIH, valorando de manera parecida tanto las solicitudes que fueron financiadas a la primera como las otras.

3. Lo más importante es la falta de consistencia entre evaluadores: el que el evaluador A identifique más debilidades en una cierta solicitud que el evaluador B no hace que el evaluador A evalúa dicha solicitud más negativamente que el B. O en otras palabras, no hay acuerdo entre los evaluadores sobre como se corresponden las debilidades identificadas con las notas numéricas.

Como dicen los autores del trabajo, la trascendencia de estas conclusiones, dentro de las limitaciones que todo estudio experimental tiene en cuanto a su posible generalización (que los autores discuten honradamente y en detalle en el artículo), es enorme. Si esto ocurre normalmente en las evaluaciones, la consecuencia es que no se pueden comparar las evaluaciones que distintos revisores hacen de la misma solicitud, y por otro lado, el proceso de elegir las mejores solicitudes de entre las buenas se vuelve básicamente aleatorio. Yo estoy bastante convencido de que esto es así, aunque claramente hacen falta muchos más estudios, pero no me resisto a citar dos evidencias más. La primera, subjetiva: yo he salido de innumerables procesos de evaluación comentando con otros evaluadores cosas como "bueno, hemos elegido las propuestas A, B y C, pero podíamos haber elegido D, E y F y no se hubiera hecho ninguna injusticia". Es una sensación muy desasosegante pero como digo muy común entre los evaluadores, sobre todo cuando hay muchas propuestas buenas y se pueden seleccionar muy pocas. La segunda evidencia, objetiva: en 2014, en una importante conferencia de machine learning, los organizadores tuvieron la santa paciencia de montar dos comités evaluadores diferentes y hacerles evaluar a ambos un grupo de las comunicaciones enviadas. Aquí, para el que no lo sepa, hay que decir que en Informática el prestigio no lo dan las revistas sino el que te acepten comunicaciones en conferencias importantes: es muy difícil y lo que se acepta es muy bueno, o sea, estamos en el mismo caso. Pues bien, en este caso también se encontró una enorme discrepancia entre las evaluaciones hechas por los dos comités: como cuenta muy bien este post, la mayoría de comunicaciones aceptadas por un comité fueron rechazadas por el otro, y viceversa (véase figura inferior).

Resultados del experimento de evaluación llevado a cabo en la conferencia NIPS 2014.

La conclusión es que, como ya dije al principio, esto de evaluar es muy difícil, pero además es muy caro, carísimo para la incertidumbre del resultado. Hay que montar reuniones, pagar a los evaluadores, pagarles sus viajes a las reuniones, tener personal que gestiona todo el proceso,... Por ello, los autores del trabajo proponen (y no son los primeros, aunque ahora mismo no encuentro el enlace) que las evaluaciones se hagan con una primera fase que separe lo bueno de lo menos bueno, como decía más arriba, y una segunda en que se haga una lotería pura, se seleccionen las propuestas al azar. De nuevo en mi experiencia personal, yo me sentiría mucho más tranquilo como evaluador diciéndole a la gente que ha enviado cosas buenas "tu trabajo es muy bueno, pero no te tocó la lotería" que intentando justificar (hecho real) por qué su solicitud tiene un 4.6 (sobre 5) y no se ha financiado cuando la financiación empezó en 4.65, y por qué esos números, esa precisión de décimas, hay que creérselos. ¡Y también me sentiría mucho más tranquilo como solicitante rechazado! Claramente, esto requiere pensarlo bien, y como ya he dicho muchos más estudios, pero hay que considerarlo seriamente. Entre otras cosas, habría que medir bien el esfuerzo de separar las dos categorías de propuestas, porque si fuera casi todo el esfuerzo de la evaluación, podría ocurrir que la lotería ahorrara poco y fuera incluso algo más injusta que el procedimiento actual; en ese caso a lo mejor habría que implementar un procedimiento mucho más mecánico y barato. Creo como ya he dicho que en general no será así pero no conviene tomar decisiones a la ligera; en el caso de España, la Agencia Estatal de Investigación, de la que hablé recientemente aquí, debería darle más de una vuelta al asunto (y me consta que está en ello).

Termino ya, diciendo que este problema de las evaluaciones, que he discutido aquí en el caso de la concesión de proyectos científicos es mucho más general, y toca aspectos más cotidianos de la vida. Por ejemplo, la decisión de que persona escoger para un puesto de trabajo, que exige evaluar un currículum, plantea básicamente los mismos problemas. Otro caso es el de países como el Reino Unido o Estados Unidos, en los que la admisión en la Universidad no es simplemente la nota de la prueba de acceso, sino que se hace una evaluación del currículum y de más cosas de los estudiantes. En todos estos casos, separar, como diría Gomaespuma, "de lo bueno lo mejor, de lo mejor lo superior, caprice de dieux" es una tarea muy complicada que no se debe hacer sin pensar cuidadosamente cómo, de manera que se pueda aprovechar al máximo la valoración de los expertos manteniendo un coste-beneficio razonable. Por eso, investigaciones como esta deberían ser solo el principio de un esfuerzo muy serio para abordar estas cuestiones. ¡Y nosotros que lo veamos!