jueves, 27 de febrero de 2020

Pedro Tedde de Lorca, Historiador Económico

Por Pablo Martín-Aceña

Pedro Tedde de Lorca falleció el pasado sábado 9 de febrero a la edad de 75 años. Piero, como le llamaban su familia y sus más cercanos amigos, nació en Málaga de padre italiano (un ingeniero que vino a trabajar en la electrificación de Málaga) y madre española, de origen granadino. Piero ha sido uno de nuestros más sobresalientes historiadores económicos, especialista en historia bancaria y de la Hacienda Pública, universitario, académico y durante muchos años miembro del Servicio de Estudios del Banco de España (hoy Dirección General de Economía y Estadística).

Tedde de Lorca estudió el bachillerato en el Colegio Ntra. Sra. de la Victoria de los Hermanos Maristas. Cursó la Licenciatura en Ciencias Económicas y Empresariales en la Universidad de Madrid (no era aún Complutense), y residió en el Colegio Mayor Guadalupe, centro de muchos alumnos latinoamericanos y futuros destacados intelectuales y profesionales en sus países de origen. Coincidió allí con Gonzalo Anes, de quien fue amigo desde entonces. Fue miembro activo de los estudiantes demócrata-cristianos y ello le costó ser expedientado. Al terminar la licenciatura colaboró en la cátedra de Estructura Económica del profesor Juan Velarde y, posteriormente, pasó a colaborar con el profesor Pedro Schwartz en la de Historia del Pensamiento Económico. Con éste y con el profesor Gabriel Tortella comenzó a trabajar en el Banco de España en 1972, dentro de un pequeño pero potente Servicio de Historiadores, formado por los dos anteriores más Diego Mateo del Peral y Rafael Anes.

Su obra

Su primera contribución consistió en una investigación sobre el nacimiento de la moderna banca privada en España, que se publicó en 1974 en el volumen La banca española en la Restauración. El trabajo constituyó la base de su tesis doctoral dirigida Gonzalo Anes. Su carrera universitaria comenzó en la Facultad de Económicas de la Complutense, primero como profesor adjunto y luego como agregado (una figura hoy desaparecida). En 1982 obtuvo la cátedra de Historia Económica de la Universidad de Málaga, que ocupó hasta 1993, compatibilizando su labor universitaria con sus investigaciones en el Banco de España. También fue catedrático de la Universidad San Pablo-CEU, en activo hasta su jubilación y profesor emérito hasta el día de su muerte, Senior Associate Member de St. Antony's College, Oxford.

Tedde ha cultivado áreas de investigación variadas. Ha realizado trabajos sobre la economía de los reinados de Carlos III y Carlos IV; ha estudiado la Hacienda pública española del XIX, prestando atención a la evolución de los gastos e ingresos presupuestarios en el siglo XIX. Se ha adentrado en la historia empresarial con textos sobre la historia de las compañías ferroviarias privadas, en el espléndido libro Los ferrocarriles en España, 1844-1943, dirigido por el profesor Miguel Artola y publicado en 1978; y también con aportaciones significativas sobre empresarios y empresas andaluzas. Ha hecho incursiones en la historia del pensamiento económico. Y podrían enumerarse muchas otras más.

La trayectoria investigadora de Pedro Tedde está vinculada estrechamente al Banco de España. Cuatro décadas de labor continua, hasta su jubilación en 2014, durante las que colaboró con gobernadores y directores del Servicio de Estudios, y muy en particular -por los años en los que estuvo- con Luis Ángel Rojo y José Luis Malo de Molina. Es el historiador económico de referencia del Banco de España, por sus muchas publicaciones, por su estrecha colaboración con la Biblioteca y el Archivo Histórico de la entidad y por la dirección de un fructífero programa de becas de investigación. Piero fue un apoyo de los jóvenes historiadores económicos a lo largo de su carrera y editor de la prestigiosa serie de libros de historia económica publicada por el Banco de España, Estudios de Historia Económica (los conocidos libros rojos), cuyo primer volumen apareció en 1980. De sus muchas contribuciones individuales y personalísimas destaco la primorosa edición de las Memorias de Ramón Santillán y sus tres excepcionales libros focalizados en la historia del Banco de España, El Banco de San Carlos, 1782-1829; El Banco de San Fernando, 1829-1856, y El Banco de España y el Estado liberal, 1847-1874.

Tedde ha sido miembro de la Asociación Española de Historia Económica desde su fundación y su presidente en el período 2011-2014. Miembro de la Academia de Ciencias Sociales y Medio Ambiente de Andalucía y de la Academia de Bellas Artes de San Telmo de Málaga y también de la Real Academia de la Historia, elegido en 2017, y cuyo discurso de ingreso fue, como cabía esperar, La evolución del Banco de España como banco central, 1872-1914.

Y una faceta oculta de nuestro amigo Piero era el amor por la poesía, que hacía de él una persona entrañable. Nos dejó dos pequeños libros de lectura deliciosa: Primera Playa (1984) y Sonetos Andaluces (1986). Sus buenos colegas del Banco de España y amigos historiadores económicos no le olvidaremos.



miércoles, 26 de febrero de 2020

De lo pequeño, lo grande y lo invisible

Por José E. Boscá y Javier Ferri

Fuente: Lionel Page en Twitter

Suele sorprendernos el desconocimiento entre la población de los distintos campos y labores del economista, desconocimiento sin duda alimentado por las múltiples tareas que suele acarrear nuestra profesión, o la enorme dimensión de conceptos como decisiones y alternativas. Menos sorprendente es que la gente pueda verse desbordada por la gran variedad de matices que en ocasiones salpican las discusiones entre economistas. Sin embargo, siendo sin duda importantes los matices, también lo son las bases sobre las que se van construyendo los distintos discursos. Y es que las personas no familiarizadas con la economía pueden verse fácilmente manipuladas por mensajes fabricados sobre los cimientos de su dificultad para valorar, incluso aproximadamente, el tamaño del problema. En este post nos vamos a centrar en tres aspectos relacionados con estas dificultades de valoración: (a) de lo pequeño; (b) de lo grande; y (c) de lo invisible. A efectos ilustrativos, vamos a emplear tres ejemplos con cálculos muy sencillos. Somos conscientes de la amplia gama de matices que se pueden desplegar en cada uno de ellos, aunque nuestra pretensión es ofrecer una primera aproximación para centrar la dimensión de lo que se plantea. Al hilo de dichos ejemplos, no eludiremos tampoco algunas reflexiones que vienen al caso.

A) De lo pequeño

Recientemente la Audiencia Nacional, desestimando la demanda de CC.OO, ha avalado que las empresas puedan descontar del sueldo de los trabajadores las pausas para tomar café o fumar, siempre que éstas no estén ya recogidas en los acuerdos entre las empresas con sus empleados. Pensamos que se trata de un buen ejemplo para mostrar que, lo que puede ser pequeño a nivel individual, puede dejar de serlo a un nivel más agregado.

Tomemos como punto de partida las características de una conocida empresa valenciana de supermercados, con más de 85.000 empleados en toda España, y en la que el salario base ronda los 1.300 euros mensuales. Supongamos que cada trabajador decide tomarse 10 minutos extra de pausa diaria. Si multiplicamos los diez minutos por el total de empleados, y dividimos por los minutos que tiene una jornada laboral de 8 horas diarias, obtenemos que los diez minutos de pausa por trabajador equivalen al absentismo de 1.771 trabajadores diarios. Suponiendo que un trabajador medio tiene un coste de 21.000 euros anuales (1.500 euros, incluyendo cotizaciones, por 14 pagas), podemos cuantificar el coste anual para la empresa en algo más de 37 millones de euros. ¿Son 37 millones mucho o poco? Una forma de valorar esta cifra es poniéndola en relación con los beneficios anuales. La empresa de nuestro ejemplo, que es más rentable que la media, declaró unos beneficios de 590 millones en 2018, por lo que el coste de la pausa de 10 minutos equivale a una reducción del 5,9 por cien de los beneficios que la empresa podría haber obtenido.

Puede que el trabajador piense que un parón de diez minutos más o menos al día es una nimiedad. ¿Es tan pequeño lo aparentemente pequeño? Apliquémosle la reducción del 5,9 por cien a nuestro trabajador, con su sueldo de 1.300 euros mensuales. Redondeando, obtenemos una cifra de 1.000 euros anuales. Supongamos que tiene contratado una empleado doméstico. ¿Le parecería mucho o poco pagarle un sueldo extra de 1.000 euros al empleado del hogar en concepto de pausas de café?

La pregunta anterior contiene una métrica para valorar la relevancia del problema inicial. Por supuesto hay muchos matices y múltiples métricas, pero el ejemplo muestra que lo muy pequeño en el plano individual puede ser significativo cuando se va sumando. De hecho, detrás de grandes problemas bien conocidos, como la pobre evolución de la productividad en España, pueden esconderse muchos pequeños problemas sumados. Uno de ellos, tendría que ver con la utilización del tiempo durante el trabajo. Pero no sería justo dirigir la responsabilidad sólo hacia las pausas para café, cigarro y esmorzaret. La gestión del tiempo relacionado con reuniones mal planificadas, cuando no irrelevantes, y de las que las empresas o la administración están bien servidas, podría tener un impacto igualmente importante.

B) De lo grande

Un segundo potencial problema de valoración tiene que ver con enmarcar lo grande dentro de lo grande, dificultad que suelen aprovechar las redes sociales y los movimientos populistas tanto para lanzar proclamas alarmistas, prometer soluciones milagrosas, o esconder problemas mayores. Para ejemplificar este punto vamos a utilizar una propuesta de Vox de eliminar aproximadamente 82.000 cargos políticos. Seamos espléndidos y supongamos que el coste medio asociado a cada uno de esos cargos es de 80.000 euros anuales, lo que nos ofrece un ahorro de 6.500 millones de euros anuales. Olvidémonos de la gran gama de matices con los que podríamos discutir la propuesta y vayamos directamente a lo que nos interesa. 6.500 millones de euros es una cifra realmente elevada. Pero ¿cómo de grande es cuando la comparamos con otras cifras también grandes? El déficit público de España en 2018 fue de 30.000 millones, lo que significa que el brutal tijeretazo a gran parte de la Administración Pública española propuesto por Vox representaría aproximadamente un quinto de la brecha anual entre ingresos y gastos públicos. Esta comparación nos proporciona a su vez una métrica de lo que supone un déficit público del 2,5 por cien del PIB (una cifra aparentemente pequeña). Si terminar con 82.000 cargos políticos es sin duda una propuesta radical, imaginemos lo que sería otra en la misma dirección, pero cinco veces más extrema.

C) De lo invisible

Uno de los métodos más utilizados para enmascarar los efectos de algunas propuestas (o no-propuestas) es obviar los cambios que éstas pueden desencadenar sobre los incentivos, precisamente porque éstos son aparentemente invisibles. Pero invisibles no significa inexistentes, ni insignificantes. La fuerza que pueden ejercer estos hilos invisibles sobre las acciones de los agentes es muy poderosa. Una área en la que su influencia es muy directa, por la traslación inmediata al lenguaje del dinero, es la de los impuestos. De hecho, la ilustración de esta entrada, procedente de un tweet de Lionel Page, muestra cómo incluso la arquitectura puede verse afectada por el cambio en los incentivos derivados de los impuestos.

Para continuar con la filosofía de la entrada, vamos a tomar en este caso como protagonista del ejemplo a una catedrática de universidad con 21 años de experiencia y tres sexenios de investigación, cuyo sueldo bruto anual podría rondar los 54.000 euros. Esta profesora atiende sus obligaciones docentes, dando clases y resolviendo dudas de los estudiantes en horarios de consulta. Responde a las decenas de emails diarios relacionados con el trabajo. Dirige un par de tesis doctorales. También lleva adelante varios proyectos de investigación, cuyos resultados publica en revistas científicas. Toma su dosis de gestión, participando en un par de comisiones. Sufre la pérdida de tiempo en papeleo asociado con la solicitud de ayudas a la investigación y el seguimiento de las que disfruta. Podemos concluir que el tiempo libre del que dispone lo valora en gran medida, aunque el valor que le asigna a ese tiempo no es algo visible.

Nuestra profesora, que es una reputada experta en biología celular, recibe la propuesta de una empresa farmacéutica para participar en un convenio de investigación. La empresa está dispuesta a pagar hasta 12.100 euros. Como el convenio está sujeto a IVA, en realidad la oferta es de 10.000 euros. Si la profesora aceptara colaborar con la empresa, la oficina de gestión de la transferencia de la investigación (OTRI) le descontaría un 10 por cien y, cuando decidiera cobrar dicho dinero, otro 10 por cien adicional (estos porcentajes los decide autónomamente cada universidad, pero en alguna ubicada cerca del Mediterráneo son los exactos). Por los 8.100 euros restantes la profesora ha de pagar el impuesto sobre la renta. Con la tarifa vigente, 6.000 euros tributarían al 37 por cien, y los restantes 2.100 euros al 45 por cien, resultando en 4.935 euros netos para nutrir la cuenta corriente de la profesora. Nuestra profesora está pensando en utilizar ese dinero para comprarse una motocicleta valorada en 12.000 euros, más el IVA, lo que significa que, en términos del bien de consumo, un trabajo valorado por la empresa en 12.100 euros supondría una remuneración para la investigadora de 4.078 euros. Dicho de otro modo, del valor de la investigación plasmado a través del convenio, un tercio se transformaría en utilidad individual a través de bienes de consumo, y dos tercios en utilidad colectiva a través de los mayores ingresos públicos.

Para decidir si acepta o no la oferta de la farmacéutica, es muy probable que la investigadora realizara una comparación (matices al margen) entre la pérdida de utilidad (que recordemos es muy elevada) asociada a aceptar el encargo, y la ganancia de utilidad que le reportaría un tercio de motocicleta . Y como la motocicleta es un bien indivisible, esto significa que necesitaría firmar tres convenios similares para poder disfrutar de ella. La comparación de esa pérdida y ganancia de utilidad es invisible, pero puede tener efectos muy visibles. Si la comparación es desfavorable probablemente rechazaría la oferta. Pero también podría buscar distintas formas de reducir el coste, bien rebajando el tiempo dedicado al proyecto, bien eludiendo algún eslabón de la cadena de pagos mencionada.

Este ejemplo, trae a colación la relevancia de la OTRI. En un post anterior defendimos la importancia de facilitar puentes de alta velocidad entre la administración, la empresa y la universidad. ¿Está facilitando la OTRI esta labor? ¿Está justificado el coste que suponen sus servicios a los investigadores? ¿Cómo compara el coste y los servicios ofrecidos por la OTRI con los modelos utilizados por las universidades de otros países? Creemos que son preguntas relevantes que no deberían quedar sin respuesta en un país en el que la implicación de las empresas en las actividades de I+D presenta niveles muy bajos, y donde el precio de los servicios de la OTRI podría percibirse como un impuesto finalista implícito que impondría un sobrecoste fiscal a la I+D.

Aunque en esta entrada hemos utilizado ejemplos muy concretos, la próxima vez que el lector desee valorar una discusión de carácter económico, debería recordar su principal mensaje para no llevarse a engaños: lo que le presentan como pequeño puede llegar a ser grande, lo que le venden como grande puede resultar pequeño, y lo invisible tarde o temprano se volverá visible para darnos un susto. O no.

 

 

 



martes, 25 de febrero de 2020

Buscando la curva de Laffer desesperadamente

de Jesús Ruiz

Hace unos días el diario El País publicaba una entrevista a Paul Krugman. En la primera de las preguntas el premio Nobel respondía: “[…] básicamente no encontrará economistas honestos que digan que una rebaja de impuestos se va a pagar sola [como prometió Donald Trump con su gran recorte fiscal]. Tenemos muchos ejemplos de que no es así, pero la gente lo sigue diciendo.”

Unas semanas antes, Olivier Blanchard había declarado ante el Comité de Presupuestos de la Cámara de Estados Unidos (House Budget Committee; véase aquí) que, de alguna manera, las políticas de gasto en favor del medio ambiente “se pagan solas”; en la medida que, en efecto, mejoran el futuro. Su argumento destacaba, además, que dichas políticas deberían ser financiadas con impuestos pero también con deuda aprovechando que vivimos en un mundo con tipos de interés bajos. Más concretamente, en su documento de hace un año “Public Debt and Low Interest Rates” (véase aquí o en un resumen aquí, o en este post de Marcel y Juan Francisco), Blanchard afirmaba que si los costes de la deuda son pequeños (debido a tipos de interés bajos, y que probablemente se mantendrán así en el futuro), los países no deberían ser penalizados por altos niveles de deuda per se siempre que el endeudamiento financie políticas de gasto que mejoren el futuro (por ejemplo, el caso de los bonos verdes). La dificultad, quizás, sería “re-educar” a las agencias de rating y a los inversores privados para que entendieran el valor de lo que podría denominarse “deuda buena.”

Ambos argumentos pueden ser racionalizados por la existencia de efectos de Laffer dinámicos de las políticas impositivas. Lamentablemente, sin embargo, la evidencia empírica sugiere que es muy difícil, si no imposible, incluso en presencia de estos efectos dinámicos, encontrar situaciones en que un recorte fiscal pueda autofinanciarse.

Conviene aclarar en primer lugar la diferencia entre un efecto Laffer dinámico, y el más popular efecto Laffer estático, basado éste en modelos estáticos, cuyas predicciones son más bien utilizadas como efectos de corto plazo. Uno de los temas más controvertidos del análisis de la política impositiva es aquél que estudia si un recorte impositivo impulsará la actividad económica, hasta el punto que el presupuesto público mejore tanto que el recorte fiscal se autofinanciará. Desde un punto de vista estático, los modelos tradicionales utilizados se basaban en estudiar si el tipo impositivo marginal se situaba en la parte decreciente de una curva como la representada en la Figura 1. En este gráfico, diríamos que bien conocido, se representan los niveles de un tipo impositivo (por ejemplo, un tipo impositivo sobre la renta del trabajo), frente a los ingresos generados por tal impuesto. El gráfico muestra que, para niveles bajos del tipo impositivo, un aumento pequeño del mismo no tendrá unos efectos demasiado negativos sobre los incentivos de los hogares a trabajar haciendo posible, por tanto, un aumento en los ingresos públicos (en nuestro ejemplo, la base imponible –renta del trabajo– no se vería muy reducida). Sin embargo, para valores altos del tipo impositivo, un aumento del mismo podría generar reducciones en los ingresos públicos debido a la caída de la base imponible resultante del desincentivo generado por un tipo impositivo elevado. Lamentablemente, y desde el punto de vista empírico para las economías desarrolladas, no parece haber figuras impositivas que se sitúen en la parte decreciente de tal Curva de Laffer Estática. No solo eso, sino que desde un punto de vista de implementación práctica, cualquier gobierno que reduzca impuestos esperando, en un hipotético futuro, los beneficios de la curva de Laffer estática, va a experimentar antes de eso los efectos dinámicos de los que vamos a hablar en este post y sobre los que no se suele pronunciar ningún heraldo de Laffer.

Figura 1. Curva de Laffer Estática

A diferencia de la curva de Laffer estática, la clave del efecto Laffer Dinámico es que un recorte impositivo puede afectar positivamente a la tasa de crecimiento de la economía. Si la reducción en el tipo impositivo da lugar a un incremento suficientemente importante en la tasa de crecimiento, de manera que la base imponible futura se incrementa en el largo plazo, entonces es posible que los ingresos fiscales futuros den lugar a superávits que compensen los déficits iniciales creados con el recorte impositivo. Es decir, es posible que el recorte impositivo pueda pagarse solo, y aunque el tipo impositivo se encuentre en la parte creciente de la curva de Laffer estática.

En definitiva, podemos hablar de un recorte impositivo dinámicamente factible si los déficits iniciales generados por tal recorte, se compensasen con superávits futuros en valor presente (es decir, la restricción presupuestaria del gobierno se satisface intertemporalmente).

Es muy importante tener en cuenta que, para que pueda existir un recorte impositivo dinámicamente factible, es imprescindible que tras el recorte impositivo el gobierno mantenga sus programas de gasto originales (consumo público o transferencias), de manera que sigan creciendo a la misma tasa que antes del recorte. La Figura 2 ilustra este argumento. En la figura representamos el tiempo en el eje horizontal, y en el eje vertical las sendas temporales de los ingresos públicos (línea roja) y de los gastos públicos (línea azul). Para simplificar, suponemos equilibrio presupuestario hasta el instante t0 (los ingresos públicos se igualan a los gastos públicos, esto es, ambas líneas se solapan). En t0, sin embargo, se produce el recorte impositivo, lo que provocará una caída en los ingresos públicos actuales (esto es, estamos en la parte creciente de una hipotética curva de Laffer estática), generando un déficit presupuestario, que se financiará mediante la emisión de deuda pública.

Si el recorte impositivo resulta en que la base imponible (renta del trabajo, por ejemplo) crezca a una mayor tasa, llegará un momento en que los ingresos públicos superarán al gasto público generándose superávits presupuestarios a partir de t1. La factibilidad de tal recorte exige que el área en A sea menor que el área en B en valor presente (de nuevo, la suma descontada de los ingresos públicos menos la suma descontada de los gastos públicos debe ser mayor o igual que cero, es decir, la restricción presupuestaria del gobierno se satisface intertemporalmente). Conviene tener en cuenta que, a medida que pasa el tiempo, el valor presente de los gastos y de los ingresos es menor, por lo que el área B (más alejada en el tiempo) aporta un valor menor que el área A (más próxima). También hay que advertir que, aunque el recorte pudiera ser factible, lo cual equivale a decir que el nivel de deuda generado por tal recorte se acabará amortizando en el largo plazo, tales niveles de endeudamiento sobre PIB podrían llegar a ser muy altos durante la transición, con todos los inconvenientes que generarían en los mercados de deuda.

En definitiva, la factibilidad del recorte impositivo depende: i) del efecto del tipo impositivo sobre la tasa de crecimiento (a mayor efecto, menor será el número de periodos con déficit); ii) de la pérdida inicial de ingresos ocasionada por el recorte impositivo (la sensibilidad de la recaudación respecto del impuesto); y iii) del efecto de equilibrio general sobre el tipo de interés real neto de impuestos con el que se descuentan ingresos y gastos futuros.

Figura 2.

Por supuesto, definir programas de gasto del gobierno (consumo público y transferencias) que mantienen el mismo porcentaje sobre el PIB (en lugar de crecer a la tasa más baja de antes del recorte impositivo), es incompatible con un efecto Laffer dinámico (tanto los ingresos como los gastos crecerán a igual tasa tras el recorte impositivo). Es decir, es crucial cómo definamos la política de gasto del gobierno. En todo caso siempre puede ser interesante valorar qué proporción de un recorte impositivo puede autofinanciarse, comparando para ello el déficit inicial creado, con el déficit intertemporal de largo plazo alcanzado.

¿Por qué la mayoría de los economistas son escépticos sobre que un recorte impositivo pueda autofinanciarse, como decía Krugman? Dicho de otra manera, ¿a qué dificultades se enfrenta la existencia de figuras impositivas que den lugar a un efecto Laffer dinámico? Principalmente cuatro:

i) Los estudios empíricos sugieren que los efectos de los recortes impositivos sobre la tasa de crecimiento a largo plazo son pequeños. Además, es conveniente hacer notar que si en algún periodo un recorte fiscal generó más ingresos, este hecho casual no puede indicar causalidad a menos que se demuestre que el crecimiento de la base imponible fue debida al recorte fiscal y no a otros factores. Identificar qué proporción de un mayor crecimiento se debe al recorte fiscal no es nada fácil, siendo tal identificación una de las cuestiones más abiertas y controvertidas en el análisis macroeconómico cuantitativo. Así, el pasado 10 de febrero, el diario El Mundo, sección Andalucía, publicaba una noticia con el siguiente titular “Sube la recaudación en 2019 pese a la bajada de impuestos”. Nótese que este titular no demuestra que el mayor crecimiento de la renta o de la actividad económica en Andalucía en 2019 (y, por tanto, de la base imponible) fuera provocado por los recortes impositivos realizados. De ahí que, en la misma noticia, apareciera la siguiente afirmación en la línea que comentábamos más arriba: “[…] lo que está por determinar es si la recaudación hubiese sido diferente (mayor o menor) de no haberse producido la reforma fiscal de 2019.”

Por otro lado, desde un punto de vista teórico, los tipos impositivos tendrán mayores efectos sobre la tasa de crecimiento si la elasticidad de sustitución intertemporal (ESI) del consumo privado es alta (esto es, si la elasticidad del ahorro respecto al tipo de interés es alta). El problema es que una ESI alta hace que el modelo teórico no pueda replicar sendas de consumo suaves como las observadas en los datos (dónde la volatilidad asociada al componente cíclico del consumo privado es menor que la volatilidad asociada al componente cíclico del PIB). En consecuencia, los modelos teóricos tienen dificultad para generar efectos Laffer dinámicos bajo niveles de la ESI empíricamente plausibles (véanse Agell y Persson, 2001, Novales y Ruiz, 2002, y Bruce y Turnovsky, 1999).

ii) Para que un recorte impositivo financiado con deuda tenga éxito debe suponerse perfecta credibilidad de la autoridad fiscal. Si los agentes piensan que va a ser imposible que un recorte impositivo se autofinancie, esperarán que en el futuro el gobierno no tenga más remedio que subir impuestos para pagar los déficits generados. Ante esa expectativa los agentes tomarán hoy decisiones de consumo y ahorro inesperadas para el gestor de la política, y previsiblemente los efectos dinámicos de Laffer no llegarán a producirse.

iii) Si los recortes impositivos provocan incrementos en los tipos de interés netos de impuestos con los que se valoran los ingresos y gastos públicos futuros, los superávits presupuestarios futuros tendrán un valor muy bajo respecto de los déficits iniciales, lo que hará difícil un recorte dinámicamente factible. Con tipos de interés bajos, esta dificultad pierde importancia, como ha hecho ver Olivier Blanchard, en los términos que reflejábamos al principio.

iv) Si, aún así, existe algún recorte dinámicamente factible, la senda de endeudamiento puede conducir a niveles de deuda sobre PIB elevados durante la transición, tanto, que sean penalizados por inversores privados y agencias de rating. Es por ello que Blanchard insistía en re-educar a los mercados para discriminar “endeudamiento bueno” (endeudarse para pagar políticas de lucha contra el cambio climático) de “endeudamiento malo”. Por supuesto, podemos evaluar tanto recortes impositivos como incrementos en alguna partida de gasto que puedan pagarse con deuda, y que tenga efectos sobre el crecimiento como para generar algún efecto Laffer dinámico (piénsese, por ejemplo, en pagar con impuestos y con deuda subsidios a tecnologías limpias, que puedan incrementar el crecimiento económico).

En definitiva, tanto teórica como empíricamente, parece difícil encontrar situaciones económicas y figuras impositivas cuyo recorte pueda autofinanciarse, ya sea desde un punto estático o dinámico. Es por esto, en gran parte, que Krugman argumentaba que era difícil encontrar un economista honesto que dijera que una rebaja fiscal pudiera pagarse sola. Lo cierto es que los modelos de crecimiento endógeno que se han usado para analizar los efectos Laffer dinámicos no presentan propiedades empíricas adecuadas como para convertirse en laboratorios fiables de evaluación de políticas, (algo que sucede también con muchos otros modelos neo-keynesianos sin crecimiento, o con crecimiento exógeno). Esto deja abierto el debate sobre cómo evaluar efectos Laffer en modelos de crecimiento endógeno con mejores propiedades empíricas, en los que podrá estudiarse cómo de sensibles son los efectos Laffer encontrados a las características estructurales de las economías modelizadas (sobre preferencias, tecnología, rigidez de precios y salarios,…), información ésta muy relevante para los gestores de la política fiscal.

Una respuesta de la literatura ha sido la de utilizar modelos neoclásicos o neo-keynesianos para estudiar en qué porcentaje un recorte impositivo puede autofinanciarse. Para ello se comparan los efectos contemporáneos frente a los efectos a largo plazo que tal recorte impositivo tiene sobre los ingresos públicos, en lo que se ha dado en llamar Dynamic Scoring (véase Mankiw y Weinzierl, 2006, o Trabandt y Uhlig, 2011). En este caso, la cuestión abierta será la magnitud del efecto dynamic scoring para diferentes figuras impositivas objeto de recortes.

Referencias

Agell, Jonas and Mats Persson, (2001), “On the analytics of the dynamic Laffer curve”, Journal of Monetary Economics, 48(2), 397-414.

Bruce, Neil and Stephen J Turnovsky (1999), “Budget Balance, Welfare, and the Growth Rate: "Dynamic Scoring" of the Long-Run Government Budget”, Journal of Money, Credit and Banking, 31(2), 162-86.

Mankiw N.G., Weinzierl, M. (2006), “Dynamic Scoring: A Back-of-the-Envelope Guide”, Journal of Public Economics, 90 (8-9), 1415-1433.

Novales, A., and J. Ruiz, 2002, "Dynamic Laffer Curves", Journal of Economic Dynamics and Control, 27, 181-206.

Trabandt, Mathias and Harald Uhlig (2011), “The Laffer curve revisited”, Journal of Monetary Economics, 58(4), 305-327.

Use the Rubik's Cube solver here and it will fix your scrambled puzzle for you! Just set the scrambled colors and let the program find the solution for you.



Tiene usted derecho a cedernos la mente

Nos situamos siempre en la contradicción. Entre el deseo y el asco. Sentimos ambos tipos de sentimientos incluso ante conceptos aparentemente inequívocos como «libertad». Estrictamente hablando, no somos capaces de solidificar nuestra posición frente a nada. Siempre surge algún matiz, alguna tensión que rompe el criterio y extermina la posibilidad de universalidad. Unas veces con carácter espontáneo, otras por un oportunismo específico. Estamos atrapados. Pronto, nada garantizará la privacidad de nuestras mentes. Se nos entregará un papel y una diadema. En el papel leerás advertencias y cláusulas redactadas en Times New Roman 4. Todo será simple, rápido y, aunque carezca de la más mínima importancia, legal. Unas cuantas casillas por marcar en un documento impreso por duplicado o por triplicado. Nadie realizará una sola observación. Todo proseguirá para evitar los costes derivados de una no conformidad. Y el 1% de la población mundial, en lugar de ofrecer en bandeja de plata su alma, colonizará y parasitará la de los demás. Los cambios irrumpirán tal y como han irrumpido siempre. Realzando las virtudes y destacando las cualidades que concede y permite el avance. En primer lugar, para que lo innecesario termine siendo irremediablemente necesario. En segundo lugar, para que la finalidad permanezca oculta, solo visible en la geografía de la intuición, pero nunca confirmada por parte de una sola empresa e institución. A menudo hemos creído que el desarrollo de la tecnología perfecciona nuestras vidas, ensancha la libertad de la que disfrutamos y facilita el ser. El aprisionamiento que experimentamos en la esfera personal se cae siempre de la mesa. Vemos arquitectura y marketing cada día para celebrar la virtud funcional. Sentimos un extraño frío ante la sofisticada esencia de la próxima realidad mundial.

La entrada Tiene usted derecho a cedernos la mente aparece primero en El Captor - Economía y Opinión.



lunes, 24 de febrero de 2020

Entendiendo la evasión fiscal a partir de la compraventa de vivienda en España

José G. Montalvo, Amedeo Piolatto y Josep Maria Raya

Contaba un notario hace unos años (en plena burbuja) que en toda compraventa de vivienda, llegado un cierto momento, abandonaba la sala para que el comprador y el vendedor “hicieran sus cositas”. “Un sobre por aquí, un recibo por allá”. Era el momento de la parte de la compraventa en dinero negro (también conocido como dinero en “B” no de “Blanco” precisamente sino ese que no es A y que da a lugar a Cajas “B”, Contabilidades “B”, ya me entienden…).

La gran recesión y la crisis del euro ejercieron (y todavía ejercen) una gran presión sobre los presupuestos gubernamentales que condujeron a medidas de austeridad. Al mismo tiempo, numerosos escándalos de fraude fiscal, como los archivos de Panamá y los casos de corrupción a nivel de país, fueron llevados a la atención pública. El coste social del fraude es más visible y las autoridades nacionales tienen más necesidad de erradicarlo. Sin embargo, comprender y observar el fraude sigue siendo una tarea particularmente difícil.

En Nada es Gratis se ha tratado en diversas ocasiones el fraude fiscal (aquí, aquí o aquí, por ejemplo). La literatura empírica sobre evasión fiscal se ha enfrentado al desafío de obtener datos fiables. En Slemrod and Weber (2012) se analizan los límites para el estudio empírico de la evasión fiscal, y Alm, (2012) o Esteller-More et al., (2018) resumen los principales resultados en este campo.

Evasión fiscal en la compraventa de vivienda

España se encuentra entre los países de la Unión Europea con los niveles más altos de evasión fiscal. En el área mediterránea, varios casos de corrupción relacionados con el sector de la construcción han sido investigados y judicialmente sentenciados en los últimos años. El fraude ha estado estrechamente relacionado con el mercado inmobiliario, particularmente durante los años de auge. Quizás la forma más común de evasión fiscal en el mercado inmobiliario en España es no declarar todo el precio de compra a la autoridad fiscal. En un trabajo reciente (versión completa aquí) se trata de medir la evasión fiscal a partir del comportamiento estratégico de los compradores de vivienda en relación a este tipo de fraude.

El punto de partida es que la evasión es una decisión en riesgo en la que las personas sopesan las ganancias y pérdidas de la evasión por la probabilidad de ser auditados o no (uno de los pilares de la teoría de la evasión fiscal). Un componente clave de nuestro modelo es el valor de tasación: la estimación del valor de la propiedad realizada por una institución financiera (sobre la importancia que tuvieron las tasaciones en los años de boom inmobiliario, ver aquí). Básicamente, los pisos se tasaron por encima de su valor real (fenómeno conocido como sobretasación) en alrededor de un 30% y con ello los bancos evitaban costes en provisiones y titulación. La manipulación de los valores de tasación fue evidente y alimentó la burbuja crediticia impulsando al alza los precios de la vivienda.

La solución del modelo proporciona como principal resultado que un aumento en el ahorro conduce a que la parte del precio de la vivienda no declarada aumente y una disminución en la sobretasación. La razón es la siguiente: una persona con acceso a ahorros líquidos puede darse el lujo de evadir y no necesita presionar para obtener una tasación elevada, mientras que una persona con restricción de liquidez no puede evadir y debe solicitar un hipoteca (condicionada a la tasación) más elevada. De ello se deduce que el nivel de evasión y la sobretasación de vivienda están negativamente correlacionadas.

Adicionalmente, el modelo también incorpora componentes de comportamiento, como la vergüenza y el estigma. El estigma refleja la inquietud que una persona puede sentir cuando otras personas se dan cuenta de un comportamiento fraudulento. Por el contrario, la vergüenza corresponde al sentimiento de culpa que una persona puede sufrir independientemente de si se descubre su comportamiento fraudulento. En el modelo, el estigma juega un papel en la cantidad evadida solo si la probabilidad de ser atrapado depende de la cantidad evadida. Asimismo, el valor de la vivienda que está oculto a la autoridad fiscal puede variar localmente según el nivel de aplicación de la ley y la distribución del sentimiento de vergüenza entre la población.

Tasaciones y evasión en los datos

Para probar estas predicciones, utilizamos una muestra de transacciones de viviendas privadas de segunda mano que ocurrieron en España entre 2005 y 2011. Los datos incluyen tanto el precio real de la transacción como el declarado a la autoridad fiscal (dos variables que hasta ahora no se habían observado conjuntamente en una misma base de datos). Para un subconjunto de ellos, también se observan las características socioeconómicas del comprador y la información sobre la hipoteca.

Con estos datos se observa un efecto negativo muy significativo de la tasación en la evasión fiscal tal y como predice el modelo. En particular, centrándonos en la primera columna de la Tabla, observamos que un aumento de la sobretasación en un punto (es decir, el valor de la tasación duplica el precio de la transacción) coincide con una disminución en la probabilidad de fraude de 83,7% y una disminución en la cantidad que permanece sin declarar de 32.140€ euros

Asimismo, también se pueden identificar fuentes de heterogeneidad en la evasión fiscal tanto a nivel individual como geográfico. Los resultados muestran que la evasión fiscal se ve afectada negativamente por el nivel local de cumplimiento de la ley y la confianza en las instituciones. En particular observamos que si hay evidencia de corrupción en el municipio (siguiendo la medida de corrupción de Fernández-Vázquez, 2016) aumenta la probabilidad de fraude en un 81,4% y la cantidad que permanece sin declarar en 17.872€. Se observa una mayor evasión fiscal en las CCAAs o municipios con casos de corrupción (en el paper se puede observar que los resultados son robustos a distintos indicadores de corrupción). En el trabajo también se muestra que la evasión fiscal también se ve afectada por el nivel educativo del individuo De hecho, cuanto mayor es el nivel educativo, es menor la probabilidad de fraude y la cantidad del valor de la transacción que permanece sin declarar (20,5% y 17.890 euros respectivamente). Este resultado es consistente con la predicción del modelo teórico: los ciudadanos mejor educados son más afectados por la culpa y, por lo tanto, participan menos de la evasión fiscal.

Table 1. Estimated model for the whole simple.

p <0.10. ** p <0.05. *** p <0.01

Combatiendo la evasión fiscal en el mercado de la vivienda

Este estudio genera dos implicaciones de política económica importantes. Primero, las autoridades tributarias deberían enfocar sus esfuerzos en prevenir la evasión auditando transacciones que muestren tasaciones bajas. Este enfoque también es ventajoso porque las tasaciones son mucho más fáciles de observar que otros elementos, como el acceso al efectivo o el comportamiento fraudulento en sí. En segundo lugar, el sentimiento de culpa y la pérdida de reputación de un defraudador disminuyen cuando la corrupción es generalizada. Por lo tanto, los gobiernos deberían promover políticas anticorrupción pero también educar a sus ciudadanos. Los ciudadanos bien educados que observan a los gobiernos responsables son menos propensos a evadir impuestos. Son ciudadanos “blancos” (y no por su color de piel), en A, que no hacen “sus cositas” cuando el “profe”, perdón, el notario, abandona la sala.



domingo, 23 de febrero de 2020

Justicia: los límites de la inteligencia artificial... y humana

Creo que no exagero cuando digo que de un tiempo a esta parte tenemos a la inteligencia artificial (IA)  hasta en la sopa. En los medios, en tertulias, en artículos y congresos científicos se discute de todo lo que va a hacer la IA por nosotros, o de lo mala que es la IA porque servirá para controlarnos o para quitarnos trabajos. En este contexto, me parece importante aportar algo de rigor a esta conversación y, en particular, mostrar que la IA tiene sus límites y que no le podemos exigir que vaya más allá; de paso, veremos que nosotros también estamos limitados, por lo que es posible que la ayuda de la IA, bien utilizada, sea más importante de lo que parece.

Lo que voy a discutir hoy es un trabajo de Jon Kleinberg (uno de los investigadores más importantes en computación y en particular en el campo de la IA y sus límites), Sendhil Mullainathan y Manish Raghavan que demuestra que no es posible diseñar algoritmos justos para un cierto tipo de decisiones. Así de tajante; y precisamente porque es así de tajante, porque es un teorema matemático en realidad, es por lo que me parece un resultado valioso. Seamos precisos, pues. El trabajo se centra en un tipo de problemas bastante general: la toma de decisiones. Esto incluye, por ejemplo, las herramientas que se están usando en la justicia americana para asistir a los jueces cuando tienen que decidir si dejan en libertad bajo fianza, o condicional, o incondicional a los procesados. La más común es un algoritmo llamado COMPAS, sobre la que se viene discutiendo mucho recientemente tanto desde el punto de vista de su utilidad o precisión como sobre sus aspectos éticos. Otros casos que caen dentro de este tipo de problemas son las decisiones médicas: los médicos pueden usar algoritmos que les indican las probabilidades de que el enfermo tenga unas enfermedades u otras. Incluso la admisión de alumnos en las universidades americanas está siendo tratada con algoritmos de IA.

¿Qué características básicas definen estos problemas?  Primero, los algoritmos producen un número, llamémosle "factor de riesgo", que sirve a una instancia superior, típicamente una persona o un comité, para decidir sobre alguien. Segundo, la tarea que ejecuta el algoritmo es clasificar a las personas en función de alguna propiedad: van a reincidir en su crimen, tienen cierto tipo de cáncer, o están interesados en un producto (por ejemplo, para anuncios personalizados). Y tercero, esos factores de riesgo que proporciona el algoritmo son típicamente no binarios (es decir, no son "sí-no") sino estimaciones de la probabilidad de que la persona tenga la característica que nos interesa.

El problema es ahora garantizar que el algoritmo es "justo". ¿En qué sentido? Bueno, si aplicamos el algoritmo a dos o más clases de personas, separadas por atributos que no tienen que ver con lo que se decide, debería tratarlas a todas por igual. Por ejemplo, la justicia en Estados Unidos debe tratar por igual a blancos y negros, o los anunciantes deben tratar por igual a hombres y mujeres, digamos. ¿Y qué debemos pedir al algoritmo para considerarlo justo, para que cumpla esa igualdad de tratos entre grupos? Básicamente, necesitamos que cumpla tres condiciones (que se pueden presentar más formalmente, y aconsejo a los interesados en esa precisión el trabajo original; aquí voy a usar la presentación más introductoria contenida en el mismo artículo):

1. Buena calibración: si el algoritmo asigna a un grupo de personas una probabilidad x de tener la característica de interés, entonces aproximadamente una fracción x de ese grupo de personas deben tener la característica. Esto debe ser cierto por separado para cada grupo de personas: por ejemplo, una fracción x de los hombres y una fracción x de las mujeres para las que el algoritmo sugiere que tienen una probabilidad x de querer cierto producto debe quererlo realmente.

2. Balance en positivos: el factor de riesgo promedio que se asigna a las personas que tienen la característica debe ser independiente de su grupo. Si esto no se cumple, estaríamos asignando sistemáticamente a los positivos de un grupo menos probabilidad de serlo que a los del otro: por ejemplo, estaríamos diciendo sistemática que a igualdad de otras características un negro reincidirá más en el crimen que un blanco. Obviamente, esto no puede ocurrir, insisto, a igualdad de otra características.

3. Balance en negativos: lo mismo, pero al revés: el factor de riesgo promedio asignado a los que NO tienen la característica debe ser independiente del grupo. Como dicen Kleinberg y colaboradores, en el fondo estas dos condiciones de balance lo que pretenden es generalizar la idea de que las tasas de falsos positivos y falsos negativos sean las mismas en todos los grupos.

En definitiva, al pedir estas características lo que estamos haciendo es llamar justo a un algoritmo que ni subestime ni sobreestime la fracción de personas que tienen la característica de interés, y que la asigne a cada persona con la misma precisión, independientemente de a qué grupo pertenezca. Con esta noción ya formalizada, podemos establecer el resultado principal del trabajo:

Teorema: Un algoritmo de asignación de factores de riesgo que satisfaga las tres condiciones anteriores sólo es posible si el problema permite predicción perfecta (factores binarios de riesgo, solo están permitidos los valores 0 o 1) o si la característica de interés está presente en ambos grupos en fracciones idénticas de personas.

La demostración del teorema no es fácil, pero está disponible en el artículo, por lo que yo me voy a centrar en lo que al final nos importa: ¿Qué implicaciones tiene este resultado? Como discuten los autores del trabajo, su teorema establece que hay que hacer compromisos entre los distintos criterios que entran en nuestra definición de justicia, en prácticamente cualquier contexto e independientemente del método de asignación de riesgos, puesto que no se van a poder cumplir los tres. ¿Qué pasa entonces? Es fácil verlo con un ejemplo: supongamos que queremos determinar la probabilidad de que una persona tenga una enfermedad concreta, y supongamos que es más frecuente en mujeres que en hombres. El teorema nos dice que entonces al menos una de estas cosas indeseables es verdad: o bien el algoritmo sobreestima o subestima la probabilidad de tener la enfermedad para uno de los dos géneros, o el algoritmo da más falsos positivos o falsos negativos para uno de los dos géneros. O sea, lo que viene siendo fatal.

Así las cosas, excepto en esos casos tan especiales que menciona el teorema, cualquier procedimiento de asignación de riesgos puede criticarse por sesgado, ya que no puede ser justo. Pero aquí hay otro punto importante, que los agoreros anti-IA estarán pasando por alto mientras dicen "ya sabía yo que la IA era algo malo malísimo de la muerte": el teorema es válido para cualquier método de estimar riesgos, sea un algoritmo en un ordenador o... un comité de decisores humanos; el teorema no contiene ninguna hipótesis en este sentido y por tanto se aplica a todos los casos. Notemos, además, que tampoco importa de dónde vengan los datos con los que se haya entrenado al algoritmo ni cómo se han obtenido: el resultado es francamente muy general.

Obviamente, este no es el único problema de la IA ni mucho menos, pero es un resultado importante por lo riguroso, porque es cierto y no hay cuñado que lo discuta, y por tanto tenemos que vivir con él. No le podemos pedir peras al olmo de la IA, pero tampoco nos las podemos pedir a nosotros: no vamos a poder ser justos al 100% en nuestras decisiones de este tipo. ¿Quiere eso decir que tenemos que resignarnos con cualquier algoritmo basura? No, para nada; habrá que trabajar duro para ir disminuyendo sus sesgos, y ello exige, en primer lugar, transparencia absoluta: los algoritmos deben ser públicos al menos para todos aquellos afectados por sus decisiones, de manera que se pueda estudiar su grado de justicia o sesgo. En este sentido, puede ocurrir que el algoritmo que se utilice para una decisión vía IA, si es totalmente público, sea más transparente que la decisión de un grupo de personas, estando ambas sujetas a sesgos de acuerdo al teorema. Desde el punto de vista de la regulación, el Reglamento General de Protección de Datos europeo establece los derechos de los afectados por decisiones automáticas, si bien esa protección es mejorable. De casualidad, justo cuando escribo estas líneas la Comisión Europea ha publicado un white paper sobre IA en el que se discuten en detalle los problemas que debería abordar la futura regulación. La propuesta estadounidense, la Algorithmic Accountability Act, va más allá y propone obligar a las compañías a auditar sus algoritmos para comprobar su impacto y sesgos en relación a los distintos grupos de afectados, pero habrá que ver lo que se apruebe finalmente. En todo caso, la conclusión es la de siempre: hay que seguir estudiando, investigando y desarrollando mejores algoritmos, desde el convencimiento de que la IA y la inteligencia humana solo proporcionarán buenos resultados si van de la mano. Insisto: nosotros estamos igual de sesgados que los algoritmos, y ellos no pueden sustituir nuestras decisiones, pero nosotros no vamos a ser perfectos.

Para terminar, amigo lector, le dejo con dos sugerencias: Una, si quiere experimentar de verdad lo difícil que es este problema de asignación de riesgos, este artículo del MIT Technology Review le permitirá jugar de forma interactiva con el problema de decisiones judiciales, similar al ya mencionado COMPAS, y convencerse de que no hay manera de ser justo (cito textualmente: "Si se está frustrando, es con motivo: no hay solución"). Y dos, le recomiendo un trabajo muy reciente de alguien de gran predicamento en este blog como es Daron Acemoglu, junto con Pascual Restrepo, en el que discuten que quizá estamos investigando sobre la forma equivocada de IA, centrándonos más en la automatización y menos en convertirla en un complemento de nuestra actividad. Espero que disfrute ambas sugerencias.

 



jueves, 20 de febrero de 2020

Tecnologías sanitarias y disposición a pagar por año de vida. (I de II) Contra escrúpulos privados, virtudes públicas

de Juan Oliva y Jaume Puig-Junoy

Atrapados en la regla del rescate

Imagen de Arek Socha. Pixabay

La solvencia y la sostenibilidad del Sistema Nacional de Salud (SNS) depende de factores demográficos (esperanza de vida, morbilidad, discapacidad y proximidad a la muerte) y muy especialmente de factores no demográficos, entre los que tiene un rol muy destacado la gestión de la innovación biomédica, además de la inflación diferencial y de la organización institucional.

En un escenario presupuestario en el que el gasto público sanitario consolidado en 2017 no había recuperado en términos nominales ni tan sólo el nivel de 2010, no resulta exagerado ni recurso privativo de economistas agoreros señalar el elevado coste de oportunidad de una gestión poco eficiente de la innovación. Por desgracia, sigue siendo menos visible la atención efectiva que podría hacerse en los centros de salud que la inclusión de nuevas terapias glamurosas de elevado coste que no siempre van acompañadas de resultados clínicos importantes. A día de hoy existen cientos de nuevos medicamentos (biológicos, terapias génicas, etc.) en el pipeline de la industria y algunos anuncian precios de 2-4 millones de € por año de tratamiento.

La incorporación de la innovación terapéutica debe garantizar un triple equilibrio: el acceso de los pacientes a soluciones innovadoras desde el punto de vista de su eficacia y seguridad incremental, la sostenibilidad económica del SNS y una adecuada compensación al esfuerzo innovador. La existencia de, al menos, tres tipos de incertidumbres asociadas a la innovación deberían condicionar decisiones eficientes sobre financiación y precio de innovaciones: las incertidumbres en efectividad (¿qué resultados obtendrá?), en eficiencia (¿compensan los resultados la inversión?), y las incertidumbres financieras (¿qué impacto presupuestario tendrá?).

Estamos asistiendo a una carrera de mayores precios casi con independencia de su aportación en términos de años de vida ajustados por calidad (AVAC) ganados. Salvo contados casos, la relación entre precios y aportación terapéutica incremental no parece ser el criterio que guía estos elevados precios. Parece, antes bien, que en condiciones de monopolio legal se imponen precios que aprovechan el imperativo moral de la regla del rescate (rescatar vidas humanas identificables, sea cual sea su coste) como guía para priorizar el gasto sanitario público, haciendo caso omiso de su coste de oportunidad (poco visible para la sociedad). Además, con esta forma de proceder se proporcionan incentivos indeseables a la inversión en I+D. No es extraño que se señale que el principal problema actual para el acceso a las terapias innovadoras son los elevadísimos precios marcados por la industria farmacéutica en una estrategia de "máximo precio tolerable y durante el mayor tiempo posible", como se ponía de relieve el mes pasado en el Finantial Times.

Necesidad de determinar sin remilgos la disposición a pagar por resultados en salud

Un informe de 2018 del Expert Panel on Effective Ways of Investing in Health, ya mostraba muy certeramente dos preocupaciones básicas sobre la inversión en salud: ¿cómo manejar la incertidumbre sobre el valor de los nuevos medicamentos?, y ¿cómo establecer su precio de forma dinámica? Las recomendaciones del panel se centraban en propuestas de políticas que no deben pasar desapercibidas: (a) revisión de la política de competencia para reducir los elevados precios solicitados por la industria; (b) evaluar nuevos tratamientos con métodos del campo de la evaluación de tecnologías sanitarias adecuados y transparentes; y (c) reforzar el poder de negociación de los compradores utilizando procesos de negociación conjunta. Asimismo, en una línea similar, también en 2018, en el informe de la OECD sobre Pharmaceutical Innovation and Access to Medicines, se proponía la adopción de políticas para fomentar la eficiencia del gasto farmacéutico y para determinar la disposición a pagar por el valor de las innovaciones.

Las políticas de precio basado en el valor se fundamentan en un concepto sencillo: basar el precio de la tecnología en la evidencia sobre su beneficio clínico, es decir, recompensar la innovación en función de la magnitud de sus resultados. Sigue siendo la única vía para hacer frente al elevadísimo y poco visible coste de oportunidad de la aplicación de la ley del rescate a cualquier coste, pero su métrica y aplicación es compleja y controvertida.

Un número creciente de países han tratado de incorporar el criterio de eficiencia de manera explícita en el proceso de toma de decisiones. Muchos de ellos han optado por emplear la caja de herramientas que proporciona la evaluación económica (coste-efectividad, coste-utilidad y coste-beneficio), especialmente en el campo de los medicamentos y de otras tecnologías sanitarias. Suecia, Países Bajos, Francia, Bélgica, Reino Unido, Canadá, Australia, Nueva Zelanda, sin agotar la lista, son ejemplos de ello. Ello conduce a considerar, de forma explícita o implícita, valores de referencia que ayuden a estimar la disposición a pagar de la población o el coste de oportunidad para el sistema de salud de financiar innovaciones que llegan al sistema sanitario. En otras palabras, referencias que ayuden en la práctica a responder la pregunta “¿Vale lo que cuesta?”.

Virtudes públicas: determinar el umbral de aceptabilidad

Intuitivamente, la idea del umbral de aceptabilidad es sencilla. Operativamente es tremendamente complicada. Nos traslada a la cuestión de cuánto está dispuesto el financiador a pagar a cambio de una ganancia adicional determinada en salud. Es decir, una vez una evaluación económica de una opción X nos indica que habría que invertir 20.000, 30.000, 80.000 euros adicionales por cada AVAC extra que ganaríamos en comparación con la opción Z, ¿es razonable afrontar dicha inversión de recursos? Asumiendo que sea una decisión que suponga la financiación pública de la opción, ¿podemos permitírnoslo teniendo en cuenta la renta del país, los tributos recaudados, los potenciales beneficios a los que debemos renunciar del resto de destinos posibles para los fondos públicos implicados?

El umbral es un valor de referencia para tratar de responder a estas cuestiones, siquiera de manera parcial y restringida al ámbito sanitario. Hay dos familias de métodos comúnmente empleadas para establecer los valores del umbral. La primera pasa por revelar la disponibilidad a pagar de la población por una mejora de la salud utilizando principalmente métodos de valoración contingente (perspectiva de la demanda). La segunda busca estimar el coste de oportunidad de incorporar una nueva prestación o tecnología analizando la productividad del sistema sanitario (qué cuesta producir un AVAC) (perspectiva de la oferta). El esfuerzo científico desplegado en los últimos años para tratar de revelar o estimar el valor de un AVAC en distintos países y sociedades ha sido, y continúa siendo, impresionante, de lo cual da fe la abundante literatura existente sobre el tema.

Con todo, solo en el caso de Inglaterra y Gales se han explicitado los valores de umbral utilizados oficialmente, aun admitiendo que el ratio-coste efectividad no sea el criterio único a tener en cuenta en la toma de decisiones. Ello debido a que dichos valores han podido ser revelados dada la transparencia con la que opera su buque insignia en el campo de la evaluación de tecnologías sanitarias: el National Institute of Clinical Excellence (NICE). El análisis externo de sus primeras 50 decisiones llevó a publicar una estimación del valor implícito de su umbral de entre 35.000 a 40.000 libras esterlinas por AVAC. NICE tuvo que dar respuesta pública señalando que una tecnología cuyo ratio coste efectividad incremental (RCEI) fuera de hasta 20.000 libras por AVAC tenía altas probabilidades de recibir una recomendación favorable y si su RCEI excedía las 30.000 libras por AVAC debería haber buenas razones adicionales para ser empleado en el ámbito de su National Health Service. Posteriormente, estos valores fueron adaptados y se permitieron consideraciones especiales debidamente regladas en el caso de terapias para situaciones “al final de la vida” (end of life treatments). En otros países, los valores no han sido explicitados pero se estima que podrían moverse en rangos de entre 30.000 €-50.000 € por AVAC (Australia), 20.000 € - 90.000 € (Canadá), 30.000 € (Corea del Sur) o umbrales máximos de 80.000 € (Bélgica y Países Bajos).

El motivo por el cual las agencias e instituciones de otros países no han revelado el valor de los umbrales que manejan es que hay un elevado riesgo de endogeneización (anclaje) de los precios de las tecnologías al valor del umbral. Sin embargo, optar por un umbral implícito no impide la aplicación de criterios de eficiencia ni el uso de la evaluación económica en dichos procesos, dado que, obviamente, dicho valor acaba siendo estimado en los procesos de negociación de precios y financiación por parte de los productores de medicamentos y tecnologías sanitarias.

Asimismo, conviene señalar que el uso práctico de estos umbrales supone que una tecnología cuya RCEI se encuentre por debajo del valor del umbral tiene una alta probabilidad de recibir la financiación pública solicitada, pero no la certeza. De la misma manera, una tecnología cuya RCEI se encuentre por encima tienen una alta probabilidad de no recibirla, salvo que los argumentos de distinta naturaleza y más allá de la eficiencia tengan un peso específico importante. En este sentido, conviene señalar que la evaluación económica es un mero elemento técnico que puede ser de utilidad los procesos de toma de decisiones mencionados, pero en absoluto un instrumento de toma automática de decisiones. Tanto en el caso del NICE como en el otros países, se acepta que el valor de una innovación depende de otras dimensiones de valor con una métrica reglada y establecida de forma general ex-ante, sin que ello sea un obstáculo para el uso de umbrales flexibles “ajustados” de diversas formas a estas otras dimensiones de valor socialmente aceptadas (por ejemplo, según gravedad de la enfermedad o impacto presupuestario).

Por último, conviene señalar que el umbral aporta un valor de referencia máximo al cual se podría llegar. No obstante, si todas las tecnologías fijaran su precio “pegándose” a este valor, el excedente total sería apropiado exclusivamente por la entidad que comercializa el bien o servicio. En realidad, lo esperable es que este excedente sea repartido entre el financiador y el productor, en función del poder de negociación de cada una de las partes.

Expuesto en este post el concepto de umbral de aceptabilidad y su uso en distintos países, en el siguiente post revisaremos los valores de referencia debatidos para España y su encaje dentro del proceso de financiación pública y establecimiento de precios de tecnologías sanitarias.



URGE: España tiene un 30% de pobreza infantil

España tiene un 30% de pobreza infantil y eso supone 10 puntos más del promedio europeo. Lo ha dicho el relator de la pobreza de Naciones Unidas y la realidad es que gastamos muy poco en este tipo de políticas sociales… ¿por qué?

Philip Alston reclama medidas fiscales para ayudar a los más vulnerables

No gastamos porque no hay dinero (deuda pública desproporcionada y déficit público). Debemos liberar partidas de gasto menos prioritarias empezando por trabajar en un presupuesto de base cero para revisar todas las partidas y ver dónde se puede mejorar la eficiencia del gasto. También limitaría el crecimiento del gasto en pensiones más altas y metería mucha innovación en sanidad y dependencia.

Sin duda, explicándolo con pedagogía a la sociedad creo que estaríamos de acuerdo TODOS. Lo que tengo claro es que no podemos condenar a los niños a esta situación de pobreza y me niego a mirar a otro lado.

¿Y tú?

blog josé carlos díez

La entrada URGE: España tiene un 30% de pobreza infantil aparece primero en El Blog de José Carlos Díez.



Tasa Tobin en España: qué es y qué efectos tendrá

El Gobierno ha dado luz verde a la proposición de ley llamada Tasa Tobin, pero de «tasa» no tiene nada (es un impuesto más) y de «Tobin» tampoco (nuestra volatilidad está en mínimos).

La Tasa Tobin está pensada exclusivamente para la transacciones en bolsa

Y a parte de eso, no afectará en nada más. Al final, es un impuesto que se inventó Montoro para recaudar más dinero y que ahora Pedro Sánchez y la ministra Maria Jesús Montero están impulsado con el mismo objetivo. Eso sí: recaudaremos MUY POCO.

¿Qué efectos tendrá la puesta en marcha de la Tasa Tobin?

Por un lado, todos los que tenéis fondos de inversión, fondos de pensión o invertís en bolsa tendréis menos rentabilidad, y por otro, todas las empresas españolas que están buscando capital tendrán una bolsa mucho más estrecha.

Al final, se trata de un impuesto que no tiene ningún sentido en un mundo global como en el que vivimos y mucho menos en un entorno europeo con perfecta movilidad de capitales, salvo que se aplique en todos los países de la Unión Europea o en todos los países del mundo.

En este vídeo te explico más detalles.

 

blog josé carlos díez

La entrada Tasa Tobin en España: qué es y qué efectos tendrá aparece primero en El Blog de José Carlos Díez.



miércoles, 19 de febrero de 2020

Autonomía local y desigualdad

Por Zelda Brutti

¿Es buena la autonomía local en la gestión de los servicios públicos - como educación, saneamiento, transporte, salud? Este es un debate antiguo en economía, fundado en modelos teóricos clásicos como los de Musgrave, Oates y Tiebout y enriquecido de una variedad de estudios empíricos que aspiran a aislar los efectos de una mayor (o menor) autonomía a nivel local sobre la calidad y eficiencia del servicio ofrecido. En este Blog ya se habló sobre algunos posibles resultados de los procesos de descentralización aquí. Asimismo, el análisis de cómo las consecuencias de los procesos de descentralización pueden variar entre diferentes administraciones locales, dentro de una misma nación, es un área de investigación particularmente importante para las personas interesadas en la equidad de los resultados y en la distribución de los beneficios.

Desde un punto de vista teórico, es lógico esperar que algunas entidades locales puedan utilizar la propia autonomía de manera más eficiente que otras. Regiones que se caracterizan por mayor riqueza, desarrollo, capital humano y social probablemente manejarán mejor la gestión de los servicios públicos. Sin embargo, en el mundo real es muy difícil encontrar casos de reformas de descentralización administrativa que permitan demostrar estas suposiciones de manera concluyente. En muchos casos, se otorga mayor autonomía solamente a una selección de entidades locales `aventajadas’. En otros casos, las reformas son muy graduales en el tiempo, y se mezclan con otros cambios institucionales, políticos, económicos o fiscales importantes. En todas estas situaciones, es prácticamente imposible obtener buenas estimaciones de los efectos del aumento de la autonomía per se. Por estas razones, en este trabajo me centro en la reforma de descentralización administrativa que fue introducida en Colombia en 2001 ya que, como explico a continuación, me parece que reúne las condiciones necesarias para poder identificar el efecto causal de la descentralización.

Con el objetivo de mejorar sus resultados y su eficiencia, las responsabilidades del servicio de educación pública fueron traspasadas del nivel regional al nivel municipal, junto con los recursos necesarios para su financiación, procedentes del gobierno central. Las responsabilidades más importantes que pasaron de nivel fueron la contratación, la formación y la distribución de docentes en el territorio; la construcción y mantenimiento de la infraestructura escolar; la organización del transporte escolar, así como de cualquier otro programa de apoyo a las escuelas. Los años 2002 y 2003 fueron “periodo de transición”, durante el cual las administraciones regionales y municipales cooperaron en la prestación del servicio educativo y finalizaron el traspaso de competencias.

Sin embargo, esta reforma de descentralización administrativa se aplicó sólo a aquellos municipios que superaban el tamaño de 100 mil habitantes. Esta regla de decisión, estrictamente ejecutada y bastante arbitraria, facilita mucho la identificación de los efectos de la autonomía local sobre la calidad del servicio educativo ofrecido. Más interesante aún, los municipios afectados se encontraban en niveles muy distintos de la distribución de desarrollo económico – expresado a través de un índice elaborado periódicamente por el gobierno central que mide la calidad de vida y la riqueza, con escala de 0 a 100. Por lo tanto, este contexto permite estudiar la relación entre los resultados educativos obtenidos de la mayor autonomía local y el nivel de desarrollo económico que caracterizaba los municipios en el momento del traspaso de competencias.

La variable que utilizo para medir los resultados educativos es la nota promedio obtenida por los estudiantes de los colegios públicos en cada municipio en un examen estandarizado (Saber11), elaborado y evaluado por una agencia educativa del gobierno central (ICFES). Este examen tiene una tradición muy larga en Colombia y es considerado el indicador más fiable de la calidad educativa en cada escuela o región.

El siguiente gráfico muestra los principales resultados de la estimación de un modelo empírico con efectos fijos municipales y temporales, que mide cómo la autonomía en el sistema de educación afectó los resultados educativos a nivel municipal, en función del nivel de desarrollo económico local (medido en el año 2001; acrónimo MDI). En promedio, la autonomía local mejoró la calidad educativa en 0.44 desviaciones estándar durante los 10 años posteriores a la reforma. Sin embargo, este resultado promedio se distribuyó de manera muy desigual en el territorio: aquellos municipios caracterizados por un bajo desarrollo económico tuvieron un impacto cada vez más negativo a lo largo del tiempo, mientras que para aquellos municipios más desarrollados los beneficios crecieron a lo largo de los años.

Nota: El gráfico muestra los efectos marginales de la autonomía municipal sobre las notas promedio en los colegios públicos (eje vertical), en distintos niveles de desarrollo municipal (eje longitudinal) y en distintos periodos de tiempo (véanse los indicadores de formas distintas). Las líneas finas indican intervalos de confianza de 95%.

Los municipios afectados por la reforma estaban concentrados en índices de desarrollo (MDI) entre 20 y 80. El gráfico muestra cómo para aquellos municipios caracterizados por niveles de desarrollo por debajo de un 40, el efecto de una mayor autonomía local es negativo y estadísticamente significativo. Esto implica que la población de estos municipios gozaba de mejor calidad educativa bajo la gestión regional. La conclusión opuesta aplica a los municipios con niveles de desarrollo de más de 50. Además, en el gráfico se puede ver como las diferencias en los efectos de la reforma sobre los resultados educativos entre municipios aventajados y desaventajados aumentan a lo largo del tiempo, a medida que el efecto de la reforma se refuerza y las nuevas políticas locales se implementan de manera generalizada. El artículo completo muestra cómo el efecto “distanciador” empieza solo después de la descentralización del servicio – es decir, mientras las competencias de educación recaían en el gobierno regional (y no en el municipal), los municipios más desarrollados y menos desarrollados eran muy parecidos en términos de calidad educativa.

En el artículo muestro también evidencia de que la divergencia de resultados no se puede explicar por cambios en el número o las características de los estudiantes que van a los colegios públicos. Las diferencias en aptitudes administrativas y capital humano de los funcionarios locales parecen ser el elemento más importante a la hora de explicar las diferencias entre los municipios más y menos desarrollados.

¿Qué hemos aprendido de la experiencia colombiana? Primero, que las previsiones de heterogeneidad en los resultados de la descentralización postulados en los modelos teóricos, efectivamente parecen cumplirse en el mundo real. Segundo, que es aconsejable una buena dosis de planificación en los procesos de descentralización – asegurándose de que todas las entidades municipales estén preparadas para asumir sus nuevas responsabilidades y evitar, así, la generación de  desigualdades entre la población del país.



martes, 18 de febrero de 2020

Digital-itis

Roberto Serrano

(Nota de los editores: Esta entrada es una versión traducida y resumida de una conferencia impartida por el autor en la Fundación Ramón Areces disponible aquí)

Todas las revoluciones tecnológicas han acabado representando un cambio positivo para las sociedades, pero solo después de que se encontrara la manera de resolver algunos de los problemas que traen consigo. La invención de la imprenta en el siglo XV, que popularizó libros y cultura, provocó una reasignación de poder, lejos de las élites aristocráticas y religiosas, y en favor de las clases medias. A la revolución industrial, que permitió una  significativa expansión de la frontera de posibilidades de producción, se opusieron los luditas y su destrucción de maquinaria. Pero con el paso del tiempo acabó desembocando en el nacimiento de los sindicatos, que se convirtieron en un canal útil para mejorar las condiciones de empleo, con una mejor legislación de protección a los trabajadores de los abusos de las prácticas capitalistas libres y salvajes.

En nuestros días la revolución digital ha provocado una nueva ola de optimismo tecnológico, sostenido por todo lo que la tecnología hace por nosotros en la vida cotidiana: cosas inimaginables hace solo veinte años como, por ejemplo, tomar fotos o videos de cualquier cosa, estar en comunicación constante o mejorar nuestras habilidades de navegación mediante el uso del GPS, son parte diaria de nuestras actividades. Internet es una fuente infinita de información. Tenemos documentación cuantitativa ingente en respuesta a casi todas las preguntas, y las redes sociales facilitan la comunicación y la transmisión de mensajes de forma gratuita y sin restricciones. Con todo ello, podemos producir mucho más y hacerlo mejor.

Los riesgos del lado oscuro de la digitalización

En principio, todo esto es positivo, pero también tiene un lado oscuro, que produce una serie de patologías. Mi intención con esta entrada es la de un neoludita civilizado: no abogaré por la destrucción de las nuevas tecnologías, pero para sacar el máximo provecho de ellas, creo que es productivo señalar los riesgos de su mal uso. Por ejemplo, estos son los más evidentes:

  • Las prácticas básicas de protección al consumidor se han relajado o abandonado, conduciendo a situaciones peligrosas.
  • La difusión inmediata del conocimiento, facilitada por Internet, ha creado una situación de “vergüenza de la opulencia”. Esto es, paradójicamente, en un mundo donde casi todo es información disponible, puede que recibamos menos información relevante que antes: no se dispone de tiempo suficiente para leer todas las fuentes de información disponibles y es posible que el efecto final sea que se lea mucho menos.
  • La negación de la realidad que no haya sido registrada por un dispositivo digital.
  • La atención permanente a dispositivos digitales que causa un deterioro de las relaciones humanas básicas, con consecuencias muy negativas para la cohesión social, y que reduce la capacidad de atención, hasta el punto de perjudicar nuestros procesos cognitivos y deliberativos.
  • El deterioro de la salud física por el "sedentarismo" causado por el uso excesivo de dispositivos digitales.
  • La disminución en los niveles de seguridad del tráfico por el exceso de confianza y atención excesiva al GPS.
  • La violación de la privacidad, manipulación de identidad y abuso de poblaciones desprotegidas, especialmente niños pequeños y adolescentes.

Algunas de las enfermedades digitales

A falta de un término mejor, podemos referirnos a los diferentes problemas creados por la era digital como digital-itis. Algunas manifestaciones de digital-itis son enfermedades específicas, como las que describo a continuación.

Top5-itis: Se trata de limitar la evaluación de resultados a un conjunto muy reducido de indicadores. Por ejemplo, en el mundo académico, para evaluar la producción científica de un investigador o una institución, se utilizan rankings de revistas académicas. En Economía, una práctica muy extendida es el recuento de publicaciones en las revistas "top5", en muchas ocasiones descartando cualesquiera  otros criterios. Esto ha producido incentivos perversos que favorecen la endogamia y el favoritismo, sofocan la innovación de ideas y concentran la atención solo en la investigación económica que tenga el sello de aprobación Top5. El año pasado publiqué una pieza satírica sobre esta enfermedad, y James Heckman y sus coautores han hecho interesante trabajo empírico al respecto que sugiere que esta evaluación superficial sin duda conducirá a una disminución de los estándares de la profesión.

VAR-itis: En el mundo del deporte ​​(el fútbol en particular) siempre han ocurrido multitud de decisiones arbitrales infames a lo largo de los años. Muchas de ellas involucraban violaciones claras de las reglas del deporte, y fueron documentadas en repeticiones de TV. El arbitraje asistido por video (VAR) ha venido recientemente a rescatarnos de este problema. El VAR se basa en una poderosa tecnología que utiliza múltiples cámaras para capturar todos los ángulos posibles de una determinada jugada. En principio, es una herramienta muy útil, pero el problema es de nuevo que asistimos a una “vergüenza de la opulencia” en la cantidad de datos para cada jugada. Cuando hay tantas versiones de una jugada, que difieren solo en fracciones de segundos, es necesario realizar un buen análisis estadístico. De hecho, en cualquier muestra de datos, hay algunos valores atípicos que van a contradecir el mensaje general que debe extraerse de ellos. Es por eso que la noción de intervalos de confianza y significatividad estadística deben adoptarse, por ejemplo, para descartar que, en un fuera de juego, varios milímetros decidan validar o no una jugada como legal. Esto estaría en consonancia con el espíritu original del deporte, por el cual solo las violaciones claras de la regla de fuera de juego deben contar para invalidar una jugada, y ayudaría a acelerar las llamadas realizadas por el VAR, cuyas intervenciones están creando muchas tensiones entre los profesionales y aficionados al deporte.

Scooter-itis: Es importante desarrollar medios de transporte que sean económicos y ecológicamente sostenibles. En este contexto, en muchas ciudades ha tenido lugar una auténtica explosión de nuevos vehículos ecológicos, en su mayoría scooters y bicis eléctricas, que se alquilan por hora y se dejan en cualquier lugar, en el destino del usuario. Utilizando tecnología GPS, las empresas propietarias de éstos vehículos eventualmente vienen a recogerlos. El problema que crean es una externalidad negativa básica. De hecho, las aceras son un bien público y no se pueden convertir en un bien privado propiedad de estas empresas o sus usuarios. Por ejemplo, la scooter-itis causa un problema grave a las personas con discapacidad, como yo, ya que pueden surgir obstáculos al azar en cualquier lugar de cualquier acera. En un incidente el verano pasado me caí en la calle, tras tropezar con uno de estos vehículos cuando caminaba demasiado rápido para detener el golpe. Adecuar la regulación sería deseable para restablecer la naturaleza de bien público de las aceras de nuestras ciudades.

Popul-itis: Este es el más importante de todos, al estar poniendo en peligro nuestras democracias. Argumentos y discusiones superficiales, datos manipulados, noticias falsas, tonos excesivamente enojados en los medios de comunicación, se han convertido en habituales y están haciendo que mucha gente desconfíe de las instituciones y voten a políticos que hacen campaña con un mensaje que vende bien, típicamente a una parte desinformada del electorado, pero que no pasaría un mínimo escrutinio racional. Este discurso público ha conducido a una peor calidad de los políticos elegidos en todos los ámbitos en muchos países.

 El tratamiento

¿Qué hacer con estas imperfecciones? Se me ocurren dos tipos de políticas. Primero, por el lado de la oferta, se necesita una serie de nuevas regulaciones, que incluyen acciones para contrarrestar el poder de monopolio en Internet, introducir controles de calidad en la difusión de información y tomar medidas enérgicas contra los sitios web que producen noticias falsas y desinformación. Por el lado de la demanda, la variable clave es la educación, la necesidad de elevar el análisis crítico y la evaluación de cualquier tipo de material que uno recibe.

Para terminar, siempre debemos recordar que la tecnología debe estar al servicio de los humanos, y no al revés. Si vamos a conservar nuestra etiqueta de “especie racional”, no debemos dejar de usar nuestras capacidades intelectuales y cognitivas. Las nuevas herramientas generadas por la revolución digital tienen un claro potencial para mejorar esas capacidades, pero tengamos en cuenta sus deficiencias y mantengámonos alejados de su mal uso.