viernes, 30 de noviembre de 2018

La depravación de la negación del cambio climático

La administración de Trump es, no hace falta decirlo, profundamente anticientífica. De hecho, es anti-objetiva con la realidad. Pero su control del gobierno sigue siendo limitado; no se ejercitó lo suficiente como para evitar la publicación de la última Evaluación Nacional del Clima, que detalla los impactos actuales y futuros del calentamiento global en los Estados Unidos y por ende, en el mundo. Es cierto que el informe se publicó el mismo Black Friday, claramente con la esperanza de que cayera perdido entre la confusión consumista. La buena noticia es que esta estratagema no funcionó. Básicamente, la evaluación confirma, con una gran cantidad de detalles adicionales, lo que cualquier persona conocedora de la ciencia climática ya sabía: el cambio climático representa una gran amenaza para el mundo, y ya se están sintiendo algunos de sus efectos adversos. Por ejemplo, el informe, escrito antes del último desastre de California, destaca los riesgos crecientes de incendios forestales en el suroeste estadounidense; y que el calentamiento global -no el rastrillar las hojas- es la razón por la cual los incendios son cada vez más grandes y peligrosos. Pero la administración de Trump y sus aliados en el Congreso, por supuesto, ignorarán este análisis. Negar el cambio climático, sin importar la evidencia, se ha convertido en un principio republicano central. Y vale la pena tratar de entender cómo sucedió eso y la depravación total en la que están llegando a sumergirse los negacionistas en este momento. Espera, ¿no es la depravación un término demasiado fuerte? ¿No están autorizadas las personas a estar en desacuerdo con la sabiduría convencional, incluso si esa sabiduría está respaldada por un consenso científico abrumador? Sí, lo están, siempre que sus argumentos se expongan de buena fe. Pero casi no hay negadores del cambio climático con buena fe. Y negar la ciencia […]

La entrada La depravación de la negación del cambio climático aparece primero en El Captor.



jueves, 29 de noviembre de 2018

Congestión y polución en ciudades: ¿Mal endémico o medidas erróneas?

 de Xavier Fageda y Ricardo Flores-Fillol

El gran peso que tiene el coche como medio de movilidad en grandes ciudades genera importantes externalidades negativas en términos de congestión y contaminación. El problema, que es extraordinariamente grave en cuanto a tiempo perdido y salud pública, parece fuera de control y empeora año tras año. Muchas ciudades en Europa han adoptado zonas de baja emisión (como Barcelona el pasado 01/12/2017 y más recientemente Madrid con entrada en vigor progresiva a partir del 30/11/2018), mientras que sólo unas pocas han decidido establecer peajes de congestión (Londres en 2003, Estocolmo en 2006, Milán en 2008, Gotemburgo en 2013 y Palermo en 2016). A esto se le suman las reclamaciones permanentes de mejora de infraestructuras viarias en las ciudades congestionadas. Es frustrante observar como el problema se enquista y empeora a pesar de las medidas adoptadas, lo que transmite la idea de mal endémico inherente a las grandes ciudades.

En esta entrada analizamos las propiedades de las tres medidas a las que hacíamos alusión previamente: las inversiones en infraestructuras, las restricciones vía cantidades (zonas de baja emisión) y las restricciones vía precios (peajes de congestión). Dicho análisis nos permitirá valorar si existe solución al problema y, en su caso, qué medida es la más adecuada (más detalles en Fageda y Flores-Fillol, 2018). Esta entrada complementa y actualiza otras previas sobre este tema (aquí, aquí, aquí, aquí y aquí).

La congestión viaria en núcleos urbanos se explica porque la oferta (infraestructura) es incapaz de absorber la demanda, sobre todo a primera hora de la mañana y a última de la tarde. El motivo tiene que ver con la coexistencia de una oferta fija y una demanda muy variable (caracterizada por horas punta y valle). La congestión se traduce en grandes atascos que ocasionan problemas a los ocupantes de los vehículos y a los habitantes de las ciudades, que encuentran sus calles bloqueadas por un número excesivo de vehículos que producen ruido y contaminación. La relación entre congestión y contaminación es clara, pues el uso de marchas cortas a velocidades reducidas tiene un efecto notable en la emisión de sustancias contaminantes (Parry et al., 2007). Estas emisiones causan la muerte de 3,3 millones de personas al año en el mundo, 31.520 de ellas españolas según la Agencia Europea del Medio Ambiente (info aquí), más que el SIDA, la malaria y la gripe juntas (Lelieveld et al., 2015).

Congestión. Con datos sobre ciudades de todo el mundo, TomTom elabora un indicador de congestión que mide el tiempo adicional que necesita un vehículo para acceder al centro urbano con respecto a una situación de tráfico fluido (info aquí). Así, los atascos en Barcelona y Madrid conllevan que un vehículo tarde un promedio de 31% y 25% más de tiempo, respectivamente, en comparación con la situación descongestionada (datos de 2016). TomTom también ha publicado un informe sobre el coste de la congestión en las empresas españolas (info aquí). Cabe destacar las 119 horas extra al volante en Barcelona (equivalentes a 14 días laborables) y 105 en Madrid. Este tiempo se traduce en una pérdida económica enorme: 175,5 millones de euros en Barcelona y 187,5 millones de euros en la capital española.

Contaminación atmosférica. La Organización Mundial de la Salud (OMS) dispone de una base de datos sobre calidad del aire en las ciudades más pobladas del mundo que proporciona la concentración de partículas en suspensión de tipo PM10 y PM2.5 (partículas con un diámetro aerodinámico inferior o igual a 10 y 2,5 micrómetros, respectivamente). Desde hace unos años, la OMS recomienda la utilización de indicadores basados en PM2.5, ya que se consideran un mejor indicador de la contaminación urbana debido a su origen fundamentalmente antropogénico. Los efectos de las PM2.5 sobre nuestra salud son muy graves por su composición rica en componentes muy tóxicos con gran capacidad de penetración en las vías respiratorias. Según los Valores Guía de protección para la salud de la OMS, una concentración anual media de 10 μg/m3 sería el nivel más bajo a partir del cual se ha detectado asociación entre efectos cardiopulmonares y mortalidad; el riesgo aumenta con la concentración de partículas como cabe esperar (OMS, 2005). El valor registrado en Barcelona es 15 μg/m3, mientras que el de Madrid es 10 μg/m3.

En esta tabla se aprecian los niveles de congestión y contaminación en las capitales europeas más congestionadas (más Barcelona).

Tabla 1: Capitales europeas más congestionadas (más Barcelona) en 2016.

Estos datos constatan la gravedad del problema y su tendencia a empeorar. A continuación, explicamos las propiedades de las tres medidas principales que pueden adoptarse: las inversiones en infraestructuras, las restricciones vía cantidades y las restricciones vía precios.

Inversiones en infraestructuras. En núcleos urbanos con infraestructuras maduras, las inversiones destinadas a mejorar la oferta tienen una baja rentabilidad social ya que sus costes son muy elevados, pueden tener efectos regresivos (en la medida en que se financian con impuestos de base amplia de los que se benefician fundamentalmente los conductores) y son generalmente ineficaces. Esto último es debido a que la mejora de la oferta puede verse correspondida con un aumento de la demanda como respuesta a la reducción del coste generalizado del viaje (Duranton y Turner, 2011).

Restricciones vía cantidades. Las más utilizadas en Europa son las zonas de baja emisión (aplicadas en Barcelona y recientemente en Madrid). Estas medidas son:

- Ineficientes. Tienen carácter indiscriminado y expulsan a conductores con gran necesidad de acceder al centro de la ciudad.

- Ineficaces a medio plazo. Pierden progresivamente su eficacia en cuanto a prevención de los atascos a medida que se renueva la flota de coches (aunque pueden ser eficaces en cuanto a la reducción de la polución).

- Regresivas. Afectan a los vehículos más contaminantes, que son los más antiguos y pertenecen a las familias con menor poder adquisitivo.

Restricciones vía precios: peajes de congestión. Estas medidas tienen la virtud de ser:

- Eficientes. Aquellos usuarios que valoran más la infraestructura son precisamente los que la acaban utilizando.

- Eficaces. Pueden reducir sustancialmente el tráfico desde el momento de su implementación.

- No regresivas si están bien diseñadas. Sobre esta cuestión cabe señalar que: i) su importe suele ser bajo, ii) implican un cierto ahorro en carburante al reducir los atascos, y iii) generan recursos que pueden destinarse a la mejora del transporte público o a políticas sociales progresivas.

Además, un reciente estudio (Bernardo et al., 2018) con datos europeos muestra que las zonas de baja emisión no son efectivas en la reducción de la congestión, mientras que los peajes de congestión sí que funcionan (confirmando estudios parciales anteriores: Eliasson, 2008; Santos y Fraser, 2005; Andersson y Nässén, 2016; Gibson y Carnovale, 2015, entre otros).

Por tanto, constatamos que en muchas ciudades europeas (incluidas Madrid y Barcelona) se están aplicando políticas erróneas que son ineficientes, ineficaces y regresivas. Sostenemos que el problema tiene solución si se aplica la política adecuada. Proponemos el establecimiento de un peaje de congestión que regule el acceso al centro de Madrid y Barcelona en horas punta. Este sistema puede resolver definitiva y permanentemente el problema de los atascos, a la vez que ayudaría a mitigar sustancialmente el de la contaminación atmosférica. Además, es sencillo de diseñar e implementar y produce resultados inmediatos a la vez que genera recursos adicionales.

La impopularidad derivada de pagar un nuevo peaje es evidente. No obstante, la experiencia de las ciudades donde se ha aplicado limita este escollo al corto plazo. En Estocolmo, el apoyo social al peaje pasó del 30% al 70% un año después de su aplicación (Eliasson, 2008), una vez que los ciudadanos experimentaron directamente su efectividad (el tráfico se redujo en un 20% de forma inmediata).



miércoles, 28 de noviembre de 2018

Premio SERIEs 2018: Los concursos de acreedores y las microempresas

 

Nota del editor: Una de las actividades mediante las que la Asociación Española de Economía contribuye a difundir los resultados de la investigación económica en España es un premio a uno de los  artículos publicados en la revista académica de la asociación, SERIEs.

En esta ocasión el comité, compuesto por Luisa Fuster, Maia Güell y Diego Puga, ha decidido otorgar el premio al mejor trabajo de SERIEs en el período 2014-2017 a “Are there alternatives to bankruptcy? A study of small business distress in Spain”, (publicado en el vol. 5, no. 2-3, Agosto 2014, pp. 287-332) de a Miguel García-Posada y Juan S. Mora-Sanguinetti (ambos Economistas Titulados de la Dirección General de Economía, Estadística e Investigación del Banco de España).

Esta es la valoración del comité:

Este es un estudio novedoso y cuidadoso que aborda un tema importante y tiene claras implicaciones políticas. Las tasas de quiebra empresarial en España se han mantenido entre las más bajas del mundo, incluso durante la crisis económica reciente. Utilizando datos cruzados por países a nivel de empresa, el trabajo presenta evidencia de que esto refleja procedimientos ineficientes de bancarrota en España. Estos procedimientos distorsionan la estructura de capital de las pequeñas empresas españolas y la elección entre crédito no seguro y seguro. En relación con sus contrapartes en Francia y el Reino Unido, las pequeñas empresas en España invierten demasiado en activos tangibles, muy poco en activos intangibles, y se apoyan demasiado en el crédito hipotecario. Los hallazgos sugieren que los procedimientos ineficientes de quiebra en España pueden llevar a importantes pérdidas de eficiencia.

A continuación (con nuestra enhorabuena a los premiados) reproducimos un resumen más amplio de este trabajo (y aprovechamos la ocasión para animaros a participar en el  I Premio Nada es Gratis para Job Market Papers en Economía., cuya convocatoria se cierra mañana viernes 30 de noviembre).

Resumen:

En España, el uso de los concursos de acreedores por parte de las empresas con dificultades financieras ha sido tradicionalmente muy escaso. Así, antes de la crisis económica, en 2006, la tasa de concursos empresariales (número de solicitudes de concurso empresarial dividido por el número de empresas que salen del mercado) era una de las más bajas del mundo (véase la Tabla 1, segunda columna). Si bien la crisis económica provocó un aumento relativo de los concursos de acreedores, las tasas de concursos continuaron siendo muy bajas en comparación con las de países de nuestro entorno. Por ejemplo, en 2010, los concursos empresariales representaban únicamente un 1,7% de las salidas empresariales en España, frente al 14% del Reino Unido y  el 31,3% de Francia (véase la Tabla 1, tercera columna).

Cuadro 1: tasas de concursos en diferentes países en 2006 y 2010.  

Detrás de este hecho, que ya fue documentado por Celentani, García-Posada y Gómez (2010), se escondía una importante heterogeneidad relativa al tamaño de las empresas. Así, el gráfico 1 muestra la evolución de las tasas de concurso para las microempresas (con menos de 10 trabajadores) y para el resto de empresas (empresas pequeñas, medianas y grandes) para el período 2004-2013. En dicho gráfico se puede observar cómo las tasas de concursos de las empresas que no son micro se asemejaban bastante a las tasas agregadas de los países de nuestro entorno, mientras que las tasas de las microempresas españolas eran extraordinariamente bajas. La evidencia disponible también sugería que las microempresas españolas solicitaban concurso de acreedores mucho menos que sus homólogas europeas. Por ejemplo, en 2006 las tasas de concursos de los autónomos y las microempresas españolas fueron del 0,01% y del 0,15%, respectivamente, mientras que en Francia fueron 11,1% y 23% y la tasa de concursos de autónomos en el Reino Unido fue 16,2%.

Figura 1: tasas de concursos de microempresas y resto de empresas

Dado que las empresas micro representan el 95% del tejido productivo español, estas son el factor clave detrás de la baja tasa de concursos agregada. En este trabajo intentamos explicar este hecho. Nuestra hipótesis era la siguiente. En España los concursos de acreedores eran procedimientos lentos y costosos. Además, la falta de un procedimiento de insolvencia personal con exoneración de deudas tras la liquidación del patrimonio embargable (segunda oportunidad) hasta hace muy poco (febrero de 2015, véase aquí un análisis de la reforma) hacía que el procedimiento fuera muy poco atractivo para empresas pequeñas y autónomos (como ya fue explicado aquí). Por el contrario, existía un mecanismo alternativo de ejecución de contratos, las ejecuciones hipotecarias, que eran procedimientos más baratos y ágiles que los concursos. Debido a esto, las empresas sesgaban su estructura de pasivos hacia los préstamos hipotecarios y su estructura de activos hacia inmovilizado material (suelo, inmuebles y maquinaria) con el objetivo de tener activos que poder ser usados como garantía hipotecaria. Ello les permitía resolver problemas de insolvencia mediante el recurso al sistema hipotecario, evitando así el sistema concursal, así como beneficiarse de mejores condiciones de financiación, debido a la menor prima de riesgo cargada por los prestamistas.

Para contrastar esta hipótesis, usamos una gran muestra de empresas de España, Francia y Reino Unido para el año 2008. Escogimos Francia y Reino Unido como comparación por sus características institucionales y porque sus tasas de concursos son mucho más elevadas que las españolas. Se trata de dos países en las que los procedimientos concursales funcionan relativamente rápido y con costes moderados, y que contemplan mecanismos de segunda oportunidad en sus procesos de quiebra personal. Por el contrario, el sistema hipotecario no es tan eficiente y diversas provisiones de sus leyes de insolvencia hacen que el crédito hipotecario no sea tan atractivo como en el caso español. Por lo tanto, en dichos países no debería de haber un claro sesgo hacia el crédito hipotecario y los activos que puedan funcionar como garantía del mismo.

Los resultados obtenidos corroboraban esta hipótesis. Primero, la ratio entre activo inmovilizado material (los activos susceptibles de ser usados como garantía hipotecaria) y deuda financiera era mucho más alta en las microempresas españolas que en sus homólogas francesas y británicas. Segundo, existía una correlación positiva y fuerte entre la probabilidad ex-ante de quiebra y la ratio entre activo inmovilizado material y deuda financiera en el caso de las microempresas españolas. Ello sugería que las empresas con modelos de negocio arriesgados sesgaban su estructura de capital hacia préstamos hipotecarios para evitar el concurso de acreedores en caso de quiebra. Tercero, una mayor ratio entre inmovilizado material y deuda financiera reducía significativamente la probabilidad de solicitar concurso de acreedores en el caso de las microempresas españolas que se encontraban en dificultades financieras, lo que sugería el recurso al sistema hipotecario. Por el contrario, estos fenómenos no se daban ni para el resto de empresas españolas ni para las empresas francesas y británicas.

Por lo tanto, la evidencia disponible apuntaba a que las microempresas españolas sesgaban su estructura de activos y pasivos en favor del activo inmovilizado material (suelos, edificios, maquinaria) y la deuda hipotecaria, respectivamente, con el objetivo de evitar el sistema concursal en caso de insolvencia y beneficiarse de una financiación más barata. Esta distorsión podría conllevar importantes pérdidas de eficiencia, pues las compañías tendrían incentivos a seleccionar proyectos empresariales que requieran un mayor nivel de inmovilizado material en detrimento de proyectos con un valor actual neto mayor (por ejemplo, construcción frente a I + D). De este modo, se reduciría la proporción de sociedades que realizan actividades innovadoras, en tanto que estas suelen poseer una alta proporción de activos intangibles no susceptibles de ser usados como garantía hipotecaria. Asimismo, se producirían ineficiencias productivas, ya que los activos de la empresa no se elegirían para minimizar los costes de producción, sino para maximizar la disponibilidad de crédito.

Por último, cabe destacar que el presente estudio se realizó con datos del año 2008, y que desde entonces se han introducido seis reformas de la Ley Concursal (algunas de las cuales fueron explicadas aquí y aquí). La evidencia disponible (García-Posada y Vegas) muestra que algunas de las reformas tuvieron un cierto impacto positivo en la eficiencia de los procedimientos concursales. El número de concursos de acreedores ha descendido respecto a los máximos registrados durante la crisis, pero es ciertamente superior al observado en los años inmediatamente anteriores a esta (véase gráfico 2). Por tanto, es necesario investigar más sobre el tema para saber si el sistema concursal ha dejado de ser una traba para la innovación, el crecimiento empresarial y la productividad de nuestro país.

Figura 2: evolución del número de concursos de acreedores

 



El oscuro camino del neoliberalismo hacia el fascismo

El neoliberalismo como teoría económica siempre fue un absurdo. Tenía tanta validez como otras ideologías dominantes del pasado, véase el derecho divino de los reyes o la creencia del fascismo en el Übermensch (Superhombre). Ninguna de sus esperanzadoras promesas eran ni remotamente posibles. Concentrar la riqueza en manos de una élite oligárquica global (ocho familias tienen ahora tanta riqueza como el 50% de la población mundial), y demoler a la vez los controles y las regulaciones gubernamentales no podía sino conducir inexorablemente a la desigualdad de ingresos, a la creación de monopolios, al extremismo político y a la destrucción de la democracia. No hace falta ir a las 577 páginas de “El capital en el siglo XXI” de Thomas Piketty para darse cuenta de esto. Pero la racionalidad económica nunca fue el asunto. El asunto era la restauración del poder de clase. Como ideología dominante, el neoliberalismo tuvo un éxito brillante. A partir de la década de 1970, los principales críticos keynesianos fueron expulsados ​​de la academia, las instituciones estatales, organizaciones financieras como el Fondo Monetario Internacional (FMI) y el Banco Mundial, así como de los medios de comunicación. Cortesanos e intelectuales petulantes que cumplían con los requisitos, léase por ejemplo Milton Friedman, fueron formados en lugares como la Universidad de Chicago y recibieron plataformas prominentes y lujosos fondos corporativos. Difundieron el mantra oficial de teorías económicas desacreditadas y marginales que popularizaron Friedrich Hayek  y la escritora de tercera categoría Ayn Rand. Y en cuanto nos arrodilláramos ante los dictados del mercado y se levantaran las regulaciones gubernamentales, se recortaran los impuestos a los ricos, se permitiese el flujo de dinero a través de las fronteras, se destruyeran los sindicatos y se firmaran acuerdos comerciales que enviaban puestos de trabajo a las explotaciones en China, el mundo sería un lugar más feliz, libre y rico. Fue una estafa. Pero funcionó. “Es importante reconocer los orígenes de clase de este proyecto, gestado en la década de […]

La entrada El oscuro camino del neoliberalismo hacia el fascismo aparece primero en El Captor.



Consecuencias del consumo de artículos de economía, broma y confusión

Caerás enfermo. Te sentirás triste. Terminarás rehuyendo de los telediarios, los discursos de Navidad y los periódicos. No idealizarás el funcionamiento de la economía, la política o la democracia. Dejarás las redes sociales, cogerás más la bicicleta. Te sentirás incómodo cuando vayas a comprar ropa, comida o dinero. Pasarás a creer que te has convertido en otro cómplice más. Buscarás comercios y objetivos de proximidad. Seguirás considerando la Bolsa, con toda justicia, un chantaje y una estafa de dimensión minúscula, mayúscula y legal. Y oirás la palabra fascismo en cualquier lugar, cada vez de forma más nítida y precisa. Pensarás cuánto te habías equivocado y cuánto te equivocarás. Desaparecerá la diferencia entre información, propaganda y publicidad. Terminarán por derrumbarse construcciones míticas como Las Nuevas Tecnologías o Internet. E intentarás que los lobos nunca consigan que sus aullidos puedan alunizar. Notarás un vacío y te preguntarás constantemente si es posible rellenar con algo su lugar. Traspasarás el significado del concepto “esperanza” como si fueras o hubieras visto un fantasma. Aumentará entonces tu sensación de disponer de una mayor cantidad de tiempo, pero solo será eso, una sensación. Te adentrarás en la jungla con asombrosas dosis de seguridad y autoconfianza. Deberás decidir si emprender o no la producción de artículos de economía, broma y confusión. Remitirán los síntomas.

La entrada Consecuencias del consumo de artículos de economía, broma y confusión aparece primero en El Captor.



martes, 27 de noviembre de 2018

La organización de la empresa familiar y confianza durante una crisis

de Mircea Epure

En una intervención reciente en Bloomberg, Luigi Zingales alertaba sobre la poca sostenibilidad de la rigidez organizativa y la gestión más personal que profesional de las empresas familiares. Estas empresas suelen seguir políticas corporativas que barajan la fiel representación de las preferencias de los accionistas, la conservación del legado familiar y una fuerte incrustación en las normas sociales locales (evidencia aquí). Sus particularidades y su documentada prevalencia alrededor del mundo, incluso entre las grandes empresas, hicieron que el interés en sus actividades e impacto económico se incrementara exponencialmente.

Con la severidad de los efectos de la reciente crisis financiera todavía en el punto de mira, una pregunta que emerge es si existieron efectos negativos de diferente intensidad en función de la estructura de propiedad y el control de las empresas. Algunos alegarían que, siguiendo estrategias más conservadoras, las empresas familiares reducirían más la inversión durante la crisis, afectando así a la recuperación económica pero asegurando que la familia mantendría el control de la empresa. Otros se esperarían que, debido a tener menos conflictos internos de intereses y una mayor capacidad para contratar financiación de forma relacional, las empresas familiares tendrían una ventaja durante una crisis de la banca.

En un trabajo reciente –Amore y Epure 2018– estudiamos los mecanismos que subyacen a las ventajas y desventajas del modelo organizativo familiar. Para revelar qué modelos de propiedad y gobierno corporativo conllevan peores efectos en una crisis financiera, vamos un paso más allá del enfoque tradicional basado en las características formales de la empresa y los mercados: explicamos cómo un atributo cultural en la región donde está situada la sede de la empresa, la confianza generalizada, moldea el efecto del modelo organizativo familiar sobre el rendimiento y la financiación de la empresa durante una crisis.

Kenneth Arrow indicaba ya en 1972 que existe un elemento de confianza en cualquier transacción, y los economistas usaron abundantemente las diferencias en este atributo cultural para explicar el comportamiento individual y de la empresa. Para medir el nivel de confianza generalizada se recurre a encuestas en las que se pregunta: “¿diría usted que se puede confiar en la mayoría de la gente? (con la contrapartida: “¿o que nunca se es lo suficientemente prudente al tratar con los demás?”). Las implicaciones de esta confianza son clave para el comportamiento empresarial. Las regiones con un nivel mayor de confianza generalizada están más orientadas a intercambios impersonales en el mercado, mientras que aquellas con menores niveles están caracterizadas por intercambios personales en redes más cerradas; dicho de otra forma, la confianza generalizada ayuda a bajar los costes de transacción.

Existe mucha evidencia sobre los efectos beneficiosos de la confianza generalizada sobre aspectos como la participación en el mercado, la descentralización o la innovación. Destaca un trabajo reciente que muestra como la confianza generalizada en el área de la sede empresarial puede mitigar los efectos negativos de la crisis. ¿Pero cambiaría este efecto en el caso de las empresas familiares? Sus ventajas competitivas están basadas en su incrustación en las redes locales, hecho demostrado tanto para economías desarrolladas como para otras en desarrollo. En tiempos de bonanza estas ventajas pueden materializarse perfectamente en mejores resultados, pero son incongruentes con los mecanismos de la confianza en intercambios impersonales en el mercado. Durante una crisis, las áreas con una mayor confianza generalizada, requieren una mayor transparencia de las transacciones y un diseño organizativo basado en la gestión profesional y la responsabilidad de las decisiones estratégicas. Observaríamos pues una inversión del efecto beneficial de la confianza generalizada sobre los resultados de las empresas familiares durante la crisis financiera. Mientras que las empresas no-familiares se beneficiarían de la confianza generalizada para mitigar los efectos negativos de la crisis, los niveles altos de confianza generalizada agravarían los efectos de la crisis sobre las empresas familiares.

Para poder realizar un análisis que permitiera establecer conclusiones causales, nos gustaría disponer de un entorno donde hubiera una crisis inesperada, y que los valores culturales cayeran “del cielo” sobre una distribución aleatoria de organización de las empresas. En nuestro artículo proponemos que existe un laboratorio excelente con estas características: Italia. Primero, a los economistas les encantaría decir que la crisis financiera era predecible, pero no fue el caso. Segundo, los valores culturales en Italia no cayeron exactamente del cielo, pero se formaron hace ya mucho tiempo debido a la diferente organización institucional de las regiones italianas en la Edad Media y son muy persistentes en el tiempo; es entonces razonable asumir que su distribución es exógena a los resultados de las empresas en el presente. El mapa de más abajo es revelador de la heterogeneidad del panorama italiano: incluso dentro de áreas geográficas con nivel similar de desarrollo, existen diferencias importantes en la confianza generalizada. Estas diferencias persisten cuando recreamos el mapa con valores anteriores (2005) o posteriores (2012) a la crisis.

Diferencias en confianza generalizada

Fuente: Amore y Epure (2018), basado en datos de la World Values Survey. La intensidad de los colores indica valores más elevados de confianza generalizada. La media regional considerando todas las empresas en la muestra es 0.33 (mediana 0.36).

El siguiente grafico muestra nuestro resultado principal, derivado de un análisis de 14.742 empresas únicas (de las cuales 65% son empresas familiares) seguidas durante 2004-2010. Todas estas empresas son relativamente grandes, con ingresos de al menos 20 millones de euros en 2007. La crisis financiera tuvo un efecto simétrico sobre las empresas italianas en las distintas regiones: una caída del rendimiento operativo sobre los activos (ROA) entre 14% y 18%, equivalente a 1.3-1.6 puntos porcentuales (desde la media de 9%). Mientras que la confianza generalizada no tiene impactos diferenciales en tiempos de bonanza, nuestros resultados muestran que este atributo cultural ayuda a las empresas no-familiares a atenuar el efecto negativo de la crisis en 0.4 puntos porcentuales (significativo estadísticamente al 90%); pero agrava el efecto de la crisis sobre las empresas familiares en 0.3 puntos porcentuales (significativo al 95%). Obtenemos efectos cualitativamente similares sobre los rendimientos sobre ingresos o la productividad total de los factores.

Efecto de la crisis sobre el rendimiento operativo sobre los activos (ROA)

Fuente: Amore y Epure (2018). El grafico muestra los coeficientes de una regresión de ROA (beneficios antes de intereses, impuestos y depreciación divididos por activos totales) sobre la interacción entre variables binarias para cada año (2004 es el año base) y una variable binaria que indica valores de confianza generalizada más altos que la mediana. En las regresiones controlamos por nivel de activos totales, efectivo disponible sobre activos, deuda sobre activos, y efectos fijos de empresa. Las líneas continuas muestran los coeficientes de la regresión, y las rayadas corresponden a intervalos de confianza al 95%.

Estos efectos económicamente importantes sobreviven a una serie extensa de controles a nivel de empresa, calidad de las instituciones y desarrollo económico regional. Tienen además varios niveles de heterogeneidad. El aumento del efecto negativo de la crisis sobre las empresas familiares situadas en áreas con niveles altos de confianza generalizada desaparece para las que tienen profesionales en la junta directiva (comparando con las que tienen juntas directivas controladas totalmente por familias). En contraste, el efecto negativo se agrava para las empresas familiares manufactureras que son dependientes de financiación externa. Este resultado sugiere que, en las áreas con confianza generalizada alta, las empresas controladas por familias no se benefician de crédito de los proveedores, que parece ser la principal fuente de recursos financieros para el resto de empresas en tiempos de crisis.

Nuestros resultados tienen varias implicaciones. Primero, mostramos que la congruencia entre la organización empresarial y los valores culturales en el área de localización de la sede de la empresa es clave para entender los efectos de una crisis económica. Segundo, enfatizamos que no es simplemente un asunto de derechos de propiedad de la empresa. Es fundamental considerar la importancia del gobierno corporativo y la gestión profesional, factores que recientemente atrajeron la atención de los economistas en sus intentos de explicar las diferencias persistentes en la productividad a nivel de empresa y países (ejemplos aquí y aquí). Tercero, las crisis financieras suelen ser mayormente bancarias. Cuando este canal tradicional está bloqueado, las empresas se dirigen a fuentes alternativas de financiación como sus proveedores (ver evidencia internacional o de EEUU). Y cuando estos proveedores también sufren los efectos de la crisis, sus recursos fluyen principalmente hacía las empresas compatibles con la configuración local de los valores culturales.

Esta entrada está basada, sobretodo, en la literatura y el análisis presentados en “Amore, M.D., Epure, M. 2018. Family Ownership and Trust During a Financial Crisis.” Disponible aquí.



Polonia vs España: una convergencia espectacular

En 2001 un joven economista observador con tan sólo 30 años fue a Polonia. Era el director financiero de Estudio Lamela Arquitectos y nos habían adjudicado la nueva terminal del aeropuerto de Varsovia, en un consorcio con Ferrovial, y tenía que crear un sucursal para desarrollar el proyecto. La ciudad estaba mucha más atrasada que Madrid y las cicatrices de décadas de comunismo eran visibles. Lo que más destacaba era la construcción en hormigón de vivienda social racionalista y con estética estalinista. Los coches, la ropa, etcétera.

Pero el contraste era brutal y de repente veías destellos de país avanzado. Nuestra terminal incorporaba a Polonia a la vanguardia mundial en aeropuertos de última generación. Foster había desarrollado varios proyectos en la ciudad. El centro histórico de la ciudad se había rehabilitado y era habitual el alquiler turístico por días.

1. En los últimos 5 años Polonia ha aumentado su cuota en las exportaciones mundiales un 30%, España un 10%

Restaurantes de diseño, discotecas donde los jóvenes lo daban todo cualquier día de la semana y con 15 bajo cero en el exterior. En la biblioteca de la facultad de economía los libros antiguos convivían con los mismos manuales que nosotros enseñábamos en Alcalá. Muchos profesores se habían doctorado en EEUU y tenían un altísimo nivel.

Recuerdo que todo lo que veía se parecía mucho a lo que había sucedido en España en los años ochenta cuando nos incorporamos a la Unión Europea. Hoy mirando la web de Eurostat he visto los datos de indicadores adelantados de prevención de crisis, donde Polonia destacaba.

En los últimos cinco años Polonia ha aumentado su cuota en las exportaciones mundiales un 30%, España un 10%. España abandonó la autarquía y la planificación franquista en 1959, Polonia la planificación comunista en 1991 de la mano del plan de estabilización diseñado por Jeffrey Sachs. Por eso he dibujado en el gráfico que viene a continuación la renta por habitante de los polacos en relación con los españoles. La convergencia es espectacular.

 

 

2. Al igual que en España, la desigualdad en Polonia es elevada y un reto para los próximos años

La entrada en la Unión Europea ofrece a las empresas seguridad jurídica y se produce una llegada masiva de inversiones para aprovechar los menores salarios, principalmente en el sector industrial.

Polonia se ha beneficiado de la negociación que Felipe González hizo de los fondos estructurales europeos, igual que España lo hizo antes y muchas comunidades autónomas españolas siguen beneficiándose. El boom de inversión generó en ambos países déficit con exterior y elevada deuda externa. En Polonia 60% del PIB, inferior al 80% del PIB de España pero elevada para un país de renta por habitante más baja.

En Polonia sorprendentemente hay un gobierno nacionalista enfrentado con la Unión Europea y proteccionista. Sin duda, un virus global que afecta a todos los países, incluidos a los que más se han beneficiado de la Globalización desde 1980. Al igual que en España, la desigualdad es elevada y es un reto para los próximos años.

 

España y Polonia

 

Muchos españoles trabajan en Polonia. El otro día cenando con un amigo miro en una aplicación del móvil los niveles de calidad del agua en una depuradora en Polonia gestionada por una empresa española. Y muchos polacos trabajan en España, en Alcalá tenemos muchos alumnos de la Europa del Este.

España y Polonia han sufrido mucho en el último siglo y ambos nos merecemos progresar y compartir el proyecto europeo, hoy lamentablemente sin el Reino Unido (Brexit).  Los europeos deberíamos acostumbrarnos a empezar a hablar de lo que nos une antes de lo que nos separa para reforzar este proyecto que ha traído paz y desarrollo humano a millones de ciudadanos, entro los que me incluyo.

 

blog josé carlos díez

La entrada Polonia vs España: una convergencia espectacular aparece primero en El Blog de José Carlos Díez.



lunes, 26 de noviembre de 2018

Un índice mundial del capital humano

Hace unas semanas el Banco Mundial lanzó a la luz su Human Capital Project, una iniciativa que pretende acelerar la inversión en el capital humano de las personas, con el objetivo final de conseguir un reparto más equitativo del crecimiento económico. Adam Smith fue seguramente el primer economista que utilizó el concepto de capital humano, aunque la idea fue popularizada mucho más tarde por Gary Becker y otros economistas de la Universidad de Chicago. Aunque inicialmente recibió cierto rechazo – lo de capital humano sonaba a pensar en personas como máquinas – la idea de entender el trabajo de las personas como una combinación de sus horas de esfuerzo y a la vez su educación, salud, etc. fue rápidamente incorporada al análisis económico.

¿Por qué deberíamos invertir en capital humano? ¿Es posible que intervenciones para mejorar la salud y la educación de los niños a corta edad tengan un impacto significativo en su vida como adultos? ¿A qué tipo de barreras se enfrentan los Gobiernos de los países que intentan mejorar el capital humano de su población? Estas son algunas de las preguntas que aborda el Banco Mundial en este proyecto.

Uno de los principales productos de este proyecto es la construcción de un índice de capital humano (The Human Capital Index) alrededor del mundo. Este índice pretende medir el capital humano que un niño/a nacido hoy puede esperar alcanzar cuando tenga 18 años, dados los riesgos de salud y educación prevalentes en el país donde vive. Construir un índice de este tipo de forma rigurosa es una tarea muy complicada. Pensemos, por ejemplo, en medir el nivel de educación en diferentes países y tratemos de establecer comparaciones que tengan sentido. Rápidamente uno se da cuenta de que esto es una tarea muy difícil. Por ejemplo, 10 años de educación en Mozambique no equivalen a 10 años de educación en España. La infraestructura de las escuelas, la calidad del profesorado y el número de clases perdidas, entre muchas horas variables, varían muchísimo alrededor del mundo.

El Human Capital Index (HIC) recoge información para todos los países del mundo sobre las siguientes variables: la probabilidad de sobrevivir a los cinco años, los años que se espera que un niño permanezca en la escuela, una medida de los resultados en los exámenes, el total de años en la escuela, el porcentaje de niños menores de cinco años que no sufren enanismo, y la edad de supervivencia como adultos. Además, todas las variables están disponibles para hombres y mujeres. Los datos están disponibles para el que quiera analizarlos en más detalle. La metodología empleada para recoger los datos y construir el índice es complicada y no quiero entrar en detalles en esta entrada. Para el lector interesado, este es el trabajo que explica cómo se construyó el índice (ver aquí).

El HCI está medido en unidades de productividad relativas al punto de referencia de educación completa y nivel máximo de salud, y oscila entre 0 y 1. Un valor de x en el HCI indica que un niño nacido hoy puede esperar ser x*100 por cien tan productivo en el futuro como lo sería si hubiera tenido un nivel máximo de educación y salud. El punto de referencia de “educación completa” se define como 14 años de escuela (ajustados por cuanto se aprende allí mediante índices de la calidad de la educación en cada país). El punto de referencia de “salud completa” se define como una probabilidad del 100% de sobrevivir a los 18 años y no sufrir enanismo. Consideremos, como ejemplo, el caso de Marruecos, con un FCI e 0,5. Esto significa que, si las condiciones de educación y salud en Marruecos no cambian, un niño/a nacido hoy será, cuando tenga 18 años, solamente la mitad de productivo de lo que podría haber sido de haber disfrutado una educación y salud plenas.

El siguiente mapa muestra como varia el índice alrededor del mundo. Lo más llamativo (aunque seguramente no sorprenda mucho) es que el HCI varía enormemente entre países, oscilando entre 0,3 y 0,9. El área azul, que incluye Europa, Norte America, Australia y algunos países de Asia, representa el mayor nivel de capital humano, mientras que los niveles más bajos aparecen en naranja y corresponden a países del África subsahariana y algún país de Oriente Medio. En la página web del banco se puede acceder a este mapa interactivo y ver el valor del índice para cada país. España, por ejemplo, tiene un índice del 0,74, muy parecido al de Francia (0,76), Alemania (0,79), o Gran Bretaña (0,78) o Estados Unidos (0,76). La Republica Democrática del Congo, en comparación, tiene un valor bajísimo de 0.37

Otra forma de resumir este índice es correlacionarlo con el nivel de PIB per cápita de cada país. El siguiente gráfico muestra, como cabría esperar, una fuerte correlación positiva entre el nivel de riqueza de un país y su capital humano.

A la cabeza del índice están países como Singapur, Alemania, Estados Unidos y Corea del Sur. En la cola del índice aparecen países sobre todo del África subsahariana como Malawi, Mozambique y Chad.

Respecto a las diferencias de género, los datos indican que éstas son especialmente pronunciadas en cuanto a la probabilidad de sobrevivir a los 5 años y de sufrir enanismo, donde las niñas, tienen una menor probabilidad en la mayoría de países, El número esperado de años de escolarización y los resultados en los exámenes son también mayores para niñas que para niños en dos tercios de los países El siguiente gráfico (donde los niños están representados por cuadrados y las niñas por líneas) muestra que, las niñas tienen mayores valores del HCI que los niños en la mayoría de los países. La brecha entre niños y niñas tiende a ser menor e incluso se invierte entre los países más pobres, aunque hay que tener en cuenta que los datos desagregados en estos países son menos completos.

Aunque en estos momentos solo se dispone de datos para un año, es de esperar que este índice se publique a partir de ahora de forma periódica y permita entender la evolución del capital humano en diferentes países y estudiar las posibles causas de las enormes diferencias que se observan. Este tipo de datos deberían ser de enorme utilidad para poder formular políticas que reduzcan estas desigualdades. Uno de los mayores problemas respecto a la inversión en capital humano es que los beneficios de estas inversiones normalmente se materializan bastantes años mas tarde y, por lo tanto, no son muy visibles para los políticos e incluso los votantes. Esto lleva a que, a menudo, no se prioricen programas de inversión en la formación de capital humano. Tal vez iniciativas como la del Banco Mundial contribuyan a una mayor concienciación de la importancia de este tipo de inversión.



25/11/2018 – El Día – La filosofía de la uberización

El escándalo entre la Ciudad de Buenos Aires y la firma digital tuvo un nuevo capítulo con la decisión de multar con hasta 200.000 pesos a los conductores que sean pescados “in fraganti”, transportando pasajeros sin tener un vehículo habilitado al efecto, con licencia profesional.
Pero UBER es en realidad la punta del iceberg de una revolución tecnológica que está haciendo mucho mas eficientes las formas tradicionales de intermediación. La controvertida aplicación es, en la práctica, una remisería que conecta pasajeros que tienen una necesidad de transporte, con dueños de vehículos que tienen tiempo libre y piensan que es una buena idea convertirlo en dinero. Solo que se trata de un intermediario mucho mejor que los anteriores, básicamente por dos razones; la primera es que su software ubica más fácilmente a las dos puntas de la transacción, matando los tiempos muertos tanto de clientes como de choferes y la segunda es que ofrece un mecanismo de tarifado que saca lo mejor del sistema de precios, pasando por arriba los mecanismos tradicionales de regulación estatal, mas propensos a administrar sobre la base de cantidades.

A muchos les molesta que, como resultado, dos viajes de su casa al trabajo puedan costar diferente en función del día de la semana, la hora en que se hacen o si se trata de una jornada lluviosa o de sol, pero la base del sistema de precios es que lo que resulta abundante tienen que ser mas barato, mientras que lo que no se consigue tiene que ser mas caro. ¿Por qué?

La lógica es que los precios guían las acciones de los consumidores y los productores. Cuando llueve, por ejemplo, hay mas demanda de taxis y necesitamos por lo tanto que haya mas vehículos trabajando en la calle, mientras que una tarde de sol del mes de enero, la demanda es muy baja y sobran autos de alquiler. La regulación tradicional, con tarifa fija y una misma cantidad de autos habilitados, hace agua, porque faltan taxis cuando llueve y sobran los días de sol. El precio más alto durante la tormenta, en cambio, hace que el consumidor se lo piense dos veces y realmente pida un auto cuando no le queda otra alternativa, pero al mismo tiempo, la tarifa mas alta incentiva a los conductores a sacar su auto a la calle y trabajar más, justo en el momento que mas se lo necesita. Como resultado se hacen mas viajes cuando hay mas demanda. Ganan todos.

DESTRUCCIÓN CREATIVA

El segundo dilema tiene que ver con los empleos que Uber desplaza. Henry Ford probablemente haya sido el principal responsable de haber fundido a los dueños de carrozas y caballos, del mismo modo que el inventor del correo electrónico se llevó puestos a varios carteros de a pie. El proceso de uberización que hoy revoluciona el transporte mañana va a transformar dramáticamente los bancos, los medios de comunicación y cualquier otra forma de intermediación. Habrá más empleos, pero también cerrarán instituciones financieras tradicionales, canales de televisión y diarios, entre otros.

Además de destruir actividades viejas, también hay avances tecnológicos que destruyen rentas, evaporando los beneficios de personas que ganan dinero sin aportarle nada a la sociedad. Cuando la asamblea del año XIII decretó la libertad de vientres, los dueños de las esclavas jóvenes perdieron mucho dinero, porque hasta ese momento, por mas crudo que suene decirlo de esta forma, eran propietarios de un criadero de personas. Pero cuando la constitución de 1853 eliminó la esclavitud, borró de un plumazo el capital de todos los que hasta ese momento habían comprado personas, para hacerlas trabajar o directamente para venderlas.

Una renta, desde el punto de vista económico, es un beneficio que se obtiene sin haber aportado nada. Alguna de las veces como producto de la naturaleza, otra de las veces por decisión el propio Estado.

Cuando la autoridad de la ciudad regula el transporte de pasajeros y establece una limitación en la cantidad de taxis, por ejemplo, está creando una renta toda vez que se queda corto con la cantidad de vehículos habilitados. La comprobación del error de gestión la hace el propio mercado, cuando las licencias acaban negociándose a valores que incluso muchas veces superar a las del propio auto.

Es importante entender esto. No hay nada de malo en que el dueño de un auto gane dinero por ponerlo al servicio del transporte de pasajeros, lo que resulta inadmisible es que el dueño de la licencia (que puede o no, ser el dueño del auto) gane plata por poner un papel que desde el punto de vista del servicio de transporte no aporta absolutamente nada. Seamos claros; el servicio no puede prestarse prescindiendo del chofer, o del auto, pero sí puede hacerse sin necesidad del sello municipal. La licencia no agrega ningún valor social y si tiene un precio de mercado distinto de cero, es porque la actividad tiene una rentabilidad tal que no solo garantiza la supervivencia del chofer y la ganancia de quien pone el auto, sino que sobra dinero.

Si hay mas autos transportando pasajeros por las calles, los viajes serán en promedio mas baratos y desaparecerá la renta de las licencias, dejando como únicos ganadores a los choferes, los dueños de los autos y por supuesto, las aplicaciones.

REGULAR MEJOR, DIRIGIR MENOS

Y aquí reside el ultimo punto que quiero tratar acá. La uberización está avanzando mucho mas rápido que la capacidad regulatoria de los estados, lo que obliga a discutir no ya a nivel nacional sino en ámbitos supranacionales como el G20, estrategias de control para garantizar que los nuevos empleos tengan protección social y derechos básicos, las aplicaciones paguen impuestos y las nuevas empresas no monopolicen ni distorsionen el uso de la enorme cantidad de información que manejan.



domingo, 25 de noviembre de 2018

El principio de Peter: comprobación empírica a gran escala

Debo haber leído "El Principio de Peter" cuando tenía 14 o 15 años (su primera edición en España es de 1972), y el libro original, "The Peter Principle" se publicó en inglés en  1969, escrito por Laurence J. Peter y Raymond Hull) y tengo que decir que de los libros que más me han marcado, hasta el punto de que mi comprensión de los fenómenos sociales está muy influenciada por ese principio, que aún puedo citar de memoria: "En cualquier jerarquía humana, toda persona asciende hasta alcanzar su nivel de incompetencia." Esta idea me abrió los ojos sobre un problema que siempre me ha preocupado: dicho rápidamente, estamos gobernados (en lo público y en lo privado) por idiotas (salvo honrosas excepciones). En virtud del principio de Peter, tiene que ser así: las mismas promociones nos llevan a ese estado. Y, además, se aplica a cualquier organización, a cualquiera, con tal de que el ascenso en la escala se produzca por lo bien que lo haces en el nivel anterior. Y hoy traigo aquí la que hasta dónde yo sé es la evidencia empírica más relevante de que este principio funciona, al menos en la promoción de vendedores a gestores.

El trabajo ha sido llevado a cabo por los investigadores Alan Benson, Danielle Li, y Kelly Shue, y está recogido en este preprint, que lleva por título "Promotions and the Peter Principle". Su punto de partida son datos de 214 empresas de Estados Unidos, concretamente de trabajadores dedicados a ventas, y más concretamente más de 53 000 trabajadores de los cuales 1 500 son promocionados. El motivo de elegir precisamente este tipo de trabajadores es porque las habilidades necesarias para un nivel de la jerarquía pueden ser muy diferentes de las del nivel superior, que puede requerir por ejemplo ser bueno en gestión o en planificación. Por otro lado, las ventas permiten cuantificar mejor el desempeño de los trabajadores y, además, sería de esperar que el Principio de Peter fuera menos relevante, ya que además de las promociones en ventas se suele retribuir económicamente el desempeño, por lo que las promociones serían menos usadas como incentivo. Para los vendedores, los autores analizan las promociones como función de las ventas, de la colaboración con otros vendedores, y otras características, mientras que para los que son promocionados a managers se fijan en su valor añadido, es decir, en su contribución a mejorar las ventas de sus subordinados.

El primer resultado importante es que duplicar las ventas aumenta la probabilidad de que que un trabajador sea promocionado en un 14,3 por ciento en relación con la probabilidad base de promoción. Sin embargo, entre los trabajadores que son promocionados, lo que encuentran es que las ventas antes de ascender predicen negativamente el valor añadido del gestor: duplicar las ventas previas a la promoción corresponden a una disminución del 7,5 por ciento en el rendimiento de las ventas de cada uno de los subordinados. Equivalentemente, ventas anteriores relativamente pobres entre un nuevo gestor están asociadas con mejoras significativas en el desempeño de los subordinados. Estos resultados se recogen en las siguientes gráficas:

A la derecha vemos la correlación positiva entre la magnitud que usan los autores para caracterizar las ventas de una persona (que recomiendo ver en el artículo la definición, porque es un poco técnica para mí y no quiero decir más burradas de las necesarias) y la probabilidad de ser promocionado, mientras que a la derecha vemos la correlación negativa, con la misma magnitud en el eje de abscisas y con el valor añadido como manager, relacionado con las ventas de los subalternos. Una observación relevante en cuánto a estos resultados es que podrían estar afectados de un problema de selección bastante importante, que podría tener su origen en los puestos a los que ascienden los vendedores, pero los autores discuten este posible problema y lo tratan en detalle en su trabajo, de manera que al menos para un no especialista como yo parece convincente, pero es importante mencionarlo por si alguien que sepa más lo quiere mirar.

Otro resultado interesante tiene que ver con la colaboración con otros vendedores: los autores encuentran que la experiencia en colaborar con otros está positivamente correlacionada con lo bien que gestiona el antiguo vendedor, pero desafortunadamente no está correlacionada con el ser promocionado. Hay que tener en cuenta que este indicador puede referirse a experiencia trabajando en equipo o bien experiencia en ventas complejas que requieren coordinación pero, en todo caso, sugiere que si la empresa quiere promocionar a potenciales buenos gestores, este parámetro es más relevante que las ventas a la hora de tomar la decisión. Además, también resulta del análisis que los managers  que venden mucho antes de asumir su nuevo puesto tampoco contribuyen a la empresa de otras maneras, como por ejemplo reteniendo a los mejores subordinados.

Esta ineficiencia a la hora de adoptar decisiones sobre promociones tiene consecuencias , claro. Los autores del trabajo comparan el desempeño que se predice a los gestores que han sido ascendidos con el desempeño que hubieran tenido los que hubieran ascendido si se hubieran tenido en cuenta criterios para maximizar la calidad de su actuación como gestores. En este supuesto la calidad de la gestión, medida con los parámetros con los que trabajan los autores (y que básicamente dependen del rendimiento de los subordinados), podría llegar a ser hasta un 30% superior.

Por último, los investigadores se plantean que si las empresas adoptan conscientemente la política de incentivar las ventas vía promoción en vez de seleccionar a los mejores gestores, esperaríamos encontrar mayor evidencia en favor del Principio de Peter en entornos en los que el incentivo basado en promoción es lo realmente importante más que en otros donde es necesario realmente que los managers sean buenos. Y efectivamente, es así: cuando hay que elegir gestores de grandes equipos, las empresas dan menos peso a las ventas y más a la colaboración que en el caso general. De la misma manera, las empresas que recurren más al pago por ventas, vía comisiones o bonus, dan menos peso a las ventas cuando eligen a quién promocionar, pese a lo cual incluso en estos caso sigue apareciendo evidencia de que el Principio de Peter se cumple.

Las implicaciones de este trabajo son importantes en tanto en cuanto nos obligan a pensar con cuidado en las decisiones de promoción. Está claro que una de las razones por las cuáles hay malos líderes es por la corrupción, el nepotismo y el enchufismo en general. Lo que ocurre a la vista de estos resultados es que la meritocracia, cuando se basa en el desempeño en el puesto que actualmente se ocupa, aunque esté bien intencionada, no está libre de problemas ni es un seguro contra la elección de malos líderes. De hecho, hay suficiente evidencia de que para ocupar puestos de manager son más importantes las cualidades de relación interpersonal y otras habilidades generales que el cómo lo hacía la persona cuando era la que estaba por debajo del manager. 

Si, como yo hacía sin necesitar este estudio, pero ahora con más motivo, aceptamos que el Principio de Peter es un factor importante en las organizaciones humanas, solo hace falta pensar un poco para verlo aparecer, con sus nefastas consecuencias, en todas partes. Un caso paradigmático, del que NeG se ha ocupado mucho, y en particular Jesús Fernández-Villaverde, es el de las oposiciones (véase por ejemplo este post y los que cita). Claramente, se está seleccionando a personas por méritos que no tienen absolutamente nada que ver con lo que será su trabajo futuro, así que es de esperar que de nuevo nos encontremos con un sistema que genera liderazgos fallidos. Es interesante también citar el ejemplo de la Universidad, donde aunque las oposiciones fueran absolutamente justas, se selecciona a los profesores y luego a los catedráticos por investigación (daría igual que fuera por docencia) que no les capacita en absoluto para gestionar un departamento, un grupo de investigación, o ser Rectores de Universidad (y podría citar muchos ejemplos con nombre y apellidos, pero voy a contenerme). Este es un tema al que alguna vez tendrían que dedicar tiempo y reflexión seria nuestros políticos. Pero claro, el problema es que a los políticos se les selecciona por su desempeño como militantes de base, por su disciplina y por su capacidad de quitarse de enmedio a los compañeros a codazos y puñaladas traperas, así que estamos de nuevo ante el Principio de Peter en acción. Que no nos pase nada...

 



Preparaos para el advenimiento del Brexit -donde un nuevo infierno político va a abrirse cada día-

Me encantan todas las decoraciones que van apareciendo conforme se acerca la temporada de Navidad. Mi favorita de este año es el reloj de cuco de Downing Street, de tamaño natural, donde, aparentemente cada hora, la puerta se abre y la señora mecánica sale. Ella gira bruscamente hacia el atril, dice “retomando el control” tantas veces como la hora lo requiera, y luego vuelve a girar dentro del aparato. Y así ha sido en la última de las densas “semanas de cuco” hacia el Brexit, en la que Reino Unido parece haber estado unos pocos minutos más cerca de la guerra con España de los que Michael Howard estuvo el año pasado. ¿Te acuerdas de esto? “Esta semana hace treinta y cinco años, entonó racionalmente el ex líder conservador, “otra primera ministra envió escuadrones al quinto pino del mundo para defender la libertad de otro pequeño grupo de británicos contra otro país de habla española, y yo estoy absolutamente seguro de que nuestra actual primera ministra demostrará la misma determinación en defender al pueblo de Gibraltar “. Con mis disculpas a Jeremy Paxman, la única pregunta que le haría a Howard quinientas veces en estos días es: “Eres un bastardo loco, ¿verdad?” Entonces, otra vez, ¿y qué? ¡Sí! Vamos: vamos a tenerlo. Que arranque Sailing de Rod Stewart y despleguemos nuestro portaaviones vacío hacia la Costa del Sol. O como dijo el jueves el primer ministro español, Pedro Sánchez: “Mi gobierno siempre defenderá los intereses de España. Si no hay cambios, vetaremos Brexit“. Asúmelo, la guerra con España es la mejor manera de unir al aparentemente desesperanzado y dividido Reino Unido. Además, la guerra es lo que definitivamente podría ganarse contra España. No quiero volver a caer en el cliché del fútbol, ​​pero España es uno de los grandes fracasados de los más recientes conflictos mundiales, ya que ni siquiera lograron clasificarse para la Segunda […]

La entrada Preparaos para el advenimiento del Brexit -donde un nuevo infierno político va a abrirse cada día- aparece primero en El Captor.



jueves, 22 de noviembre de 2018

Evaluando los impactos de la política macroeconómica europea: El modelo espacial RHOMOLO

de Jorge Díaz Lanchas y Andrea Conte (*)

¿Cuál es el impacto económico de la inversión pública o privada en I+D, educación y nuevas tecnologías? ¿Qué efectos tiene mejorar las infraestructuras sobre el empleo y el crecimiento? Y si ésta inversión se realiza sólo en una determinada región, ¿cuál es el impacto económico de un crecimiento de la demanda interna en una región sobre otras regiones que se encuentran dentro del mismo país o en otros países? ¿Serán estos impactos mayores o menores en un mercado comunitario más integrado?

Éstas y muchas otras preguntas se plantean en la evaluación de medidas de política económica. Para responderlas necesitamos investigación y evidencia empírica. Al contrario de lo que nos gustaría pensar, en la mayoría de ocasiones este nexo entre la investigación y su aplicación y traducción en medidas de política económica, simplemente no existe o es muy débil para poder evaluar los efectos de una política económica. Esto ocurre, especialmente, cuando las preguntas que nos hacemos se formulan de manera previa (ex-ante) a la aplicación de la propia política en cuestión.

Para evitar estos conflictos y para que el plano político pueda hacer un uso más eficiente de los recursos, son necesarias evaluaciones ex-ante acerca de los posibles impactos de una determinada política. Ésta es la forma tradicional de proceder por parte de varios organismos internacionales. La Comisión Europea (CE), a través de su Centro Común de Investigación (JRC en inglés), se sumó a esta forma de hacer política económica hace ya décadas. Dado su rol de impulsor de políticas europeas que partan desde el propio presupuesto comunitario, la CE necesita de evaluaciones ex–ante (impact assessment) de dichas políticas. Con este fin, el grupo de investigación REMO (Regional Modelling[1]), ubicado en el centro que el JRC dispone en Sevilla, ha creado el modelo espacial RHOMOLO con el que evaluar los impactos económicos que los principales fondos europeos tienen en las regiones europeas.

Este modelo computable de equilibrio general está sólidamente fundamentado en teoría microeconómica y macroeconómica, combinando los diferentes agentes de la economía europea dentro de un entorno flexible con el que analizar shocks (exógenos) de distinta naturaleza. Así, RHOMOLO es capaz de simular desde cambios en el mercado laboral hasta shocks en las principales variables económicas (consumo, producción, importaciones, etc...), todo ello pasando por inversiones en el capital físico, humano o incluso atendiendo a diferencias en productividad a nivel de empresa (en fase experimental). Todos estos shocks están claramente identificados en la estructura computacional del modelo, pudiendo ser simulados tanto en perspectiva estática como temporal, considerando tantos períodos como se quiera (corto, medio y largo plazo). Además, RHOMOLO puede diferenciar entre efectos directos en una región concreta debidos a una determinada política, como aquellos efectos indirectos (spillover effects) ocasionados por los vínculos entre regiones.

A diferencia de otros modelos macroeconómicos, RHOMOLO se centra en las 267 regiones que configuran el mercado comunitario. El hecho de analizar los efectos a nivel de región y no de país, supone tanto una oportunidad como un riesgo en sí mismo. Explorar el nivel regional tiene sus ventajas en cuanto a la riqueza de resultados que proporciona y la posibilidad de tener en cuenta la diversidad regional a la hora de agregar los resultados a nivel nacional. Pero también tiene sus inconvenientes. El principal de ellos es la exhaustividad de datos que requiere, los cuáles a su vez pueden no existir a nivel regional. Este problema ha llevado a que, dentro de REMO, se desarrollen metodologías tanto para estimar los flujos interregionales de comercio como para regionalizar las tablas Input-Output nacionales con las que poder conocer los intercambios entre regiones y sectores económicos para todo el mercado europeo. Esto suponer ser un aspecto fundamental por el mero hecho de que las regiones son entes espaciales que están mucho más abiertas y expuestas a shocks exógenos que sus correspondientes nacionales, lo que implica que los vínculos entre regiones no sólo sean un elemento transversal del modelo, sino que sean los mecanismos causales a través de los cuáles se transmitan los efectos de unas regiones a otras. A modo de ejemplo, si una región sufre un shock positivo (o negativo) que acabe generando ahorro, inversión y, en definitiva, consumo, esté provocará un aumento (o disminución) de su comercio con el resto de regiones. Según como sea el tipo de comercio de unas regiones con otras, es decir, más sustitutivo o más complementario sectorialmente, cabe esperar que los efectos indirectos sean menores o mayores correspondientemente.

Además, es en este punto donde entra el segundo gran vínculo interregional: los costes de transporte. De acuerdo a la literatura en economía geográfica, la distancia (costes de transporte) entre diferentes lugares geográficos lleva a la acumulación de la actividad económica en unos puntos y no en otros, provocando que las regiones que compartan menores costes de transporte se beneficien en mayor medida del comercio y la actividad económica compartida entre ellas, mientras que aquellas más distantes entre sí, no puedan favorecerse del intercambio mutuo. En RHOMOLO este elemento es fundamental pues permite distribuir espacialmente, y de una manera más realista, los shocks de política económica que estemos analizando, así como sus efectos directos e indirectos.

Por último y para analizar los impactos macroeconómicos sobre el mercado laboral, el modelo permite que éste sea analizado desde distintas ópticas teóricas. Aquí nos centraremos en las dos principales: 1) la curva salarial (wage curve); y 2) la curva de Phillips. Mientras la primera facilita que los ajustes en el mercado laboral sean a través de los salarios implicando variaciones en el empleo menores, el segundo permite que los cambios en el nivel de empleo sean mayores. A modo de ejemplo, la Figura 1 muestra el cambio en el empleo, simulado en RHOMOLO, ocasionado por un aumento del gasto público del 100 millones de € en cada región europea por separado y para cada uno de los dos marcos teóricos comentados. Como puede observarse, bajo un entorno de curva de Phillips, un shock en el gasto público implica un mayor crecimiento del empleo en aquellas regiones del Sur y Este de Europa, mientras que los impactos son menores si nos moviésemos en un contexto de ajustes salariales.

Figura 1. Simulación en RHOMOLO de un aumento del gasto público de 100 millones de € en cada región. Cambio % en el empleo.

Fuente: Lecca et al, (2018).

Por último, cabe preguntarse qué resultados consigue RHOMOLO cuando se analizan políticas macroeconómicas concretas a nivel europeo. Con ese fin, RHOMOLO ya ha sido utilizado desde varios servicios de la Comisión Europea para la preparación del análisis de impacto de las principales líneas del presupuesto comunitario. En concreto, en un trabajo conjunto con el Banco Europeo de Inversiones (BEI), se han analizado los efectos del programa de inversiones (544 mil millones de €) para estimular la economía europea (EFSI) entre 2015-2016 promovido desde el propio BEI. Esta actividad es parte de un ciclo de evaluación anual que comprende tanto el análisis de impacto de los fondos EFSI, como de todo el portfolio de inversiones de la BEI en la economía europea. La siguiente Figura 2 muestra los efectos temporales a corto y a largo plazo de los fondos EFSI para el conjunto de la economía europea. De acuerdo a este análisis, se espera que el PIB europeo crezca un 2,3% para 2020, creando 2,25 millones de empleos (eso sí, si no surgen incertidumbres en el panorama internacional).[2]

Figura 2. Simulación en RHOMOLO del programa de inversiones europeo (EFSI-BEI).

Cambio % en PIB a lo largo de los años.

Fuente: JRC and European Investment Bank

[1] El grupo de REMO está integrado por Andrea Conte, Patrizio Lecca, Javier Barbero, Martin Christensen, Jorge Diaz-Lanchas, Olga Diukanova, Giovanni Mandras, Damiaan Persyn, Filippo di Pietro, Stelios Sakkas y Simone Salotti.

[2] RHOMOLO posee su propia página web en la que utilizar una herramienta web con una versión resumida del modelo que permite al usuario simular diferentes tipos de shocks. Además, en las próximas semanas una parte de los miembros de REMO estará presentando el modelo en el congreso AECR (Valencia, Noviembre). Para cualquier consulta o petición relacionada con RHOMOLO, ponerse en contacto con REMO.

 

(*) Las opiniones expresadas son puramente de los autores y en ningún caso deben considerarse como una posición oficial de la Comisión Europea.  (The views expressed are purely those of the authors and may not in any circumstances be regarded as stating an official position of the European Commission)



martes, 20 de noviembre de 2018

Análisis Económico de la Revolución Digital. El Libro

El próximo jueves día 29 de noviembre Juanjo Ganuza, antiguo colaborador del blog, y yo mismo presentaremos un libro electrónico que hemos editado para FUNCAS, con el título: “Economic Analysis of the Digital Revolution”. La versión en español de este libro aparece como último número de Papeles de Economía Española, con el título “Análisis Económico de la Revolución Digital”. Ambas versiones son de descarga gratuita, aunque solo la segunda está actualmente disponible, y la presentación en sociedad se hará en el auditorio de FUNCAS a las 17:30. El programa así como el formulario para inscribirse están disponibles aquí.

El libro cuenta con contribuciones de expertos en diferentes áreas del estudio económico de lo que se ha venido en denominar la nueva economía. En un lenguaje que rehúye de la formalización matemática en beneficio de la divulgación a una audiencia amplia, se presentan trece contribuciones agrupadas en cuatro áreas, dedicadas respectivamente a las plataformas digitales, los mecanismos de precios en la economía digital, los nuevos modelos de negocios digitales y a las nuevas tecnologías que propulsan los cambios analizados.

La primera parte es una introducción a los cambios en el funcionamiento de los mercados que las plataformas digitales están propiciando. Así, arranca con el capítulo de Juan-Manuel Sánchez-Cartas, que explica en qué se diferencia el funcionamiento de las plataformas al clásico modelo de empresa que ha sido predominante hasta ahora. Una de la características más importantes es la gran cantidad de datos que acumulan y procesan, lo que da lugar a interacción entre plataformas con muy diversos usos para las que la compatibilidad es esencial. Las dos otras contribuciones en esta parte discuten cómo estas plataformas hacen uso de la información para poder proporcionar nuevos y mejores servicios. Así, Michelangelo Rossi habla de los mecanismos de evaluación que plataformas como Airbnb han implementado y cómo consiguen resolver los problemas de información asimétrica que son especialmente importantes cuando negociamos con desconocidos. Paul Belleflamme y Martin Peitz hablan de la importancia de las “tres erres”: ratings, reseñas y recomendaciones. Su trabajo discute hasta qué punto estas plataformas tienen incentivos a proporcionar la mejor información a través de estas tres vías.

La segunda parte discute cómo la información generada y procesada por la economía digital afecta a los precios que la empresas fijan por sus productos y servicios. Tal y como Juanjo y yo hablamos en nuestro capítulo, las empresas pueden poner un precio distinto a cada consumidor, basado en información sobre nuestros hábitos de búsqueda, el navegador que utilizamos o el país desde el que nos conectamos. Existe también un mercado donde las empresas pueden comprar información sobre perfiles de usuarios y así mejorar su estrategia de precios ¿Son estos precios personalizados buenos o malos? En el capítulo explicamos que, como casi siempre en economía, depende. El segundo capítulo en esta parte, escrito por Francesco Decarolis, Maris Goldmanis y Antonio Penta, habla de la manera en que empresas cómo Facebook o Google ponen precio a la publicidad que aparece en la mayor parte de las páginas web. Su gran rentabilidad se debe, en parte, al uso de resultados económicos basados en la teoría de la subastas, desarrollada en las últimas décadas en el mundo académico. José Luis Moraga nos habla de cómo la economía digital ha cambiado la manera en que los consumidores buscamos el producto que se ajusta mejor a nuestras necesidades y al mejor precio. Estos nuevos hábitos de búsqueda han obligado a las empresas a adaptar su estrategia con el objetivo de ser más efectivas a la hora de llegar a los consumidores.

La tercera parte contiene cuatro contribuciones que nos acercan a los nuevos modelos de negocio a los que la economía digital ha dado lugar. Carlos Bellón y Pablo Ruíz Verdú nos hablan de los nuevos modelos de financiación del emprendimiento y del papel de crowdfunding. Estas nuevas plataformas han aportado nuevas métodos para analizar proyectos y han incorporado la “sabiduría colectiva”, al hacer que los propios clientes potenciales contribuyan a la financiación de los proyectos. Luis Aguiar y Joel Waldfogel analizan una de las más importantes transformaciones a las que ha dado lugar la economía digital: la digitalización de las industrias de contenidos audiovisuales. El streaming de música ha reemplazado en casi su totalidad el tradicional mercado de venta de música y ha cambiado el patrón de consumo de los usuarios, con grandes implicaciones para artistas, productoras y dando entrada a nuevos participantes. Mateo Silos nos habla de otra de las transformaciones más importantes, la llamada “gig economy”, que ha dado lugar a un nuevo modelo de relaciones laborales, flexible pero también polémico. Su foco, sin embargo, está en análisis de uno de los casos más controvertidos: el coste que tiene para los consumidores las regulaciones que limitan actualmente en el transporte urbano de pasajeros en beneficio del taxi (y más allá en el futuro más cercano) y, en especial, discute el caso de España. Finalmente, Doh-Shin Jeon nos habla de los efectos económicos de los agregadores de noticias, un tema que es conocido por muchos lectores del blog por su repercusión en España y que hemos discutido en muchas entradas como, por ejemplo, ésta.

La última parte constituye un acercamiento a algunas de las nuevas tecnologías detrás de muchas de las transformaciones discutidas en los capítulos anteriores. Stephen Hansen nos presenta una introducción al aprendizaje automático (“machine learning” en inglés), qué significa y su potencial para empresas y consumidores. Guillaume Haeringer y Hanna Halaburda nos hablan del blockchain como manera de certificar información y su aplicación a bitcoin. Por último, Adina Claici discute el papel del big data y el efecto que puede tener su uso por parte de grandes empresas sobre la competencia en el futuro en mercados digitales.

En total, son cerca de 500 páginas (en la versión inglesa) que esperamos que sirvan para entender un poco mejor cómo funciona la llamada nueva economía. Os esperamos en la presentación del día 29.