domingo, 30 de julio de 2017

Parada biológica 2017

to be continuedDe Pedro Rey (@pedroreybiel)

Un año más, aprovechamos el mes de agosto para interrumpir temporalmente la publicación de nuevas entradas, y así volver con fuerzas renovadas a finales de mes. Este nuevo impulso vendrá de la mano de tres nuevos editores, que suplirán la baja, sólo como editores (no como colaboradores, no se asusten) de tres de las personas que más y mejor han contribuido a la creación y crecimiento de este blog: José Ignacio Conde-Ruiz, Jesús Fernández-Villaverde y Gerard Llobet. Aunque nos entristece su marcha, creemos que, después de más años de los que habían previsto, tienen el descanso más que merecido y sabemos que no tendremos demasiada dificultad en seguir involucrándoles en nuevas iniciativas. Entre otras, alguna novedad editorial que anunciaremos en breve. En todo caso, pensamos que redistribuir responsabilidades es una buena señal de que estamos vivos e implicados, y estamos especialmente contentos de poder hacerlo con tres nuevos editores que se incorporaron como colaboradores muy recientemente: Fran Beltrán, José Luis Ferreira y Juan Francisco Jimeno.

Este ha sido un curso marcado por la elección de Donald Trump como presidente de Estados Unidos, a lo que quizá, de forma sorprendente, no hemos dedicado tantas entradas (aquí, aquí, aquí o aquí) como podíamos prever en Noviembre. Quizá sea porque resulta difícil en este caso hablar sobre políticas (y no sobre política) sin decir obviedades. Por contra, entre las entradas más leídas, varias han tenido que ver con el tema de la educación que, en parte por deformación profesional, siempre nos ha preocupado. En concreto, Manuel Bagües nos habló sobre a qué se dedican los profesores de universidad (tema que ya había tratado Anxo Sánchez en 2014) con grán éxito, al igual que Ainhoa Aparicio y Zoe Kuehn discutieron sobre si aprender idiomas nos haría más competitivos. El resto de las entradas más populares sigue mostrando que creemos que el rigor del enfoque de la economía se puede aplicar a gran variedad de temas: Joan Calzada y Ricard Gil nos hablaron del cierre en España de Google News, Libertad González de los efectos de la peatonalización de las calles, Jesús Fernández-Villaverde de los efectos históricos de la introducción del euro e incluso una antigua colaboradora, Sara de la Rica, volvió  recientemente por estos lares para hablarnos, como siempre con datos, de un tema de actualidad, la renta mínima garantizada, mediante el análisis del impacto de la renta de garantía de ingresos en el País Vasco. Además, como todos los años y contra el pronóstico de los que piensan que que nos hacemos pesados al ponernos técnicos, las entradas de Jesús sobre aprendizaje de métodos cuantitativos, resultaron muy populares. También parece que suscitaron interés las numerosas entradas sobre algunos de los temas clásicos de este blog: el mercado laboral, la economía de género, y la economía experimental y del comportamiento. En cualquier caso queremos agradecer a todos los colaboradores, tanto a los más fijos como a aquellos puntuales de los que tiramos para que hablen de un tema de actualidad o de alguna investigación reciente, su colaboración desinteresada, que nos ha permitido seguir ampliando la variedad de temas que tratamos.

En total hemos publicado más de 300 entradas con una media de 75.000 visitas mensuales y más de 150.000 páginas vistas al mes. El año que viene...!prometemos más y mejor! Gracias por seguirnos, por ayudarnos a enriquecer el debate con sus comentarios y por contribuir con sus donaciones a que sigamos siendo independientes.



sábado, 29 de julio de 2017

Todo es una mentira permanente

Salvo nada. Hasta en los trabalenguas lógicus-philosophicus de MR hay poesía. Del absurdo, claro. Y siempre y cuando otorguemos el status de poético a lo que no es sino engaño estructural. El problema de mentir tanto, nos lo dijo una vez alguien, no es que la ficción construida trola sobre trola se derrumbe por una pérdida momentánea o fatal de la memoria -recuerden aquel despiste o lapsus de categoría paradigmática cometido por la que hoy es, ¡premio!, Ministra de Defensa-. Qué va. El verdadero y esencial problema de la mentira permanente es la vil condena a la que queda abocada gran parte de la humanidad cuando, decantándose por la credulidad, firma la garantía absoluta e integral de que todo su contacto con la realidad será una pura coincidencia. Pero por suerte, y nunca se piense que por desgracia, también se encuentran quienes cuando tras escuchar declaraciones como “Todo lo exagerado acaba por ser irrelevante”, reconocen inmediatamente cuál es la cara B de la realidad que se pretende ocultar -“Todo lo relevante lo quiero convertir en trivial”. Volvamos a recordar, no obstante, los papeles en los que MR se vio envuelto nada más llegar al ejecutivo español. Al margen de que unos detalles -relevantes o no, concedamos nuevamente una disputa acerca de lo que es la realidad- pudieran tambalear legítimamente la estabilidad institucional, ¿acaso no estuvo desde dicho momento la democracia española secuestrada en cierto modo? Siendo así, ¿no habría sido falseada una parte crucial y fundamental de nuestra realidad? Al final, el problema más grave será que nadie reconozca en la democracia, en el carácter “real” de la Monarquía o en la independencia del poder judicial, la autenticidad de la realidad. Entonces, el problema de mentir tanto, la inevitabilidad y la necesidad cada más frecuente y urgente del acto de […]

La entrada Todo es una mentira permanente aparece primero en El Captor.



jueves, 27 de julio de 2017

Oklahoma en 1889 y el nacimiento de las ciudades

Imagen 1

En este blog se ha discutido en varias ocasiones cuáles son los determinantes históricos del crecimiento de las ciudades (ver aquí, aquí,  o aquí). Una cuestión relacionada con esto es entender por qué las ciudades se crean en un determinado territorio y no en otro. Sin pensarlo demasiado, la respuesta a esta pregunta puede parecer obvia- la gente va simplemente donde otra gente ya vivía inicialmente, beneficiándose de lo que los economistas llamamos economías de aglomeración. Al fin y al cabo, es más sencillo encontrar trabajo en localidades más pobladas y abrir un negocio tiene más sentido en territorios con alta densidad de población que en el medio del desierto.

Pero esto no responde a mi pregunta inicial…Si uno pudiera imaginar un territorio completamente vacío y fuera posible abrir ese territorio a un gran número de personas que pudieran elegir libremente donde construir su casa, ¿a dónde irían? El problema es que es prácticamente imposible pensar en una situación como la que describo. Tal vez un candidato seria la colonización de América del Norte por los británicos allá por el siglo XVI. Los británicos intentaron por primera vez establecer una colonia en la isla de Roanoke, en lo que hoy forma parte de Carolina del Norte. Fracasaron de forma estrepitosa, pero voy a dejar la discusión de lo que allí sucedió para otra entrada. Es cierto que gran parte de Norte América estaba prácticamente deshabitada en esa época- las tribus de Nativo americanos ocupaban una pequeñísima fracción del territorio. Sin embargo, la llegada de colonos británicos tuvo lugar en sucesivas oleadas y, solo tras varios intentos se consiguió establecer un asentamiento exitoso en Jamestown, en el actual estado de Virginia. Así pues, este experimento no ayuda a contestar la pregunta ya que las expediciones de inmigrantes que llegaron después del asentamiento de Jamestown ya tenían un punto claro de referencia, es decir ya se pudieron beneficiar de esta aglomeración inicial.

Pero la historia nos ofrece un precioso evento (tal vez el único) que reúne las características necesarias para entender cómo se originan las ciudades en un territorio despoblado.  En el año 1889, el Presidente de Estados Unidos Benjamin Harrison sucumbió a las enormes presiones de compañías ferroviarias, township companies (algo así como empresas promotoras de construcción) y en general un gran número de ciudadanos mayoritariamente blancos que querían ocupar el último espacio disponible en todo Estados Unidos: un territorio de 2 millones de acres conocido como las Unassigned Lands (tierras no asignadas). Años atrás, las tribus nativo americanas habían sido paulatinamente desplazadas (casi siempre de forma forzada) a territorios al este del río Mississippi para poder disponer de sus tierras. La mayor de estas oleadas de emigración forzada tuvo lugar alrededor de 1830 en el tristemente célebre Trail of Tears (sendero de lágrimas) donde se calcula que un tercio de la población de estas tribus murió debido a las enfermedades asociadas a las bajísimas temperaturas y la falta de agua y comida durante el éxodo. Casi todas las tribus fueron recolocadas en lo que es hoy el estado de Oklahoma. Sin embargo, por diferentes motivos, ninguno de los múltiples tratados que se firmaron en esa época dando derechos exclusivos a los nativo americanos en territorios específicos hacía referencia a dichas Unassigned Lands, marcadas en blanco en el centro del siguiente mapa.

Imagen 2

Así pues, minutos antes de las doce del mediodía del 22 de abril de 1889, unos 20,000 individuos esperaron ansiosamente el pistoletazo de salida que les permitiera alcanzar su sueño: 160 acres (unos 80 estadios de fútbol) completamente gratuitos para el primero que reclamara una parcela. Lo único que había que hacer era ser el primero en plantar una banderita en uno de estos enormes cuadrados y construir algo de valor en ellos en los siguientes 5 años. Un auténtico regalo- la última posibilidad de vivir el sueño americano de conseguir tierra gratis en el Far West.

En un reciente trabajo con John Brown, de Clark University, estudiamos el Oklahoma Land Run de 1889 en detalle. Después de esfuerzos titánicos hemos conseguido juntar datos que contienen el nombre de cada uno de los colonos de 1889, su edad, raza, su capital humano (si sabían leer o escribir) y de que estado venían, entre otras características. Otra base de datos nos permite saber su ocupación y posiblemente algún indicador de su riqueza. Con toda esta información, nuestro plan es intentar responder diferentes preguntas sobre como funcionó el proceso de urbanización en este particular episodio.

La principal pregunta que nos hicimos inicialmente es si las ventajas geográficas de especificas áreas de las Unassigned Lands jugaron un papel determinante para entender donde se establecieron los individuos y familias en los días y meses posteriores al Land Run. Nuestros resultados preliminares muestran que, efectivamente, las mayores concentraciones de población meses después de abril de 1889 tuvieron lugar cerca de la única vía de ferrocarril existente (la línea de Santa Fe), pero, curiosamente, no demasiado cerca de los ríos otra –potencialmente- importante vía de comunicación. Esto se puede ver claramente en el siguiente mapa, donde dos de las principales aglomeraciones e 1889- Oklahoma City y Guthrie- están situadas en la misma línea del ferrocarril (en morado en el mapa).

Imagen 3

Otra pregunta interesante es si estas ventajas geográficas dominaron a las economías de aglomeración en las siguientes décadas. Varios trabajos demuestran que la geografía o la infraestructura inicial  a menudo tienen enorme persistencia (ver por ejemplo este trabajo de Hoyt Bleakley y Jeff Lin sobre los puertos). Nuestros resultados sugieren que, en realidad, la importancia de estas ventajas físicas fue disminuyendo a medida que paso el tiempo. Tal vez las proliferaciones de más líneas ferroviarias hicieron que la línea inicial dejara de ser fundamental.

Por otro lado, más allá del deplorable trato que recibieron las tribus nativo americanas durante esos años, la asignación de estas tierras de forma gratuita puede entenderse como una sustancial política redistributiva. Los documentos de la época sugieren que muchos de los participantes en el Land Run eran individuos de renta media o baja que tenían mucho que ganar con este proceso. En el futuro nos gustaría estudiar en qué medida la fortuna de estos individuos y sus familias aumentó en las siguientes décadas, en línea con el trabajo de Hoyt Bleakley y Joseph Ferrie que estudian la lotería de asignación de tierras en el estado de Georgia (ver aquí).

Por cierto, para los interesados en una versión fácil de digerir sobre un episodio parecido a éste, Tom Cruise y Nicole Kidman protagonizaron hace años la película Far and Away que refleja muy bien al menos las espectaculares cabalgatas de los participantes para conseguir su pedazo de tierra.



El dilema de Alexis Tsipras

ALEXIS Tsipras

 

En septiembre de 2014 Syriza presentó su programa económico para las elecciones griegas. Este economista observador criticó aquel programa y anticipó que crearía más paro y pobreza a los ciudadanos griegos de los que ya padecían. El Syriza de Alexis Tsipras vendía a los griegos un mundo sin restricciones y con plena soberanía en la toma de decisiones. Luego llegó la confrontación, la fuga de capitales, de depósitos, el referéndum y el caos. 

Como observador fui contando los acontecimientos con extrema preocupación ya que tras los acontecimientos que se iban produciendo, había ciudadanos griegos sufriendo. Es el problema de las crisis económicas: que detrás de las estadísticas siempre hay personas e infelicidad. Las críticas que recibí desde la extrema izquierda fueron muy duras. Me acusaron de neoliberal, de no tener corazón y cosas peores que ya he olvidado.

ALEXIS TSIPRAS RECONOCE SU EQUIVOCACIÓN 

Hoy leo una entrevista de Alexis Tsipras reconociendo que en 2014 no tenía experiencia y que no era consciente de las dificultades a las que se enfrentaba. La soberanía griega entraba en conflicto con el resto de socios europeos, que también son democracias y también son soberanos, hasta para equivocarse. Hollande y Renzi tendieron la mano a Alexis Tsipras pero, como reconoce en la entrevista, prefirió ir a la confrontación. Si hubiera aceptado, Grecia podría haber sido como Portugal hoy.

Nuestros vecinos lusos crecen y crean empleo desde hace dos años. Para ello, el gobierno socialista, liderado por Antonio Costa, tuvo que aplicar un ajuste fiscal (aunque pequeño) y recapitalizar bancos con dinero público para restablecer el canal del crédito y permitir que las pymes se financiaran a tipos razonables para reactivar un ciclo de inversión y creación de empleo.

Criticar saltarse las normas europeas no implica aceptarlas. Una de mis escenas favoritas del cine es cuando a Elliot Ness al final de la película de Los Intocables, después de haber conseguido condenar a Capone y tras haber enterrado a varios de sus compañeros, le dicen que han eliminado la Ley Seca. Se abraza a su compañero y se van a tomar una copa legalmente.

Los errores de la gestión de la crisis griega por parte de la Troika han sido numerosos y este economista observador los criticó con dureza en mi libro Hay Vida Después de la Crisis. Pero si queremos mejor Europa, se debe hacer ganando elecciones y convenciendo a una mayoría de ciudadanos para avanzar hacía la unión política, que implica reforzar las instituciones y mejorar la gobernanza y la toma de decisiones.

LAMENTABLEMENTE, ALEXIS TSIPRAS LLEGA TARDE: LA DERECHA GRIEGA LE SACA 15 PUNTOS

Debo reconocer que me ha sorprendido positivamente la honestidad intelectual de Alexis Tsipras admitiendo su error. El problema es que llega tarde, ya que en Portugal los socialistas le sacan a la derecha más de 15 puntos y en Grecia la derecha (que provocó la crisis) le saca 15 puntos a Syriza. Como nos enseñan los neuropsicólogos, los votantes tenemos poca memoria y en el caso griego todo apunta a que los errores de gestión de Syriza han hecho que los ciudadanos confíen más en la derecha para gestionar la economía y sacarles de la crisis, a pesar de ser los que la provocaron.

 

Alexis Tsipras

Como en Portugal, empezamos a ver cosas en Grecia esperanzadoras. Sus exportaciones crecen en 2017 un 25% anual. Eso implica una entrada de renta del exterior que se puede convertir en más inversión, más empleo y más consumo interno. No obstante, en el gráfico anterior se observa como la inversión griega sigue en mínimos, la mitad que el promedio europeo. Recuperar niveles de inversión próximos al 20% del PIB es condición necesaria para que Grecia vuelva a una senda de sostenibilidad y pueda reducir la tasa de paro y la deuda a la vez.

alexis Tsipras

Ayer Grecia volvió a emitir deuda en los mercados a tipos próximos al 4%. Les ha permitido canjear una emisión anterior que se hizo a tipos disparatadamente altos durante el caos. Detrás de la compra está el ávido apetito de los inversores sabiendo que luego el BCE les comprará esa deuda. Pero el BCE sólo puede comprar un 33% de cada bono y el 66% seguramente será reestructurado y sufrirá quitas en el futuro. Como se observa en el gráfico anterior, Grecia tiene casi el doble de deuda que el promedio europeo y su renta por habitante y su capacidad de pago es la mitad. Comprar un bono que con elevada probabilidad sufrirá una quita es una temeridad. Pero tras la peor crisis financiera en los últimos ochenta años, los inversores internacionales siguen repitiendo comportamientos que fueron la causa de la crisis.

 

alexis tsiprasEn el gráfico anterior se puede observar que aunque Grecia no ha tenido quita, sí se ha beneficiado de una profunda reestructuración de la deuda. Se ha alargado significativamente el plazo de la misma y se han rebajado los tipos de interés. El resultado es que pagan por intereses sobre PIB menos que Portugal o Italia y casi lo mismo que España. El problema es que los griegos en algún momento tendrán que salir del programa y tendrán que financiarse en los mercados. Y con esa elevada deuda son una economía con extrema sensibilidad a subidas de tipos.

Esperemos que la Grecia de Alexis Tsipras no se confunda con el crecimiento del PIB, como está sucediendo en España.

Conclusión, los errores ya no tienen solución. Conviene vivir en el presente, concentrados en el futuro y mirando al retrovisor para no cometer errores del pasado, pero poco para no estrellarte. Lo más positivo es que las exportaciones griegas crecen con fuerza dentro del euro. Pronto el BCE comprará sus bonos, los bancos griegos podrán normalizar el crédito y las pymes volver a invertir. Eso les permitirá salir del programa y aumentar la inversión pública y retomar los fondos estructurales y de cohesión.

Eso implica viento de cola y fuerte crecimiento a corto plazo, como ha sucedido en España desde 2014 y está sucediendo en Portugal. Esperemos que los griegos, Tsipras y las instituciones europeas no se confundan con el crecimiento del PIB, como está sucediendo en España. La deuda sigue siendo elevada, Grecia sigue en el filo de la navaja y es una economía dependiente de los mercados financieros internacionales. Eso les hacer ser muy vulnerables a recaer en la recesión, como sucedió en Latam en los años ochenta y noventa.

Que la fuerza acompañe al gobierno griego y mis mejores deseos para una sociedad que ha sufrido tanto durante esta maldita crisis.


Recuerda que cada lunes 😉 envío a los suscriptores de mi blog el análisis económico de la semana. Si tú todavía no estás apuntado, puedes hacerlo GRATIS aquí o haciendo click en la imagen de abajo 👇

 

blog josé carlos díez

La entrada El dilema de Alexis Tsipras aparece primero en El Blog de José Carlos Díez.



miércoles, 26 de julio de 2017

Una mirada al fracaso histórico de la educación

Lenguaje y roles de género

imagesMe había prometido y había prometido a Libertad (ella me edita los posts) que iba a dejar de escribir sobre temas relacionados con los idiomas para no parecer monotemática. Sin embargo, después de mi último y polémico post (aquí) sobre los micromachismos, varios lectores me han (involutariamente) provocado a volver a las andadas. En particular, un lector manifestaba que se sentía discriminado porque sentía que ciertos blogs se referían a mujeres por el modo en el que estaban escritos. Otro defendía la libertad de la prensa para usar el lenguaje en el contexto del uso de la expresión “crimen pasional” para referirse a la violencia de género. Como muestran estos comentarios, el tema del papel del lenguaje en la cuestión de las diferencias de género es interesante pero potencialmente muy amplio. En esta ocasión me he interesado por intentar entender un poco mejor si el lenguaje es una consecuencia, una causa o no tiene relación con las diferencias de género.

Empezando por el exitoso paper de Chen (aquí) que muestra como el lenguaje tiene efectos sobre comportamientos económicos como el ahorro y la inversión en salud y jubilación, otros economistas se han lanzado a estudiar el impacto del lenguaje en diversas variables de naturaleza socioeconómica. El otro lado de la moneda, es decir, el efecto de variables relacionadas con el contexto socioeconómico sobre el lenguaje es un aspecto que pertenece mas al campo estrictamente lingüístico aunque no descarto que los economistas nos lancemos también a él en el futuro. Respecto a las diferencias de género, la literatura económica ya ha tratado la relación entre el lenguaje y dichas diferencias. Yo conozco el paper de Gay, Santacreu and Shoham (2013) que clasifican los idiomas usando varias definiciones:

En primer lugar definen lo que llaman  el “Number Gender Intensity Index” (Indice de número de géneros) que indica los idiomas que tienen dos géneros en lugar de uno o más de dos. En segundo lugar, el “Sex-Based Intensity Index” (Indice de género basado en el sexo) señala aquellos idiomas que tienen géneros asociados al sexo masculino y femenino (aunque para los hispanohablantes suene extraño hay varios idiomas en los que el género no está asociado al carácter masculino o femenino del objeto o concepto). La tercera medida se llama “Gender Assignment Intensity Index” (Indice de Intensidad de Asignación del Género), que caracteriza a los idiomas que asignan el género a la palabra de manera semántica y formal, es decir, que el género asignado no es sólo una convención si no que está asociado al carácter masculino o femenino del objeto o concepto. Finalmente, el “Gender Pronouns Intensity Index” (Indice de Pronombres de Género) señala los idiomas que presentan distinción de género en los pronombres de tercera persona y también en los de primera o segunda persona. Los mapas que aparecen a continuación nos muestran qué idiomas cumplen con cada uno de los criterios.

map

Según podemos ver en los mapas, España es el único país de Europa que tiene un idioma que marca las diferencias de género bajo los cuatro criterios.

Los autores del estudio analizan las correlaciones entre estas cuatro medidas y una serie de indicadores de participación de la mujer en la política, el mercado de trabajo, mercados financieros y de tierras. Sus resultados indican que la participación de la mujer en los mercados de trabajo y de crédito así como en política es significativamente inferior en países cuyo idoma más extendido marca el género con mayor intensidad. En estos paises, las mujeres tienden a estar empleadas en mayor medida en el sector servicios y menos en profesiones tradicionalmente masculinas. Además, las mujeres en esos países suelen encontrar mayores restricciones para acceder a los mercados financieros y de tierras.

Existe un problema en la interpretación de estos resultados de manera causal, es decir, en interpretar que es el lenguaje lo que cambia los indicadores de participación de la mujer. Se trata del hecho de que tanto el lenguaje como la participación de la mujer están muy relacionados con múltiples aspectos de la cultura y la sociedad. Para atajar esto, los autores controlan por la influencia de algunos factores geográficos (continente, distancia al ecuador, proporción del país que se encuentra en los trópicos, el número de días helados, proporción de las fronteras que da al mar, y si el país no tiene salida al mar) e históricos (si el país es colonizador o colonizado y la religión). Sin embargo, la lista de potenciales factores que podrían explicar los resultados es potencialmente infinita con lo que nunca estaremos seguros de que la relación entre lenguaje y rol de género que aparece en este contexto sea causal.

Mi compañero Mario Pagliero y yo pensamos que podríamos usar un enfoque epidemiológico para tratar de responder a esta pregunta. La idea de base es aislar el fenómeno del contexto institucional en el que tiene lugar “naturalmente” analizándolo en un contexto institucional distinto. Para ello se suele hacer uso de inmigrantes de segunda generación que tienen características culturales, incluyendo el lenguaje, propias del país de origen pero viven bajo instituciones diferentes. Para ello tomamos la encuesta Current Population Survey de Estados Unidos que para 2004 contiene un módulo especial donde se preguntan cuestiones relativas al idioma. La hipótesis de partida es que si el idioma tiene un efecto sobre las diferencias de género, esto se debería reflejar en la selección de ocupación en el mercado de trabajo por parte de hombres y mujeres. Diseñamos un test que nos permite ver si los hablantes de un cierto idioma (muchos inmigrantes de segunda generación hablan el idioma de sus padres) tienden a trabajar en ocupaciones que tienen un género marcado (ej: profesor/profesora, camarero/camarera) o en ocupaciones “neutras” (ej: agente, analista, contable) y la distribución de los trabajadores entre ocupaciones cambia en función de su sexo. A continuación clasificamos las ocupaciones según si tienen género o son neutras para el castellano, italiano e inglés (los idiomas que hablamos). En inglés todos los oficios son neutros. Después seleccionamos los inmigrantes de segunda generación de países hispanohablantes, italianos y anglosajones y vemos la probabilidad de que trabajen en una ocupación neutra para las mujeres respecto a los hombres.

Comenzamos analizando la correlación que hay entre ser mujer y elegir una ocupación neutra en tu idioma de origen. El valor correspondiente es positivo y estadísticamente significativo pero no muy alto (0.03). Esto nos indicaría que las mujeres se sienten más cómodas en ocupaciones cuyo nombre no especifica el género, pero que esto no es un determinante crucial de la ocupación. Sin embargo, esta correlación podría deberse a una correlación entre la neutralidad del idioma y algunas características inobservadas de la ocupación (por ejemplo, el prestigio social asociado a ella). Para ello controlamos por la ocupación (añadiendo variables dicotómicas de ocupación a la regresión). Esto conlleva un aumento de la correlación (0.04) que sigue siendo estadísticamente significativa.  Controlar por la educación y la edad de los individuos aumenta el coeficiente hasta 0.05 y mejora la precisión. Sin embargo, como señalaba antes, esta relación podría deberse enteramente al efecto de la cultura. Para tener esto en cuenta, controlamos directamente por el origen del individuo (hispano, italiano o anglosajón). Efectivamente el coeficiente disminuye muchísimo hasta llegar a 0.0007. Por tanto, los efectos encontrados anteriormente eran un artificio motivado por la altísima correlación de la cultura con las características del idioma. Este sugiere que el lenguaje no es una causa de las diferencias de género sino más bien una manifestación de la cultura de género.

P.d.: Si alguno de los lectores quiere colaborar a la causa señalando las ocupaciones con género y neutras en otros idiomas, estaremos encantados de comprobar cómo cambian los resultados.

 

 

 

 



martes, 25 de julio de 2017

Contabilidad mental y promociones: cuando nuestro cerebro nos engaña

El reciente furor por los descuentos del 50% con la tarjeta del Banco Provincia vuelve a poner en foco el fenómeno del “sesgo de las cuentas mentales separadas”. Por qué comprenderlo es clave para manejar la economía personal



lunes, 24 de julio de 2017

Redes de transporte y criterios políticos de selección

Esta entrada es conjunta con Federico Pablo-Martí.

fede anxo 0En Nada es Gratis se discute con mucha frecuencia el tema del transporte, como factor económico de primera magnitud, tanto en sí mismo como por lo que tiene de facilitador para muchos otros sectores (como en esta o esta entradas de Gerard, o esta otra). Hoy queremos aportar una perspectiva algo más abstracta sobre el problema, basada en este trabajo que hemos publicado recientemente sobre las consecuencias que tienen las decisiones y criterios políticos sobre la evolución de las redes de transporte. Cuando acabe usted de leer, amigo lector, esperamos haberle convencido de que la evolución de una red de transporte depende mucho del criterio con el que se vayan seleccionando los tramos sobre los que actuar; para ello, le daremos algunos ejemplos de criterios y veremos qué resultados arrojan. Por tanto, la valoración de una política de infraestructuras solo se puede hacer en base a los criterios que llevaron a su diseño; además, como también veremos, no se puede tratar aisladamente distintas conexiones de transporte sin tener en cuenta su efecto sobre toda la red. Para terminar, trasladaremos las consecuencias de nuestras elucubraciones teóricas a políticas de transporte presentes y pasadas. Vamos a ello, pues.

Lo que nosotros hemos hecho es intentar estudiar qué ocurre cuando sobre la red de transporte sigue un proceso "histórico", es decir, cuando no nos planteamos el problema desde el principio sino que la red crece y se va mejorando en una secuencia temporal, y donde las decisiones sobre qué tramos se deben construir o mejorar se toman con distintos criterios. Es importante entender esto, porque lo que no estamos haciendo es una optimización, un diseño centralizado de la red que mejor verifique unos criterios y que se construye de una vez por todas. En realidad, si lo piensa, querido lector, así es cómo realmente ocurren las cosas, y en ningún sitio se ha diseñado la red de transporte como resultado de una optimización (otro contexto donde esto es evidente, más allá de las ciudades, es el del desarrollo de las líneas de metro en cualquier gran ciudad). Por tanto, nosotros partimos de que hay una red que existe en un momento dado, y sobre esa red se van ejecutando mejoras de distintos tramos. En nuestro trabajo hemos considerado dos tipos de redes preexistentes: la red completa, en la que se puede ir directamente de cualquier sitio a cualquier otro (que podría describir un estudio sobre transporte aéreo, por ejemplo), y la red de Delaunay, un tipo de red que conecta cada ciudad con sus vecinas de manera eficiente, que es lo más realista desde el punto de vista del transporte terrestre.

Vayamos ahora con la geografía, para concretar qué pasa en distintas situaciones tipo dependiendo de como estén distribuidas las conexiones que queremos mejorar. En nuestro trabajo, consideramos distintos "países", donde las "ciudades" están distribuidas de distinta manera. La figura que aparece a continuación recoge cuatro de estos "países" tipo muy diferentes:

fede anxo 1

El país A tiene sus ciudades distribuidas exclusivamente en la periferia, como puede ser el caso de Islandia o de Escocia; países con un interior muy accidentado y/o inhóspito. El B y el C tienen además una ciudad central, a la que en el país C se añade una doble circunferencia de ciudades. Estas pueden ser abstracciones similares a Francia o España. Por último, en el país D las ciudades están dispuestas al azar, sin orden alguno; compárese con el caso de Alemania, donde sus ciudades surgen de una historia de pequeños reinos que se han integrado hace relativamente poco.

Aquí viene lo importante: ¿con qué criterio vamos a escoger los tramos que vamos a abordar sucesivamente? Esta, como veremos, es la clave de la cuestión, ya que distintos criterios conducen a distintas redes. Nosotros hemos estudiado tres criterios, pero pueden analizarse muchos otros. Los que nosotros consideramos fueron:

  1. Accesibilidad. Cada ciudad tiene un "voto" sobre qué tramo se va a mejorar. En nuestro modelo, las ciudades votan para intentar reducir el tiempo total de los viajes entre todas ellas (fíjese en que esto es un modelo que se simula por ordenador, y por tanto tenemos que simular cómo toma su decisión cada ciudad, en este y en cualquier otro criterio).
  1. Accesibilidad ponderada por población. Cada ciudad tiene un "voto" pero ese voto está pesado por la población, y las ciudades lo que quieren es reducir el coste total de los viajes para la población.
  1. Tráfico ponderado por población. Cada ciudad tiene un "voto", de nuevo pesado por la población, pero ahora para intentar incrementar el tráfico. En el modelo se asigna a cada tramo un tráfico proporcional a la población de las ciudades unidas por ese tramo e inversamente proporcional al cuadrado de la distancia que los separa (modelo gravitacional).

¿Qué es lo que ocurre en cada caso? Las figuras a continuación presentan ejemplos de lo que ocurre cuando se mejoran las conexiones entre las ciudades que estamos considerando (más ejemplos aquí). Se representa el estado tras mejorar 15 tramos. Cada fila corresponde a un tipo de ciudad, y cada columna a un criterio. La gráfica muestra de manera muy clara que, para cada geografía,  la red que emerge del proceso de mejoras depende del criterio con el que se eligen los tramos.

fede anxo 2

Por otro lado, es particularmente interesante lo que ocurre durante la evolución del proceso. Para ello nos fijamos en la centralidad, que es el concepto que se usa al tratar de redes complejas (véase también esta o esta entradas) para ver cómo de importante es un nodo, en este caso, una ciudad. Hay muchas maneras de medir la centralidad, pero nosotros nos vamos a fijar sólo en dos: la centralidad de grado, que asigna mayor importancia a un nodo cuántas más conexiones directas tiene, y la centralidad "betweenness", para la que la importancia tiene que ver con la aparición de un nodo en más caminos más cortos entre otros. La figura siguiente recoge, por poner un ejemplo, cómo van cambiando las centralidades en el caso de país desordenado (Alemania), con decisiones que se toman con los tres criterios. Aquí es importante aclarar que cada punto corresponde al coeficiente de Gini total de la distribución de centralidades, que nos mide cuánto de desigual es la distribución de centralidad entre las distintas ciudades. Un coeficiente de Gini más cercano a 1 es una distribución muy desigual, mientras que 0 corresponde a la situación en la que todas las ciudades son igual de importantes.

fede anxo 3

En el gráfico se aprecia que la centralidad de grado ("degree") varía mucho durante el proceso, lo cuál es lógico: al mejorar el primer tramo solo hay dos ciudades realmente centrales, el resto siguen sufriendo una red antigua. A medida que se mejoran tramos adicionales, más ciudades se van incorporando al club de las bien tratadas. Sin embargo, la centralidad "betweenness" no varía gran cosa, y de hecho tiene un comportamiento peculiar al principio del proceso dependiendo del criterio, con aumentos de la desigualdad entre ciudades al avanzar la mejora de la red. Pero además de las características globales, numéricas, conviene observar que aunque las redes finales pudieran ser muy parecidas en algunos casos, el proceso histórico es totalmente distinto, por lo que si se detiene antes de haber conectado todas las ciudades (por ejemplo por una crisis económica o por agotamiento del presupuesto) el resultado puede ser muy diferente.

Como vemos, hay bastantes lecciones que podemos extraer de este trabajo puramente teórico: para empezar, como ya adelantamos, aunque las mejoras sean locales, hay que ver la red como un todo. Los cambios de centralidad y la desigualdad que inducen son muy relevantes, y pueden dar durante un tiempo una ventaja competitiva a ciertas ciudades o nodos. Esto debe valorarse tanto en términos de consecuencias de las decisiones tomadas como una posible medida a adoptar para promocionar ciertos nodos. Pero sólo puede valorarse con el dato de toda la red. En segundo lugar, la valoración de una política de infraestructuras sólo se puede hacer en base a los criterios escogidos. Se podría encontrar una combinación de objetivos para los que la red evaluada sería óptima, y al revés, ninguna red puede ser óptima para la totalidad de objetivos. Por tanto, es imprescindible determinar el marco de referencia y su relación con el mandato político subyacente. Por ejemplo, si al agente decisor se le pide una red que maximice algo para el conjunto de agentes no puede pedírsele que sea óptima simultáneamente para un subconjunto: Que el corredor ferroviario mediterráneo se haya pospuesto puede ser potencialmente razonable desde una perspectiva nacional pero profundamente ineficiente para las comunidades afectadas. Como consecuencia, resulta de crucial importancia determinar los objetivos y los agentes decisores relevantes en cada proceso de inversión. Y, por supuesto, los políticos deben ayudar a la ciudadanía mostrando las repercusiones reales de las inversiones y no solo las aparentes (una ciudad puede tener muchas conexiones (grado) y sin embargo casi ningún viajero la atraviesa ("betweenness").

Una reflexión adicional sobre este tema nos lleva a hablar de los criterios de eficiencia y equidad, que probablemente sean bastantes contrarios cuando se trata de infraestructuras. Si queremos incentivar las zonas más atrasadas o despobladas probablemente supondrá un coste en términos de crecimiento para el sistema global. Dado que las ventajas de las zonas centrales son muy altas respecto a las deprimidas conseguir su expansión podría requerir de inversiones muy altas o incluso no ser posible. Ejemplo: Zamora podría no ser atractiva a las empresas aunque el número de carriles de sus autopistas continúe creciendo indefinidamente. Solamente un empeoramiento en las autopistas de Madrid con el consiguiente aumento de la congestión podría hacerlo. Esto apunta a que probablemente sea necesario otro tipo de intervenciones y, claro, a que las decisiones sobre las redes de transporte son de una complejidad extraordinaria, que no conviene abordar a la ligera ni como moneda de cambio en negociaciones políticas, sin base científica y técnica de ninguna especie.

Para terminar, no nos resistimos a hacer un último comentario sobre otra posible utilidad de este tipo de estudios, de carácter más básico, en el ámbito del análisis histórico. La generación de redes artificiales a partir de la combinación de datos históricos con hipótesis sobre los criterios de selección de inversiones que fueron aplicados permite la generación de redes contrafactuales.  La comparación de las redes artificiales con la red empírica permite contrastar la validez de las hipótesis planteadas en su elaboración. Un ejemplo de ello puede verse en el documento de trabajo realizado por Myro et al (2014) en el que se indaga sobre las motivaciones del diseño radial de la red de carreteras españolas que evoluciona a partir de la elección en el siglo XVI de Madrid como capital. Así pues, el tipo de trabajo que acabamos de resumir puede ser muy útil en un aspecto más "forense", de análisis de las razones que llevaron al estado de la red en el momento de interés.

 

 



23/07/2017 – El Día – Los súper y los precios, un dolor de cabeza

domingo, 23 de julio de 2017

Más sobre tendencias en el mercado laboral español

fotoA principios de este mes tuve la oportunidad de impartir un curso en la escuela de verano de la Barcelona Graduate School of Economics. Aproveché estas diez horas de sesiones para repasar lo que nos enseña la investigación reciente en economía sobre qué puede explicar las brechas de género en el mercado laboral: tanto las tendencias a largo plazo, como la persistencia reciente. En este contexto, aproveché para mirar en más detalle los datos para España, que les quería comentar hoy.

Quizá la tendencia más llamativa que se puede observar con datos de la Encuesta de Población Activa (EPA), es el pronunciado aumento de la tasa de ocupación femenina comparada con la masculina, durante los últimos 30 años (donde la tasa de ocupación es el número de personas empleadas, dividido entre la población total en edad de trabajar). En la Figura 1, presento el cociente entre la tasa de ocupación femenina y masculina, entre 1987 y 2017, con datos de la EPA (edades 16-64). Hace 30 años, la tasa de ocupación femenina apenas superaba el 40% de la masculina. El máximo de la serie se alcanza en 2014, con casi el 86%. La tendencia positiva parece haberse detenido desde 2012, aproximadamente.

Figura 1. Ratio entre las tasas de ocupación femenina y masculina, 1987-2017 (fuente: EPA)
Figura1

Para entender esta convergencia histórica en tasas de ocupación, ayuda observar las series masculina y femenina por separado (Figura 2). La tasa de ocupación masculina ha oscilado en torno al 70% durante todo el periodo (más cercana al 60% durante las recesiones). Sin embargo, la femenina ha experimentado una tendencia creciente muy marcada, partiendo de un nivel inferior al 30%, y llegando a superar el 56% en el periodo justo anterior a la crisis (inicios del 2008). Es decir, la tasa de ocupación femenina casi se ha duplicado en 20 años. A inicios del periodo, la diferencia era de casi 40 puntos porcentuales con respecto a la masculina, mientras que esta diferencia se estabilizó en torno a los 10 puntos a partir de 2012.

Figura 2. Tasas de ocupación femenina y masculina, 1987-2017
(fuente: EPA)
Figura2

Otra tendencia histórica bien conocida es el aumento en los niveles educativos de la población española. En la Figura 3, muestro (con datos de la EPA para el segundo trimestre de 2016) el porcentaje de hombres y mujeres que declaran poseer una titulación universitaria, por año de nacimiento (de 1930 a 1990). La tasa de graduados es inferior al 10% tanto para hombres como para mujeres nacidos a principios de los años 30, mientras que de entre los hombres nacidos en 1974, prácticamente el 40% eran universitarios.

Figura 3. Proporción de titulados universitarios por año de nacimiento (fuente: EPA, 2º trimestre de 2016)
Figura3
Nota: Medias móviles de orden 3.

El patrón más llamativo de esta figura es que el aumento en el nivel educativo es mucho más pronunciado entre las mujeres. Entre los nacidos a principios de los años 40, la brecha de género era de 10 puntos a favor de los hombres (17 vs. 7). Para los nacidos, como yo, a mediados de los 70, la brecha es de 13-14 puntos a favor de las mujeres (39 vs. 53). Esta nueva brecha de más de 10 puntos a favor de las mujeres se ha mantenido aproximadamente sin cambios para las cohortes posteriores a 1975. Esta tendencia, y en concreto la inversión del signo de la brecha de género en educación, es común a muchos otros países.

Me gustaría poder mostrar una figura similar con salarios medios o medianos para hombres y mujeres durante las últimas décadas. Como la EPA no incluye históricamente datos de salarios (de lo que ya hemos hablado aquí), la cosa se complica. La Encuesta de Estructural Salarial (EES) nos permite un análisis detallado, aunque sólo para años recientes. La Figura 4 muestra el cociente entre el salario anual bruto mediano de mujeres y hombres, para trabajadores a tiempo completo y mayores de 19 años (las distribuciones completas las enseñé ya en esta entrada anterior).

Figura 4. Ratio entre el salario bruto anual mediano de mujeres y hombres, 2006-10-14 (fuente: EES)
Figura4

En 2006, el salario mediano de las mujeres trabajadoras era un 81% de salario mediano masculino, es decir, la brecha salarial en la mediana era de 19 puntos porcentuales, que se reducían a 16 en 2010, y a 13 en 2014. Por tanto, dos resultados: Primero, la brecha salarial de género (“bruta”) parece que ha venido reduciéndose en años recientes. Segundo, en 2014 dicha brecha seguía siendo considerable. Sobre todo teniendo en cuenta que estamos comparando sólo a trabajadores a tiempo completo, y que las mujeres tienen de media un nivel educativo más alto, como ilustra la figura 5 para la misma muestra de la EES. En 2014, más del 40% de las mujeres en la muestra de trabajadores de la EES eran tituladas universitarias, comparado con poco más del 25% de los hombres.

Figura 5. Porcentaje de trabajadores con titulación universitaria, por sexo y año, EES 2006-10-16
(trabajadores a tiempo completo mayores de 19 años)
Figura5

Para formalizar en qué medida la brecha salarial de género en 2014 se puede explicar por características observadas de los trabajadores o los trabajos, estimo regresiones en las que controlo por edad y nivel educativo de los trabajadores, horas de trabajo semanales, antigüedad en la empresa, región, nacionalidad del trabajador, tamaño de la empresa, ocupación, e industria. El tamaño de la muestra es de más de 170.000 observaciones. El chocante resultado es que estas características no consiguen explicar NADA de la brecha de género. Es decir, si comparamos a trabajadores y trabajadoras de la misma edad y nivel educativo, trabajando las mismas horas semanales en la misma industria, ocupación y región, la diferencia salarial no es menor que la que se observa comparando las medias o las medianas globales (de brechas salariales de género ya hemos hablado antes, por ejemplo aquí y aquí). La razón es que, aunque las mujeres de media trabajan menos horas y en ocupaciones peor pagadas (lo que explica en parte la brecha salarial), su nivel educativo es mucho más alto que el de los hombres (lo que “desexplica” la brecha).

A modo de conclusión, en esta entrada he repasado algunas tendencias históricas en el mercado laboral español. La participación femenina en el mercado de trabajo aumentó mucho entre los años 80 y aproximadamente 2012. El nivel educativo de la población también ha aumentado de manera importante, estabilizándose a partir de las cohortes nacidas en 1976-77, y este aumento en el nivel educativo ha sido particularmente pronunciado entre las mujeres. Finalmente, la brecha salarial de género ha venido reduciéndose en años recientes, pero un diferencial importante persiste, que no puede explicarse por las características observables de los trabajadores, las empresas o los empleos. Estas tendencias son comunes a otros países de nuestro entorno. (Sobre los factores que pueden explicarlas, esta entrada es un buen punto de partida).



¿Era Milton Friedman socialdemócrata?

socialdemócrata

Con Mario Centeno (Ministro de Hacienda en Portugal)

 

SOBRE EL ARTÍCULO QUE PUBLICÓ LUIS GARICANO (CIUDADANOS)

El sábado por la noche cenando con amigos leí el título del artículo de Luis Garicano “Políticas Económicas de Oferta Progresistas.” El título es muy provocador ya que los economistas del lado de la oferta fueron los asesores de Reagan y los ideólogos de la revolución neoconservadora. Conviene recordar que Luis se doctoró en Chicago, cuna del neoconservadurismo (décadas antes que Reagan) con Milton Friedman como referente.

El domingo lo leí con calma al despertarme. El artículo empieza bien negando la curva de Laffer -defendida por FAES- y que dice que bajar impuestos aumenta la actividad, la recaudación y reduce el déficit. Y, al contrario, subir impuestos reduce la actividad y la recaudación, y aumenta el déficit. En España Rajoy aumentó intensamente el IRPF y el IVA en 2012, bajó la actividad y el empleo, pero aumentó la recaudación y redujo el déficit, en contra de lo que decía la regla de Laffer. 

Luis con buen criterio también critica los multiplicadores fiscales que desde la izquierda se suelen inflar para decir que los aumentos de gasto público salen gratis, ya que aumentan la actividad, la recaudación y no afectan al déficit. En economía, la escuela de Harvard (con Hansen a la cabeza) lideró el concepto de presupuesto equilibrado, que ya negaba esta falacia hace muchas décadas. Su tesis, basándose en la Teoría General de Keynes, es que un aumento de impuestos y de gasto proporcional mantenía el déficit y aumentaba la actividad y el empleo ya que los multiplicadores de gasto son mayores que los de los ingresos, especialmente en una recesión y, en mayor medida, con restricción de crédito, tal y como sucedió en la Gran Recesión.

Pero Luis da un cuádruple salto mortal sin red para citar un artículo de Rafa Domènech y Jose Manuel González Páramo de BBVA en el que aplican el modelo de sostenibilidad de deuda de Blanchard a la economía española. Lo más sorprendente del análisis para este economista observador es que, a pesar del fuerte aumento de déficit público entre 2007 y 2009, España nunca estuvo fuera de la senda de sostenibilidad. Por lo tanto, la crisis financiera del euro que comenzó en 2010 no fue racional y la obsesión de las autoridades europeas por los aumentos de las primas de riesgo no estaba justificada.

¿POR QUÉ JOSÉ MANUEL G. PÁRAMO (BBVA) DEFENDIÓ QUE EL BCE NO COMPRARA DEUDA?

En ese escenario estaría bien que José Manuel nos explique por qué él fue uno de los mayores defensores dentro del Consejo del BCE para no comprar deuda; ni pública, ni privada. Ese tabú moral lo rompió Mario Draghi en 2012. Sacó a Europa de la recesión y de la crisis del Euro, que tantos empleos ha destruido y que ha sido la causa de la desafección, la fragmentación política y los problemas de ingobernabilidad que ahora padecemos.

Pero el artículo del BBVA que apoya Garicano critica el ajuste fiscal en España y lo relacionan con la tasa de paro estructural. La tasa de paro y el déficit público están autocorrelacionados y dependen uno del otro y, además, dependen de más variables. Por lo tanto, el gráfico y todo el análisis son una simplificación extrema que debería llevar a conclusiones prudentes que dejen abiertas nuevas líneas de investigación.

EL AJUSTE FISCAL EN ESPAÑA NO HA SIDO GRADUAL

 socialdemócrata

Pero para mi sorpresa, ambos autores afirman con rotundidad que el ajuste fiscal ha sido gradual en España. Voy a utilizar a Blanchard (los autores le citan citan como referente) para desmontar esa falacia.

En el gráfico anterior tenemos la evolución del déficit público estructural. Lo primero que haría el Blanchard académico, catedrático de MIT y autor del manual de Macroeconomía más influyente, es advertir que el indicador que usamos para medir la política fiscal incluye una estimación del PIB potencial, variable no observable y, como toda estimación, sometida a error. La estimación actual del FMI para 2007 es de un déficit del 1,5% del PIB y en 2008 estimaban que era un superávit del 2% del PIB. Un error de unos 30.000 mill de euros anuales. Además del abultado margen de error, cambia el signo. Eso ayuda a explicar que en 2007 los organismos internacionales alabaran la política fiscal española y ahora digan que el superávit fue insuficiente.

La causa del error fue el pinchazo de la burbuja inmobiliaria. Un economista académico sería humilde, reconocería que nuestro conocimiento del fenómeno financiero es muy limitado y que nuestra capacidad para medir sus efectos también. Blanchard, como economista jefe del FMI, estimó que las medidas discrecionales del gobierno español entre 2007 y 2009 fueron inferiores a 2% del PIB. Por lo tanto, el brusco aumento del déficit estructural en esos dos años está sometido a errores de estimación, lo mismo que la tasa de paro estructural. Como nos enseñó el gran Flores de Lemus, en muchas ocasiones los economistas medimos troncos de leña en balanzas de precisión.

En segundo lugar, Blanchard en 2009 desde el FMI recomendó que una estrategia gradual de reducción de déficit no debía superar el 1% estructural cada año y debería ir acompañado de compras de deuda del Banco Central para garantizar la estabilidad financiera del sistema y contrarrestar los efectos recesivos y deflacionistas del ajuste.

En el gráfico se observa que en 2010 el ajuste fue del 2% del PIB. El gobierno español de Zapatero diseñó su estrategia fiscal gradual en el otoño de 2009 siguiendo las recomendaciones de Blanchard. Pero los neocon europeos liderados por Alemania, Holanda y Finlandia. y con el apoyo de la Europa del Este, impusieron un ajuste adicional en mayo de 2010.

UNO DE LOS MAYORES AJUSTES FISCALES FUE LA DE RAJOY EN 2012

No obstante, uno de los mayores ajustes de la Gran Recesión (que pasará a los libros de historia económica mundial) fue en 2012: el ajuste impuesto a Rajoy por la Troika tras el rescate. El ajuste supuso un recorte de déficit estructural del 4% del PIB, cuatro veces más intenso de lo recomendado por Blanchard.

Blanchard destacaría que desde 2013 no sólo no se ha hecho ajuste fiscal, sino que las bajadas de impuestos han aumentado el déficit estructural 1 punto de PIB hasta el 3%. Por lo tanto, Rajoy ha hecho una política fiscal expansiva que nos ha alejado de la senda de sostenibilidad de la deuda que recomienda Blanchard. Lamentablemente, desde muchos sectores de la izquierda siguen hablando de austeridad, compensado la falta de rigor de los análisis conservadores.

Si España hubiera seguido el consejo de Blanchard y de más economistas europeos entre los que me incluyo (y como hizo el gobierno español en su senda de salida en el otoño de 2009) y hubiera tenido el apoyo del BCE, el déficit estructural sería el mismo pero nos habríamos ahorrado la recesión de 2012, la destrucción de un millón de empleos y la tasa de paro en España sería significativamente inferior, también la estructural.

LUIS GARICANO APOYA RECORTES BRUTALES EN INVERSIÓN, INNOVACIÓN Y EDUCACIÓN

Como nos advirtió Keynes, el principal peligro no son los intereses creados y las puertas giratorias, son las ideas. Garicano asume como suyo el análisis y dice que la solución a todos los males de la economía española es que se aplicará el programa económico de Ciudadanos. Implícitamente, Luis -igual que BBVA- apoya los brutales recortes de inversión pública, innovación y educación que, como Blanchard nos enseña en su manual, reducen el PIB potencial y nos alejan de la senda de sostenibilidad de deuda. 

Los autores llegan a la conclusión que las reformas en el mercado de trabajo que reduzcan la tasa de paro estructural aumentarían el superávit público y resolverían la crisis de deuda. El Blanchard académico sería mucho más prudente. Primero estimaría el efecto de la reforma laboral de 2012 sobre el PIB potencial y los efectos de sus medidas.

Garicano y BBVA fueron firmes defensores de prevalecer los convenios de empresa sobre los sectoriales en la negociación colectiva

Ya existían cláusulas de descuelgue para empresas en crisis antes de 2012, pero no funcionaban correctamente. Pero la reforma de 2012 permitió el descuelgue sin condicionalidad. Sin esta reforma es imposible explicar que con el empleo en el sector hotelero creciendo próximo al 10%, los ingresos significativamente por encima de 2007 y los beneficios creciendo a tasas de dos dígitos muy por encima de la inflación, los salarios por hora del sector sigan cayendo.

Especialmente gravoso es el caso de las camareras de piso. Esa reforma del mercado laboral ha sido regresiva, ha aumentando la desigualdad, ha reducido la recaudación de impuestos y nos aleja de la senda de sostenibilidad de deuda de Blanchard. Para resolver el problema de desigualdad, Garicano propone un impuesto negativo sobre la renta, cuyo ideólogo es Milton Friedman. Los empresarios hoteleros se quedarían con sus beneficios intactos y todos los contribuyentes, especialmente las clases medias, compensaríamos a las camareras de piso su precariedad salarial con dinero de nuestros impuestos. 

La primera estimación de Ciudadanos de esta medida fue que costaría unos 10.000 millones anuales. O sea, que aumentaría el déficit estructural 1% del PIB adicional y nos alejaría de la senda de sostenibilidad de Blanchard. Luis dice que gracias al pacto con el PP la medida se va a implementar. Pero al final se ha quedado en un raquítico impacto de 500 mill y la propuesta es que se pague con fondos del Plan de Garantía Juvenil de la Comisión Europea, que estaba diseñado para políticas activas de empleo y reducción del desempleo juvenil (una herida de la crisis aún abierta en España). Con buen criterio, la Comisión ha dejado la propuesta en el congelador y tiene pocas posibilidades de ser aprobada.

YA NO SOLO ES GARICANO: PEDRO SÁNCHEZ TAMBIÉN INTRODUCE EL IMPUESTO NEGATIVO SOBRE LA RENTA (MILTON FRIEDMAN)

Lo más sorprendente es que Pedro Sánchez haya introducido el impuesto negativo sobre la renta de Milton Friedman en la ponencia marco del último congreso del PSOE. Ya lo introdujo en el acuerdo con Ciudadanos en febrero de 2016, pero desde el PSOE se dejó claro que era una condición necesaria para el acuerdo pero no propuesta por los socialistas. Pero ahora la propuesta de Friedman forma parte del programa socialista y le han puesto de lema “somos la izquierda”. Por lo tanto, ahora supuestamente las propuestas neocon de Chicago son de izquierdas.

La pasada semana he tenido el honor de dirigir un curso en la Universidad Menéndez Pelayo en Santander. El curso ha contado con elevado nivel de debate (tanto de los ponentes como de los participantes) sobre el futuro de la socialdemocracia en el siglo XXI. Para el post actual destacaría la ponencia que clausuró el seminario de Mario Centeno. Mario es doctor por Harvard, especializado en mercado de trabajo, como Blanchard, y actualmente es el ministro de Finanzas de Portugal.

 

MARIO CENTENO Y EL CASO DE PORTUGAL

Mario comenzó su ponencia haciendo un certero diagnóstico de la crisis donde centró la causalidad en lo financiero y destacó que Portugal sufrió especialmente la fragmentación financiera europea y la restricción de crédito por los problemas de solvencia de sus bancos. Negó la Ley de Say (que la oferta crea su propia demanda) y, como buen socialdemócrata, defendió que las reformas de oferta deben estar bien diseñadas y deben ir acompañadas de políticas de demanda.

Defendió la estabilidad presupuestaria argumentando que Portugal tiene la cuarta deuda pública más alta del mundo y eso exige una política fiscal prudente. En Portugal el gobierno socialista mantiene una política fiscal prudente para retornar a la senda de sostenibilidad, pero gradualmente para permitir que aumente el empleo y con medidas redistributivas para reducir la pobreza generada por esta maldita crisis.

¿Por qué en 2017 el empleo crece más en Portugal que en España?

Mario Centeno explicó cómo sus primeras decisiones al llegar al gobierno fueron recapitalizar varios bancos con dinero de los contribuyentes. Eso ha permitido reducir la restricción de crédito y los tipos de interés de financiación de las pymes con la ayuda de las compras de deuda del BCE. Junto con la recuperación de su demanda externa, es una de las causas que explica que empleo en Portugal crezca más que en España en 2017.

Pero su principal aportación fue en el mercado de trabajo, su especialidad. Defendió subidas de salarios mínimos vinculadas a productividad y a su relación con el salario medio de la economía. El gobierno socialista portugués ha subido el salario mínimo en 2017 un 5% y en España se subió un 8% por imposición del PSOE para evitar la sanción de Bruselas por incumplimiento de déficit. El efecto es que el empleo crece más que el año pasado y sorprendentemente el efecto sobre el resto de salarios ha sido mínimo en ambos países.

Mario, como este economista observador, también es un defensor de la flexibilidad en el mercado de trabajo y contrario a muchas rigideces defendidas, entre otros, por los sindicatos, que lejos de defender al trabajador acaban generando más problemas de los que ya existen. Eso es la socialdemocracia y lo que lleva a la paradoja de que los ultraliberales te acusen de planificador, o que desde la extrema izquierda te tilden de ultraliberal.

Garicano y BBVA han criticado las subidas de salarios mínimos 

Tanto Garicano como BBVA han criticado sistemáticamente las subidas de salarios mínimos diciendo que sería perjudicial para el empleo. La evidencia en España y Portugal de nuevo vuelve a rechazar esa afirmación tan rotunda, igual que el propio Garicano reconoce que rechaza la curva de Laffer. Eso no significa que la solución a la crisis sea subir el salario mínimo a 10.000 euros mensuales. Como recomendaba Aristóteles, en el intermezzo está la virtud. Esa subida ha obligado a los empresarios hoteleros a subir los salarios a sus camareras de piso, con coste cero para el resto de contribuyentes, ha aumentado los ingresos del estado de manera estructural y nos han acercado un poco más a la senda de sostenibilidad de deuda de Blanchard.

Siento la extensión querido lector pero son ideas y conceptos complejos y no se pueden discutir de manera simple en Twitter. En el siglo XXI la profecía de Keynes sigue vigente y el poder sigue estando en las ideas. Y como acabamos de comprobar en este post, las ideas buenas o malas no tienen que ser de izquierdas o de derechas. La principal conclusión del seminario de Santander es que la socialdemocracia debe recuperar un relato atractivo que le permita ganar elecciones pero con rigor y sin dogmatismos. El gobierno portugués de Antonio Costa y Mario Centeno está demostrando que es posible.

Que la fuerza les acompañe, ya que Portugal, igual que España, aún siguen en el filo de la navaja de la senda de sostenibilidad de la deuda.


Recuerda que cada lunes 😉 envío a los suscriptores de mi blog el análisis económico de la semana. Si tú todavía no estás apuntado, puedes hacerlo GRATIS aquí o haciendo click en la imagen de abajo 👇

 

blog josé carlos díez

La entrada ¿Era Milton Friedman socialdemócrata? aparece primero en El Blog de José Carlos Díez.



viernes, 21 de julio de 2017

Madrid ha ganado nueve veces más peso en el PIB de España que Cataluña desde el año 2000

La Comunidad autónoma de Madrid aumentó su peso en el PIB de España 1,25 puntos porcentuales entre los años 2016 y 2000, lo que significa una ganancia de su cuota autonómica en la estructura porcentual del PIB español nueve veces superior a la de Cataluña y Murcia, segunda y tercera Comunidades con mayor aumento de representatividad en el macroagregado nacional, con 0,139 y 0,134 puntos, respectivamente, según las cuentas económicas publicadas en este enlace del Instituto Nacional de Estadística. No obstante, Cataluña sigue siendo la Comunidad que aporta el mayor componente de PIB al conjunto nacional, con 211.915 millones de euros medidos a precios corrientes, y por delante de la Comunidad de Madrid, cuya producción económica asciende a 210.813 millones. En consecuencia, las representatividades de ambas Comunidades en el total nacional ascienden al 19% y 18,9%, respectivamente, cuando en el año 2000 lo hacían al 18,9% y 17,7%, siguiendo el mismo orden. Cabe destacar asimismo que en la citada estructura del PIB español, Andalucía es la tercera Comunidad en importancia, con 148.468 millones de euros, o el 13,3% del total nacional. A continuación, se sitúa la Comunidad Valenciana, 105.077 millones -9,4% en la estructura agregada-, quien junto con Andalucía ha perdido representatividad desde el año 2000, concretamente 0,24 puntos la Comunidad Valenciana y 0,03 puntos Andalucía. Entre las Comunidades con mayor pérdida de importancia destaca, en sentido negativo, Castilla León, tras perder 0,53 puntos entre los años 2016 y 2000. Asturias es la segunda Comunidad con mayor retroceso: 0,206 puntos, un dato que revierte en este caso doble valor significativo al ser su importancia actual en el conjunto nacional de tan solo el 1,9%. Islas Canarias ocupa el cuarto lugar por la cola, tras el tercer puesto de la Comunidad Valenciana, con una pérdida de 0,19 puntos, sucediéndole País Vasco […]

La entrada Madrid ha ganado nueve veces más peso en el PIB de España que Cataluña desde el año 2000 aparece primero en El Captor.



jueves, 20 de julio de 2017

Todo lo malo se pega: ¿existe contagio de la corrupción política local en España?

qar

Por Beatriz G. López-Valcárcel , Juan Luis Jiménez, y Jordi Perdiguero

Basado en: Danger: local corruption is contagious!, López-Valcárcel, B., Jiménez, J.L. and Perdiguero, J. Journal of Policy Modelling. Forthcoming. (en imprenta, puede verse una versión previa aquí)

La corrupción política es un grave problema de España. Eso es evidente. No solo lo es para la economía (trabajos seminales como el de Mauro, 1995, confirman la relación inversa entre corrupción y crecimiento económico), sino la propia población española así lo considera (véase las encuestas del CIS)

El  problema de la corrupción política local se sostiene, al menos, por dos factores: de un lado, porque la clase política en este país no se selecciona mediante un sistema meritocrático (al contrario que el acceso a la función pública, aún a pesar de las deficiencias que también presenta y que han sido analizadas aquí, aquí o aquí).

Y por otra parte, y quizás la más relevante, debido a que quienes deben sancionar este tipo de corrupción mediante el mecanismo del voto (puesto que el verbo dimitir no se sabe conjugar entre la clase política española), lo hacen de forma poco ejemplarizante o, incluso, premiando el robo gracias a la fidelidad de los votantes (véase Jiménez y García, forthcoming). Solo parece que tal castigo es algo menos laxo cuando los medios de comunicación asumen el papel difusor de tales noticias, como obtuvieron Costas-Pérez et al (2012).

En este poco halagüeño contexto, nos hicimos la pregunta de si existe la posibilidad que la corrupción política local se “contagie”. Este tipo de análisis de los “contagios” provocados por las interacciones sociales se usa de forma  más habitual en economía de la salud (contagio de la obesidad y del tabaquismo, principalmente) o en el estudio de los ratios de crímenes.

En nuestro caso, pretendíamos dar respuesta a: ¿hay más probabilidad de que la persona que ocupa un cargo político en mi municipio sea corrupto si el vecino (político) lo es? Esto es, ¿hay un efecto imitación en la actividad ilícita?

Además, dada la estructura de los datos, el análisis se seccionó en función de cuándo se cometió el delito y cuándo se detectó, con lo que pudimos atender a una pregunta más: si descubren un caso de corrupción en un municipio vecino, ¿la probabilidad de acusación por parte de la Justicia en mi municipio será mayor?

Base de datos y metodología

El análisis empírico está formado por todos los municipios con población superior a 1.000 habitantes en España (3.413), para los que obtuvimos tres tipos de datos:

  1. Casos de corrupción política local.- Dada la inexistencia de bases públicas de casos de corrupción, el trabajo utilizó la información aportada por Jiménez y García (forthcoming). Disponemos de todos los casos de corrupción local con imputación en España, para el periodo 2000-2011 (ambos años inclusive).
  2. Características municipales.- controlamos fundamentalmente por población, base imponible bruta del IBI, densidad poblacional e índice de actividad económica.
  • Variables geográficas.- creamos dos matrices. Una de ellas con valores binarios, solo para controlar si un municipio es limítrofe con otro; en la otra matriz calculamos la distancia entre los centroides de cada municipio. Ambas se crearon con bases de datos georeferenciadas de SIG.

La distribución geográfica de los casos se puede ver en los siguientes gráficos. Las Figuras 1 y 2 recogen los más de 200 casos contabilizados, en función del año que fueron cometidos los delitos.

Figura 1: Casos de corrupción en función del año que fueron cometidos

Captura de pantalla 2017-07-20 a las 14.41.58

Fuente: Elaboración propia a partir de Jiménez y García (forthcoming)

Figura 2: Casos de corrupción en Canarias en función del año que fueron cometidos

Captura de pantalla 2017-07-20 a las 14.42.10

Fuente: Elaboración propia a partir de Jiménez y García (forthcoming)

Tanto en el análisis gráfico como mediante la aplicación de la generalización del Test de Moran, se observa que existe correlación espacial entre los municipios donde se han dado casos de corrupcion local. Las estimaciones con modelos econométricos infieren y evalúan la situación a partir de este descriptivo inicial.

No obstante, el efecto espacial puede ser motivado por: 1) La organización de la justicia por distritos; 2) un contexto social y económico común a nivel municipal; 3) Verdadera interacción entre corruptos.

La opción 1) la descartamos por la existencia de una oficina nacional anti-corrupción. La 2) está minimizada al controlar por provincias en nuestras estimaciones. La 3) es la que tratamos de estimar, y es el efecto emulación.

Los resultados

La literatura sobre el efecto “contagio” de la corrupción se ha aplicado a nivel país y utilizando únicamente la adyacencia (ser vecino) como variable geográfica (véase Becker et al, 2009; o Seldadyo et al, 2010).

Como adelantamos, por razones analíticas identificamos separadamente el “efecto contagio” del “efecto acusación”. El primero es el relativo a que ser corrupto sea contagioso. El segundo a que la Justicia sea capaz de detectar más probablemente a corruptos vecinos.

Aplicamos tanto un modelo de corte transversal como, y es el más relevante, una estimación con variables instrumentales de datos de panel dinámicos en primeras diferencias, siguiendo a Arellano y Bond (1991). Los principales resultados se recogen en la Tabla 1, donde lo importante es el signo y significatividad estadística de la variable Neighbour accused: en los seis modelos es significativo y positivo.

Tabla 1: Variables instrumentales en primeras diferencias. Datos de Panel (Arellano)

Captura de pantalla 2017-07-20 a las 14.42.26

Fuente: Elaboración propia.

Estos resultados implican, caeteris paribus, dos efectos: De un lado, cada municipio vecino corrupto que tenga un ayuntamiento aumenta la probabilidad que se haya generado un caso de corrupción en el municipio en un 3,1 por ciento. Por otra parte, por cada municipio vecino que haya sido acusado de corrupción, aumenta la probabilidad de ser acusado en un 6,7 por ciento.

El trabajo, si bien tiene limitaciones atribuibles a los datos, ofrece resultados suficientemente contundentes como para sustentar  la idea de la existencia de un comportamiento espacial geográfico de la corrupción y, en consecuencia, para orientar la asignación de recursos públicos en juzgados, policías y agentes supervisores en orden a generar la externalidad positiva de prevenir nuevos casos de corrupción. Además de detectar y perseguir los ya cometidos, ya que las urnas no lo ejercen con suficiencia.



Una vieja historia

Britain_Unemployment_Stamps_1912Las prestaciones por desempleo siguen siendo un asunto controvertido. O eso he concluido tras participar, el pasado 27 de junio, en un debate sobre el paro de larga duración en España organizado por el Foro de Foros en el Col.legi d'Economistes de Catalunya. El debate se inició con una presentación mía de un artículo recientemente publicado, con J. Ignacio García-Pérez y Marcel Jansen, del que ya dimos cuenta en NeG (aquí están las transparencias de mi presentación).

En el debate, los participantes se manifestaron de acuerdo con el efecto que describí de las prestaciones sobre la duración del paro. Sin embargo, uno de los tuits de difusión de los resultados del evento recibió una respuesta que sugería que yo achacaba la existencia de parados a las prestaciones por desempleo. En realidad, mi presentación no fue sobre las causas del paro sino sobre los determinantes del paro de larga duración. La tasa de paro viene determinada por los flujos de entrada y salida, y las prestaciones por desempleo son solo uno de los determinantes de la tasa de salida. En línea con lo que dice el artículo, no propuse reducir las prestaciones por desempleo (de hecho, en 2009 algunos abogamos por elevarlas y cien economistas lo apoyaron). No obstante, el sustancial efecto de las prestaciones sobre la duración del paro no es una postura ideológica, sino que se ha confirmado innumerables veces en todo el mundo y también en España (véanse las referencias citadas en el artículo) y por eso defendemos compensar este efecto mejorando e intensificando las políticas activas de empleo.

Estos sucesos me han recordado lo que sucedió cuando apareció en 1995 en el Boletín Económico del Banco de España un resumen de una primera versión de un artículo de Olympia Bover, Manuel Arellano y mío (en adelante BAB) finalmente publicado en 2002. Describimos la reacción pública en un artículo posterior, incluido en un libro de homenaje a Luis Ángel Rojo publicado en 2004. Reproduzco aquí la parte pertinente, que sigue siendo una descripción relevante de la reacción pública a algunos resultados de la investigación económica, aunque creo que por suerte solo parcialmente. Espero que les guste.

---

3.2. Valoración de los resultados e implicaciones

El valor principal del resultado de BAB está en establecer un efecto estadístico concluyente de las prestaciones sobre la salida del paro, en un contexto en que resulta difícil imaginar que se trate de un efecto espurio producido por diferencias de composición. A menudo resulta imposible encontrar evidencia empírica acerca de este tipo de efectos por falta de variación exógena en el indicador de prestaciones. Podría ocurrir, por ejemplo, que la mayoría de parados en una encuesta tuviera prestaciones y que los que no las tuvieran fuesen parados con características especiales, en cuyo caso la ausencia de prestaciones sería más un efecto que una causa de las transiciones laborales. Sin embargo, en las duraciones de la EPA de 1987 a 1994, la división entre trabajadores con y sin prestaciones fue en buena medida generada exógenamente por la reforma laboral que generalizó la contratación temporal a todo tipo de trabajadores. De hecho, las características observables de los parados con y sin prestaciones en la muestra utilizada por BAB son bastante similares.[i]

Aparte de demostrar empíricamente que las prestaciones importan en un sentido genérico, el efecto encontrado en BAB no proporciona información sobre los efectos en las tasas de salida de posibles cambios legislativos en el tiempo de derecho a prestaciones. Al no observar el periodo de derecho a prestaciones en sus datos, en BAB no se puede medir el efecto de aumentarlo o disminuirlo. Simplemente se obtiene el impacto de percibir o no percibir prestaciones sobre la tasa de salida del paro.[ii] En cualquier caso, la duración del paro no es en sí misma un objetivo de la política económica. Los efectos sobre las duraciones son sobre todo importantes en la medida en que lo sean para determinar la tasa de paro (por ejemplo, si una mayor duración conduce a una pérdida de capital humano que haga más difícil la reincorporación al mercado de trabajo).

Reacción mediática y reflexión al respecto. La publicación de los resultados de BAB (1995) en el Boletín Económico del Banco de España tuvo un eco sorprendente en los medios de comunicación. Es difícil creer que en sí misma la idea de una asociación entre prestaciones y salida del paro resultara muy novedosa; el impacto se debió a que se enunciara públicamente y acompañada de evidencia empírica.

Por un lado, es reconfortante que un resultado econométrico no sea recibido con indiferencia. Por otro, hay que reconocer que la reacción fue la de desautorizar al mensajero. Un articulista se refirió en una columna titulada El camino de la India a “la idea que acaban de emitir sectores patronales sobre el subsidio del paro”, prosiguiendo: “hasta ahora se consideraba que el subsidio (...) se daba por la existencia de lo que se llamó ‘paro obrero’; ellos resuelven que, por el contrario, es la ayuda lo que produce el paro. Estos copérnicos de la era actual deciden que al dar dinero gratis al obrero o a quien sea, éste se para automáticamente”.[iii] Participantes en debates radiofónicos o periodísticos manifestaron su convencimiento a favor o en contra de si cobrar prestaciones desincentiva la búsqueda de empleo[iv] y los más airados no tuvieron empacho en cuestionar la calidad científica del trabajo y de sus autores. También se habló del trabajo en la Comisión de Economía del Congreso de los Diputados, donde el entonces Gobernador del Banco de España, tras describir las conclusiones publicadas en el Boletín Económico, salió con contundencia al paso de las críticas, por lo que los autores le estamos muy agradecidos. Como este capítulo se escribe en honor de Luis Ángel Rojo no está de más citar algunas de sus palabras en aquella ocasión. Según recoge el Diario de Sesiones del Congreso de los Diputados,[v] el Gobernador afirmó estar “muy picado con el tema, porque estuvieron ayer insultándome por radio durante dos horas un conjunto de personas que ni entienden de este problema ni habían leído el artículo”, continuando:

“Entonces, estos insultos de estos días lo único que están diciendo es que hay que frenar el conocimiento; esto es lo que en el fondo quieren decir, porque nadie propone ningún tipo de medida de política económica. Repito, lo que hacen es decir que hay que frenar el conocimiento; si no me gusta, que el conocimiento se frene. Esto es algo que este país ha vivido desde el siglo XVI por vías que no voy a desarrollar ahora, y a lo que yo no estoy dispuesto a jugar. De modo que estoy dispuesto a aceptar todos los insultos que recibí ayer durante varias horas para defender el derecho de estos jóvenes economistas a estudiar seriamente los problemas y a contribuir al conocimiento de esta economía.”

Las teorías económicas de búsqueda de empleo concluyen que los parados serán más selectivos con respecto a las ofertas de empleo que reciben cuanto mayor sea su renta mientras están parados. Esta noción puede producir indiferencia si se considera que el papel de los incentivos en las decisiones de los parados es secundario y hostilidad manifiesta si se le atribuye una connotación moral (al entrar en conflicto con la presunción de que un perceptor de prestaciones esté moralmente obligado a encontrar empleo lo antes posible con independencia de las prestaciones que reciba). En BAB se demuestra la existencia de un efecto de incentivos, estadísticamente muy significativo, en la medida en que para parados comparables la percepción de prestaciones reduce a la mitad la tasa de salida del paro a los tres meses. Pero éste es un efecto sin implicaciones directas de política económica, más allá de la reflexión general de que las políticas deben valorar conjuntamente los efectos deseables de las prestaciones con los no deseables derivados de alargar los periodos de paro. Los efectos deseables más obvios se deben a que las prestaciones constituyen un mecanismo de seguro que permite mantener la renta de los parados y por tanto la estabilidad de su nivel de consumo. Los resultados publicados en BAB representan una pequeña contribución, bien delimitada en su contexto, al conocimiento del mercado de trabajo español. Lo preocupante de las descalificaciones es que significan que no se acepta la autonomía de la ciencia, que en el terreno económico no hay un ámbito para el conocimiento científico, sino que cada cual encuentra lo que quiere encontrar para utilizarlo en su particular confrontación. En este sentido, la gran ventaja del método científico es que sirve para distinguir lo que tiene fundamento de lo que no, y por tanto es muy superior al método tradicional al que se refiere Luis Ángel Rojo, consistente en frenar el conocimiento de lo que no gusta. Otro aspecto a tener en cuenta es que, a diferencia de las ciencias médicas o biológicas, en las económicas son menos frecuentes los estudios que se centran exclusivamente en la investigación empírica de un aspecto concreto. En la tradición económica son habituales los estudios que abarcan distintos aspectos del problema tratado (teóricos o empíricos, junto con implicaciones normativas) y aquellos en los que las conclusiones científicas y las recomendaciones políticas se mezclan sin una línea clara de demarcación. De hecho, la distinción médica entre trabajos sobre el tratamiento de dolencias y la investigacion de base sobre sus causas carece de un paralelo de igual nitidez en la percepción pública de las ciencias sociales.

Notas:

[i] No obstante, los perceptores son mayores que los no perceptores, de menos nivel educativo, más a menudo cabezas de familia y provienen con menos frecuencia del sector de servicios.

[ii] El periodo de derecho a las prestaciones contributivas depende del tiempo trabajado en los 6 años (4 antes de 1992) previos al inicio del paro y el de las asistenciales, además del empleo, depende de la edad y de las características del hogar. Como la EPA sólo proporciona información sobre la antigüedad en el último empleo, no se pueden construir estimaciones fiables del periodo de derecho.

[iii] E. Haro Tecglen, El País, 25 y 26 de diciembre de 1995.

[iv] Por ejemplo, en La Vanguardia, 23 de diciembre de 1995.

[v] Núm. 649, 21 de diciembre de 1995, p. 19620.



miércoles, 19 de julio de 2017

Caos y desinformación; ¿finalidades de la industria publicitaria?

La industria publicitaria y toda la mercadotecnia ideológica que despliega sobre la conciencia social  debería ser objeto si no de regulación, sí al menos de estudio, examen o verificación de mayor profundidad. Esto es algo perfectamente obvio, teniendo en cuenta la cantidad de horas al día que, de media, empleamos las sociedades y “economías desarrolladas” frente al televisor u otros medios de comunicación. Siendo honestos, se debe reconocer que el mercado publicitario adoctrina casi tanto o más como la escuela y las instituciones educativas. Campañas publicitarias bombardean, puntualmente y durante meses, el inconsciente colectivo con un mismo slogan, buscando a través de la repetición alcanzar un status de veracidad, ya no solo con un objetivo de venta, pues a través del don de la ubicuidad se obtienen frutos aún mayores; configurar un estado anímico colectivo, influir de manera inconsciente en una construcción de valores políticos determinada, etc, etc… (Para la videoteca quedarán la recurrencia de spots que, hace tres o cuatro años, empleaban la conjugación “Podemos” como fórmula de comienzo para la venta de coches u otros productos industriales que acaparaban buena parte de los contenidos audiovisuales del día, etc…) Sin embargo, la que a nuestro juicio puede constituir la más siniestra finalidad de todas en la que quizás es la rama más representativa del capitalismo es “el desaprendizaje” o la deliberada promiscuidad conceptual que algunos de los más cotidianos mensajes comerciales transmiten. Por poner algunos ejemplos cercanos al ámbito económico, financiero o comercial pueden encontrarse los siguientes: “El ahorro está en el precio”, “Lo que vale mucho cuesta poco”, “140 años hablando con hechos”. Hay muchos más. No es solo que un gran número de economistas o filósofos no hayan podido encontrar a lo largo del pasado, e incluso el presente, el consenso para definir lo que es el […]

La entrada Caos y desinformación; ¿finalidades de la industria publicitaria? aparece primero en El Captor.