viernes, 30 de junio de 2017

Luto en la portada de ABC

Decía un comisario el otro día en una entrevista de televisión algo así como que en España nadie aguantaba una portada de El País. Suponemos que se refería a una de esas portadas en las que no te dan una medalla, sino un buen azote y descrédito mediático por no ajustarte a ciertas exigencias. Y Cristóbal Montoro, Ministro de Hacienda de España, ha sido el último en probar el agrio sabor de esta medicina, administrada, en esta ocasión, por el ultra sofisticado periódico conservador ABC; “El despacho que fundó Montoro cobraba para influir en el cambio de leyes”. Y en letra pequeña: “El ministro se niega a bajar el IRPF en 2018 y pone en riesgo el apoyo de Cs al techo de gasto”. Tal y como se puede observar, el periodismo independiente sigue vivo. Pero no nos engañemos. Este país funciona así y el hasta ahora Ministro lo sabe, igual o mejor que Julio Iglesias. Tanto es así que incluso ya ha dicho que se encuentra “a la espera” de que alguno de sus adversarios cometa el más mínimo error para pasar a la acción. Que sí, que así funciona un día sí, otro día también, este país. Hay quien dice que esto es lo natural, la naturaleza y la condición humana. Otros añaden, “no se atreva nadie a contrariar los designios de Dios”. Pero algunos designios conducen al acantilado, como los GPS. Y por continuar con las siglas, nada mejor que LGTB. Pero vayamos aún más allá. Si se tratara de no contrariar al animal, ¿no deberíamos entonces glorificar la conducta mafiosa, violenta o criminal? Esperad. Ya lo hacemos; permitiendo, por ejemplo, el maltrato y la muerte en espectáculo público de hermosas criaturas animales. Pero es por placer estético dicen, y a nadie debe molestarle. Claro que tan […]

La entrada Luto en la portada de ABC aparece primero en El Captor.



jueves, 29 de junio de 2017

El salario mínimo levanta pólvora otra vez

picture_seattleCualquier aumento del salario mínimo que es mínimamente generoso suele generar polémica, pero pocas veces asistimos a debates tan virulentos como el que tuvo lugar esta semana en Estados Unidos. El origen de la polémica es la publicación de un estudio que sugiere que las recientes subidas del salario mínimo en la ciudad de Seattle han causado una considerable pérdida de empleos poco remunerados. El estudio forma parte del proyecto  “The Seattle Minimum Wage Study” (SMWS) patrocinado por las autoridades locales y su publicación estaba prevista para esta semana. Sin embargo, pocas días antes se publicó otro estudio por parte de un equipo de investigadores de Berkeley que niega la existencia de impactos adversos. La polémica estaba servida porque este segundo estudio también fue encargado por las autoridades de Seattle con posterioridad y publicado estratégicamente solo unos pocos días antes del informe de SMWS. Esta manera de actuar es inapropiada y dañina para la profesión porque genera muchas dudas, tanto sobre el verdadero impacto del salario mínimo como sobre la objetividad, por no hablar de la integridad profesional de los dos equipos de investigación.

El contexto

En junio de 2014 la cuidad de Seattle aprobó una ordenanza con una subida gradual del salario mínimo hasta los 15 dólares por hora. Los dos estudios evalúan el impacto de las dos primeras subidas que elevaron el salario mínimo en más de un 37%, desde un nivel inicial de 9,47$ hasta un nivel de 13$ en enero del 2016. El estudio del SMWS utiliza datos confidenciales con información sobre las ganancias y las horas trabajadas de cada persona con derecho a prestaciones por desempleo en el estado de Washington. La información sobre salarios permite identificar a todas las personas con salarios por debajo de determinados umbrales y la información sobre horas permite distinguir entre ajustes a lo largo del margen extensivo – número de puestos de trabajo – e intensivo – horas. La disponibilidad de datos de salarios es importante porque evita la necesidad  de utilizar proxies para los trabajadores o puestos de trabajo poco remunerados como suele ser la práctica en esta literatura.

Pese a todo, la estimación de los impactos causales sigue planteando retos importantes. En el caso de Seattle la principal complicación es la coincidencia en el tiempo de la subida del salario mínimo con un fuerte boom económico a nivel local. Seattle es el centro de muchas empresas high-tech y en los últimos años la ciudad ha experimentado un fuerte crecimiento en los niveles de salario y empleo. En este contexto no resulta nada fácil aislar el impacto de la subida del salario mínimo. Para poder hacerlo hace falta un grupo de control de otra localidad que haya experimentado un boom similar, pero donde el salario mínimo no haya cambiado.

Los autores muestran que los condados adyacentes a Seattle no cumplen estas condiciones, invalidando de esta manera la metodología propuesta en el famoso estudio de Card y Krueger (1994). En su día estos autores analizaban el impacto de una subida del salario mínimo en el estado de Pensilvania, comparando la evolución del empleo en restaurantes de comida rápida en dos localidades adyacentes a distintos lados de la frontera. Para solucionar el problema, los autores del SMWS optan por un método alternativo basado en controles sintéticos – un procedimiento estadístico que les permite minimizar las diferencias en las tendencias previas a la subida en el salario mínimo entre la cuidad de Seattle y un grupo de control sintético compuesto de una media ponderada de otras localidades en el estado de Washington. El método tiene una sólida base estadística y ha sido utilizado en otros estudios sobre salarios mínimos.

Otra decisión menos estándar de los autores es la limitación del análisis a puestos de trabajo con salarios inferiores a 19$ por hora. Solo hay referencias a un estudio previo que utiliza un método similar y los procedimientos para establecer el umbral es menos formal que la construcción del grupo de control.

Resultados

Todo esto no hubiera atraído tanta atención si no fuera por los resultados encontrados en el estudio del SMWS . Según los autores, la segunda subida del salario mínimo causó un aumento en el salario medio del grupo de tratados (con salarios inferiores a 19$) de alrededor de 3.1%, causando a su vez una disminución en las horas agregadas para este grupo de más de 9% y en el número de empleos de 6.8%. Por tanto, según estos resultados el aumento en el salario mínimo hubiera causado una disminución de las ganancias totales para los trabajadores con salarios inferiores al 19$ por hora, reflejado en una elasticidad del empleo con respeto al aumento causal en los salarios de alrededor de (-)3. Es decir, medida en esta manera (con la subida causal en los salarios en vez del aumento del salario mínimo en el denominador) la elasticidad es casi 15 veces mayor que la mayor elasticidad convencional obtenida en los anteriores estudios!

Los investigadores de Berkeley critican varios aspectos del informe en una carta dirigida al alcalde de Seattle, como la exclusión de las empresas con plantas en múltiples localidades que no ofrecen información a nivel de planta sino al nivel de empresa, y en su proprio estudio los autores llegan a conclusiones muy distintas. En particular, para el sector de restaurantes y otros servicios alimentarios los autores no encuentran ningún impacto negativo en el empleo y un impacto muy moderado en salarios en línea con la mayoría de las estimaciones existentes. Los autores optan por esta estrategia convencional de identificación por falta de datos sobre salarios pero su grupo de control sintético se nutre de localidades en todo el territorio de los EE.UU. y no solo en el Estado de Washington.

A primera vista, estos dos conjuntos de resultados parecen completamente irreconciliables. Sin embargo, en uno de los ejercicios empíricos los autores del SMWS reproducen los resultados presentados en el informe de Berkeley. En particular, limitando el análisis al sector de servicios alimentarios, los autores obtienen resultados adversos de una magnitud similar como en su benchmark (columnas 4 y 5), aunque solo para los primeros dos trimestres de 2016. Al contrario, cuando extienden el análisis a todos los salarios en el sector los efectos son mucho más pequeños e insignificantes en linea con los resultados de los investigadores de Berkeley.

table_foodservice

En algunos comentarios se interpreta este resultado como evidencia de que la subida del salario mínimo no ha causado una pérdida neta de empleo por la aparente compensación de la pérdida de empleos de bajos salarios con un aumento relativamente fuerte en los empleos con salarios por encima del umbral de 19$. Sin embargo, esta interpretación no parece (del todo) correcta. La eliminación del umbral de salario incluye a muchas personas con salarios relativamente altos y potencialmente no afectadas en el grupo de tratamiento. En consecuencia, el impacto medio es menor y las estimaciones son menos precisas como indica la comparación de los errores estándar, lo que ayuda a entender la ausencia de efectos significativos al nivel de sector. Por tanto, en vez de desacreditar los resultados del SMWS, estos resultados son más bien una crítica a la literatura existente que utiliza proxies en vez de grupos de control basados en datos de salarios.

Me atrevo a ir un paso más allá. Aunque fuera cierto que el salario mínimo no produce efectos adversos sobre el nivel de empleo agregado, todavía pueden existir importantes efectos redistributivos que hagan que no debemos ignorar los resultados del SMWS. La razón es que las personas que ocupan estos nuevos puestos de trabajo con altos salarios probablemente no coinciden con las personas que hayan perdido sus puestos de trabajo poco remunerados.

Muchas de las dudas suscitadas por el estudio del SMWS se podrán resolver con más análisis. Los propios autores han expresado su intención de cruzar sus datos con otra base de datos con información detallada sobre las características de los individuos. Además, en vez de utilizar una secuencia de secciones cruzados los autores podrían utilizar datos longitudinales para seguir a los mismos trabajadores en el tiempo. Si es cierto que la subida del salario mínimo ha perjudicado a los trabajadores con salarios bajos, entonces deberíamos observar un aumento considerable en la probabilidad de transición del empleo al desempleo y poca o ninguna movilidad hacia salarios más altos para personas cuyos salarios iniciales estaban por debajo o ligeramente por encima de 13$. Por último, en los próximos años se podrán replicar los resultados para otras regiones y ciudades que también han anunciado subidas generosas de su salario mínimo, pero que parten de niveles inferiores que Seattle. De esta manera se podrá verificar en que medida el nivel previo del salario mínimo y la reducida escala geográfica de la subida del salario mínimo en Seattle han influido en los resultados.

Conclusiones

Todos estos contrastes son imprescindibles y forman parte de la práctica normal en la investigación económica. El problema es que la actuación de todas las partes involucrados genera desconfianza en nuestra profesión. Por su parte, los autores del SMWS ofrecen una larga discusión de los posibles sesgos en los estudios previos, pero a la hora de describir posibles problemas de identificación causados por el fuerte aumento en el empleo y los salarios en Seattle los autores son mucho menos profusos. Parece que les ha podido el afán de llamar la atención con resultados alarmantes. Ante resultados tan llamativos en un asunto tan sensible como es el salario mínimo conviene adoptar una actitud más prudente, explorando todas las vías posibles para verificar la robustez de los resultados antes de su publicación.

Por otra parte, los investigadores de Berkeley incurren en un error todavía mayor, prestando su reputación como investigadores al alcalde de Seattle para desautorizar públicamente a los autores del CWED previamente contratados por el mismo alcalde. Su carta al alcalde hace referencia a varios asuntos que merecen atención y que pueden alterar los resultados, pero lo normal habría sido que la carta hubiera servido como una especie de referee report, obligando a los autores del SMSW a abordar los asuntos polémicos antes de la publicación del informe. Y por último, si bien no menos importante, el alcalde de Seattle sale muy mal parado.  Su afán de evaluar los efectos de la subida del salario mínimo es loable, pero no parece que el alcalde estuviese abierto a aceptar críticas.

En la era de la posverdad los ciudadanos tienen necesidad perenne de información objetiva acerca del impacto de las decisiones políticas adoptadas por sus gobernantes. La investigación económica se encuentra en una posición privilegiada para aportar este tipo de información pero solo tendrá credibilidad si ninguna de las partes involucradas hace un uso estratégico de los resultados y si los equipos de investigadores actúen con total independencia y objetividad.



¿Están subiendo los salarios en España?

Salarios en España

LAS FAMILIAS DICEN QUE LOS SALARIOS EN ESPAÑA BAJAN. LAS ESTADÍSTICAS, QUE SUBEN

Ayer el INE publicó la encuesta de salarios del año 2015. El INE hace una encuesta trimestral que utiliza en la contabilidad nacional y luego hace una anual con más nivel de detalle. Los medios se centraron en las diferencias salariales por edades, por género, por sectores, por comunidades autónomas, etcétera. Este economista observador destacaría que el salario medio subió 1,1% en 2015. El debate público en los medios, en las reuniones familiares y en los bares es que los salarios bajan y las estadísticas dicen que los salarios suben.

 salarios en España

En el gráfico anterior he dibujado el salario medio desde 2008 (cuando comenzó la crisis) y se observa que ha subido casi un 6%. ¿Cómo es posible? O la estadística tiene errores, o la intuición de los ciudadanos es errónea, o la estadística y los ciudadanos hablan de cosas diferentes o una mezcla de las tres causas anteriores. La respuesta es la última opción.

 salarios en España

Ahora mira este otro gráfico. He dibujado otra estadística del INE: el Índice del Precio del Trabajo IPT. Usa datos salariales igual que la estadística anterior ,pero se calcula igual que el IPC. Se construye una cesta de puestos de trabajo y se mide la evolución del salario en esos puestos de trabajo. Este método elimina el sesgo de lo que se conoce como el efecto composición. Manteniendo los salarios constantes en una recesión -si se destruye empleo- con salarios bajos el salario medio aumentará. Y al contrario. Y en una recuperación si se crea empleo con salarios bajos el salario medio caerá, aunque los salarios de los que ya trabajaban se mantengan estables.

LA COMPLEJIDAD DE ANALIZAR LOS SALARIOS EN ESPAÑA

Los economistas, igual que los físicos, tenemos el problema de medir la complejidad. Leyendo los datos  sobre salarios de ayer, muchos podrían explicarte la crisis. Un economista temeroso de equivocarse puede decir muy pocas cosas de los datos publicados ayer. Imaginemos que no sabes nada y que en una laguna te dan la profundidad media, que es de un metro. Si mides más de un metro, supuestamente podrías bañarte pero lo más prudente es no hacerlo. En algunas zonas la profundidad puede ser de tres metros y puedes morir ahogado. El dato era correcto, pero mal usado puede ser letal.

Este es un buen ejemplo de la importancia del big data que es el petróleo del siglo XXI. El que dispone de más información y de mejor calidad tiene ventaja. Pero la clave es la capacidad para analizar esa información y, sobre todo ,conseguir que sea útil para la toma de decisiones. Esto no lo pueden hacer los robots ya que para hacerlo tienen que ser programados por un humano. La realidad es compleja, caótica e impredecible y los robots sólo pueden hacer cosas predecibles y programables.

La demanda de empleo en el segmento de big data crece exponencialmente, empieza a haber escasez de mano de obra especializada en España y los salarios empiezan a subir con fuerza. El otro día estuve con una joven ingeniera a la que una consultora le paga 1.000 euros al mes por hacer su trabajo de fin de grado. O sea ,sigue estudiando y es becaria mil eurista. La empresa quiere que cuando acabe y se gradúe trabaje con ellos y le pagan 25.000 euros brutos anuales y con escalas profesionales definidas que en pocos años puede aumentar su salario significativamente.

El mismo día hablé con otro joven que reparte comida para una cadena de hamburguesas con décadas en España, pero que ahora ha decidido hacer entrega a domicilio. Se quejaba que el salario era bajísimo, pero que tenía dinero para sus gastos y no tenía que pedirle a sus padres durante el año cuando estudia. La empresa vende las hamburguesas al mismo precio (que es bajo) y si sube los precios, la competencia en el sector conseguiría que muchos clientes llamaran a otra compañía. Con precio bajo y márgenes ajustados si pagas más salario al repartidor, perderías dinero en el servicio a domicilio y no crearías ese empleo. La clave es mejorar la calidad y poder subir precios para poder subir salarios. Esto es sencillo de decir pero complejo de hacer.

Es la misma estadística pero, como acabamos de comprobar, refleja dos realidades completamente diferentes. La joven ingeniera también se quejaba de su salario ya que había hecho un Erasmus en Austria y los salarios de sus compañeros austriacos siguen siendo muy superiores a los suyos haciendo funciones similares.

¿Qué podemos decir de los salarios en España sin temor a equivocarnos?

Mirando el gráfico del Índice del Precio del Trabajo podemos decir que los salarios en España son muy rígidos a la baja. Esto ya nos lo enseñó Keynes en su Teoría General en 1936, que le llevó a criticar los postulados clásicos del laissez faire y defendió el uso de la política fiscal para suavizar los ciclos y el efecto destructivo de las recesiones. En España con una destrucción de empleo próxima al 20% y la desaparición del 10% de las empresas, el salario se ha mantenido constante.

Cómo nos enseñó Keynes, los humanos no seguimos expectativas racionales, no sabemos anticipar el futuro y nos cuesta un tiempo asumir la nueva realidad y adaptarnos a los cambios. En la primavera de 2008 la patronal de la construcción, representada por las principales empresas del sector y los dos principales sindicatos, firmaron el convenio sectorial que garantizaba una subida salarial promedio al menos del 3% en los tres años siguientes. La burbuja ya había pinchado, la recesión ya se había activado y el convenio no tenía ningún sentido racional.

Los humanos hemos desarrollado la parte racional más que cualquier otra animal, pero tomamos las decisiones con un elevado componente emocional. Keynes creo una nueva disciplina -la macroeconomía- que intenta explicar el comportamiento de las decisiones de la sociedad en su conjunto. Con ello hemos desarrollado estadísticas agregadas formadas por millones de decisiones de millones de seres humanos diferentes. El problema es analizar la complejidad y poder llegar a conclusiones con rigor y útiles para interpretar los problemas y tomar medidas para solucionarlo.

La capacidad tecnológica para almacenar y procesar datos ha crecido exponencialmente. Las redes sociales e internet hacen que cada vez más personas puedan acceder a la información y procesarla. Aun así, prolifera la posverdad y aquellos que ofrecen soluciones sencillas a problemas extremadamente complejos. Cuando hablamos de posverdad pensamos en Trump. Pero la posverdad ya existía antes y desde que comenzó la crisis ha pasado a formar parte de nuestras vidas.

El Ministerio de empleo dispone de la mayor base de datos sobre salarios y condiciones laborales. Pero no está disponible para los analistas

El Ministerio de empleo dispone de la mayor y mejor base de datos de España. Todas las empresas envían mensualmente información sobre 18 millones de trabajadores con salarios y condiciones laborales. Antes la información llegaba en papel, hoy va en ficheros y se aloja en la nube. Pero sorprendentemente esa información no está disponible para los analistas, ni siquiera para el INE que tiene que seguir haciendo encuestas con un alto coste para los contribuyentes y con errores muestrales y menor fiabilidad, como cualquier encuesta.

Mejorar esa información obligaría a las pequeñas empresas y autónomos a digitalizarse y estarían mejor preparados para competir en la era de la tecnología global y crear empleos con más calidad y mejores salarios. Tendríamos mejor información, mejor diagnóstico y podríamos hacer mejores políticas. Aumentaremos el empleo, mejoraremos la renta y el estado del bienestar. Pero los humanos seguiríamos sin ser racionales, habría complejidad, habrá recesiones, nos culparán a los economistas por no saber anticipar el futuro, por no saber evitar las recesiones y habrá gente sin temor a equivocarse explicando la complejidad con soluciones simples.


Recuerda que cada lunes 😉 envío a los suscriptores de mi blog el análisis económico de la semana. Si tú todavía no estás apuntado, puedes hacerlo GRATIS aquí o haciendo click en la imagen de abajo 👇

 

blog josé carlos díez

La entrada ¿Están subiendo los salarios en España? aparece primero en El Blog de José Carlos Díez.



miércoles, 28 de junio de 2017

¿Cómo influye la educación en la salud?

Es bien conocido que las personas más educadas tienen mejor salud. Por ejemplo, este artículo documenta que la esperanza de vida a los 25 años de un residente en Estados Unidos de América (EEUU) en el 2000 es de 74.6 años si no ha cursado estudios universitarios, y 81.6 si los ha cursado. Ya sabemos que EEUU es muy especial en cuanto a salud, pero relaciones parecidas también se observan en Europa. Por ejemplo, este artículo de investigadores de la Universidad de La Laguna usa la Encuesta Nacional de Salud de España del 2011-12 y muestra que la probabilidad de que un individuo diga que goza de buena salud es 0.64 si su nivel educativo es primaria o inferior, 0.73 si el nivel educativo es de secundaria, y 0.82 si es universitario. Aunque este estudio utilice una variable de salud autopercibida, sus conclusiones son interesantes porque la variable de salud autopercibida suele tener muy buen poder predictivo sobre la salud objetiva y la utilización de servicios de salud.

Como los autores de estos artículos ya nos indican, no podemos utilizar esta evidencia para decir que la educación mejora la salud. Pueden haber otras variables, que el investigador no pueda controlar, y que sean las que realmente causan la correlación. Por ejemplo, aquellos individuos que están más dispuestos a invertir en el futuro tenderán a tener mejor educación y también mejor salud. Una correlación no es informativa sobre una relación causa-efecto.

La profesora Silvia Barcellos de la University of Southern California presentó este artículo en un seminario sobre la técnica de regresión discontinua que organicé con colegas del departamento de estadística de UCL (el programa está aquí por si alguien está interesado). La técnica de regresión discontinua permite estimar una  relación causa-efecto gracias a un cambio abrupto (discontinuo) en la variable de interés, en este caso, la educación. Como otros artículos anteriores sobre el tema, los autores utilizan el hecho que, por ley, los individuos que nacieron después del 1 de Septiembre de 1957 en el Reino Unido debían estudiar hasta los 16 años, en lugar de hasta los 15 años.

El primer gráfico de su estudio (que reproduzco a continuación) muestra el efecto que tuvo la ley que subió la edad mínima para dejar la escuela de los 15 a los 16 años. Como se puede ver en el gráfico, aquellos que nacieron en el cuatrimestre Septiembre-Diciembre del 1957 (“quarter birth” = 0) tienen una probabilidad muy cercana a 1 de estar en la escuela hasta los 16 años, mientras aquellos que nacieron en el cuatrimestre anterior (“quarter birth” = -1)  tienen una probabilidad de sólo 0.8. El cambio abrupto es evidente en la gráfica.

grafico_discontinuidad

Una de las ventajas del artículo de Silvia y sus co-autores (Leandro Carvalho and Patrick Turley) son los datos que utilizan: el UK Biobank, una muestra de alrededor de medio millón de individuos que tenían entre 40 y 69 años entre 2006 y 2010. Además del envidiable tamaño muestral, cuentan con datos objetivos de salud: índice de masa corporal, presión arterial, y una medición de la función pulmonar. Esto les va a permitir estimar la relación causa-efecto entre educación e indicadores objetivos de salud.

Su análisis encuentra que el aumento en educación produce una mejora en la media del índice de masa corporal y media de la función pulmonar. Por el contrario, el aumento de la educación empeora la media de la tensión arterial. Pero estos resultados son muy pequeños en magnitud, y sólo estadísticamente significativos al 10%.

Gracias al tamaño de la muestra, y a la calidad de los datos (indicadores continuos de salud objetiva), los autores pueden analizar no sólo el efecto de la educación sobre la media de los indicadores de salud, sino también efectos que dependen del nivel de salud base (es decir, nivel de salud que tendrían en ausencia del aumento en educación). Es en este análisis donde encuentran los resultados más interesantes.

Por ejemplo, encuentran que la educación reduce la tasa de obesidad (índice de masa corporal mayor a 30) en 7.5 puntos porcentuales, pero casi no hay efecto de la educación cuándo el índice de masa corporal esta por debajo de 25 (lo cual tiene sentido porque entre 25 y 18.5 se considera saludable y por lo tanto no hay de por qué cambiarlo). También encuentran que la educación aumenta la presión arterial, pero no en el rango que se considera peligroso (mayor de 90). Por lo tanto, cabe esperar que el efecto positivo de la salud en la presión arterial no se traduzca en efecto negativo para la salud.

¿Cómo explican los autores los efectos encontrados? Respecto a obesidad, pueden estimar que el aumento de educación lleva a una reducción en la ingesta de grasas, aunque no hay cambios en la cantidad total de calorías consumidas. Tiene menos éxito para encontrar una explicación de por qué la presión arterial aumenta, aunque sospechan que se deba al estrés que pueden conllevar los trabajos que hacen personas con más educación.

Me ha gustado mucho el artículo, y le recomiendo que lo lean. Es una aplicación muy interesante del método de regresión discontinua (por cierto, esta página del Banco Mundial tiene varios ejemplos de la técnica de regresión discontinua), y los datos son envidiables. Además aprendemos y/o recordamos dos cosas muy interesantes: (1) que los efectos sobre la salud no siempre van en la misma dirección, (2) que estudiar solo lo que pasa en la media puede esconder resultados más interesantes en otras partes de la distribución.



martes, 27 de junio de 2017

Micromachismos

IMG_9596Wikipedia define micromachismo como “una práctica de violencia en la vida cotidiana que sería tan sutil que pasaría desapercibida pero que reflejaría y perpetuaría las actitudes machistas y la desigualdad de las mujeres respecto a los varones.” Esta práctica ha recibido mucha atención mediática en nuestro país en los últimos tiempos (ver aquí  y aquí). Además, el tema se ha vuelto tan viral que nuestro gobierno ha prometido intervenir al respecto (ver aquí).

Para entender mejor de qué se trata, menciono algunos ejemplos: 1. Cuando un chico y una chica piden refresco y cerveza en un bar y el camarero que trae el pedido pone el refresco a la chica y la cerveza al chico. 2. El hecho de que la prensa hable del vestido de las políticas pero no de los políticos. 3. El que el cambiador de bebés esté dentro del baño de mujeres. 4. De mi propia experiencia: Decir que trabajas en un centro de investigación y que te pregunten si eres la secretaria. 5. Cuando hay un caso de violencia sexual y la prensa habla de cómo la victima iba vestida. 6. Cuando una mujer lleva su coche a arreglar y no le explican nada de lo que piensan hacer o incluso le cobran más.  Podéis encontrar más ejemplos en este link.

La discriminación de género o machismo es claramente un asunto que atañe a los economistas, no sólo por una cuestión de justicia social (argumento del que se ocupan más otras disciplinas) si no también porque genera ineficiencias. Por ejemplo, cuando una mujer es más productiva que un hombre pero terminan contratando al hombre para un cierto puesto de trabajo. Lo que no está tan claro es que debamos preocuparnos por los micromachismos. Éstos últimos serán interesantes en la medida en que nos "enseñen" algo sobre el machismo subyacente o tengan influencia sobre este machismo de modo que interviniendo sobre el micromachismo obtenemos un efecto sobre el machismo asociado. Yo no conozco ningún estudio económico que aborde esta específica cuestión, pero los economistas sí hemos dedicado esfuerzos a explicar el origen del machismo y analizar sus consecuencias. Los modelos que hemos usado para analizar el machismo pueden ayudarnos a clasificar los distintos tipos de “micromachismos”, y entender si se trata de prácticas que reflejan el machismo (en cuyo caso la intervención pública debería centrarse en el machismo subyacente en lugar del micromachismo en sí) o de prácticas que perpetúan el machismo (y, por tanto, la intervención pública en el micromachismo podría estar justificada).

La literatura económica sobre discriminación nació con el libro “La Economía de la Discriminación” de Gary Becker en 1975. Desde entonces han prevalecido dos tipos de modelos: modelos basados en preferencias (o prejuicios) y modelos de “discriminación estadística”. En ambos casos, se considera que hay discriminación cuando los miembros de un grupo son tratados de modo más desfavorable que otro grupo con idénticas características, pero los motivos de este trato diferencial son distintos en un caso y en otro. La discriminación por preferencias fue explicada por primera vez usando el mercado de trabajo: los empleadores sufren un coste por dar trabajo a las mujeres porque sus preferencias son tales que les gusta estar rodeados de hombres. Por ello, las mujeres que quieran ser contratadas tendrán que compensarlos trabajando más por el mismo salario o aceptando un salario más bajo por el mismo trabajo.

Sin embargo, la mayor parte del análisis económico de la discriminación desde Phelps (1972) y Arrow (1973) se ha centrado en la teoría de la discriminación estadística. La idea es que cuando existe poca información sobre ciertas características relevantes de los individuos, las personas toman decisiones asignando la característica media del grupo a todos los individuos de ese grupo. Por ejemplo, en el caso de la selección en el mercado de trabajo, los empleadores no pueden saber la cantidad de horas extras que decidirá trabajar la persona una vez contratada, pero considera que las mujeres que solicitan un puesto de trabajo harán tantas horas extra como la media de mujeres. En el primer caso, la discriminación se podría combatir únicamente con campañas para cambiar las preferencias de los individuos (cosa bastante complicada). En el segundo caso, la discriminación se puede resolver incentivando que se revele información sobre las características necesarias para la toma de decisiones.

Vuelvo a los ejemplos anteriores para determinar si se trata de micromachismos (perpetuaciones de un machismo subyacente) y si es así, qué modelo económico los explica.

  1. 1. Cuando un chicho y una chica piden refresco y cerveza en un bar y el camarero que trae el pedido pone el refresco a la chica y la cerveza al chico. Si consideramos que tanto el chico como la chica sufren el coste de la confusión de bebidas, es decir, el tener que intercambiarlas en la mesa, no se trataría de un machismo. Este trato podría explicarse fácilmente por la discriminación estadística, ya que el camarero observa empíricamente que es más común que el chico pida la cerveza. En este caso la solución podría ser explicar al camarero que es importante que pida información sobre quién ha pedido qué antes de colocar el pedido en la mesa.
  2. 2. El hecho de que la prensa hable del vestido de las políticas pero no de los políticos. En este caso existe una situación de discriminación si las políticas sufren un trato desfavorable en el sentido de que se resta importancia a su faceta profesional y se las valora por aspectos que ellas no desearían. Este fenómeno parece tener su origen prevalentemente en el hecho de que la sociedad no se siente “cómoda” con la idea de la mujer en política y por tanto tiende a infravalorar su trabajo. Parece una cuestión de discriminación por preferencias (los periodistas recogen el sentir de una parte de la población a la que no gusta ver a la mujer en política) y por tanto, mucho más difícil de resolver con políticas lanzadas desde las instituciones. Existe una literatura económica que muestra el efecto de la identidad entendida como las creencias sobre cómo una persona se debe comportar en función de su grupo social influyen en los comportamientos y las elecciones individuales (Akerlof and Kranton, 2000). Por tanto, para alterar estos comportamientos habría que cambiar dichas creencias para que las mujeres puedan ser vistas con normalidad en cualquier profesión. Para ello pueden ser útiles los modelos a seguir, es decir que las niñas y los niños empiecen a ver mujeres en todas las profesiones.
  3. 3. El que el cambiador de bebés esté dentro del baño de mujeres. En este caso sin duda existe discriminación, si suponemos (lo que resulta bastante creíble) que a nadie le gusta cambiar pañales. Se está imponiendo un coste a las madres que no se impone a los padres. Se trataría de un micromachismo que refleja y perpetúa modelos de comportamiento "tradicionales” dentro del hogar. Por un lado, se podría explicar por discriminación estadística, dado que si el cambiador de bebés estuviese en un lugar neutro, las madres serían las usuarias en la mayoría de los casos. Por otro, podemos pensar que la sociedad tiene preferencias sobre observar ciertos comportamientos de parte de las madres. En este caso, las autoridades podrían usar su poder coercitivo para prohibir o desanimar el que se coloque el cambiador dentro del baño de mujeres e implementar así un modelo que cambie  las preferencias de las futuras generaciones.
  4. 4. De mi propia experiencia: Decir que trabajas en un centro de investigación y que te pregunten si eres la secretaria. Obviamente no tiene nada de malo ser secretaria, pero la profesión tiene menos prestigio social que la de profesor (hay información sobre los distintos rankings de prestigio social de las ocupaciones aquí). Otros ejemplo bastante común de este tipo de prácticas es cuando se conoce a una persona en un congreso o evento profesional y ésta da por sentado que eres estudiante o junior por el hecho de ser mujer. Sin duda estamos ante un caso que se puede explicar fácilmente por discriminación estadística, y que puede ser resuelto con conciencia social sobre la necesidad de atender a los casos individuales (pedir información a cada individuo concreto) en lugar de a los prejuicios sobre las profesiones.
  5. 5. Cuando hay un caso de violencia sexual, se habla de cómo la victima iba vestida. Se trata de un caso de criminalización de la víctima que obviamente impone un coste en un género y no en el otro. Este fenómeno es explicable sólo por una cuestión de preferencias, en el que las mujeres son vistas como objeto del deseo de los hombres en lugar de individuos completamente libres. El hecho de que los ciudadanos señalen como inapropiados este tipo de contenidos en la prensa puede hacer a los editores de los medios de comunicación y periodistas evitar este tipo de comentarios. De este modo esta imagen de la mujer no llegaría a las futuras generaciones, que crecerían con otro tipo de preferencias.
  6. 6. Cuando una mujer lleva su coche a arreglar y no le explican nada de lo que piensan hacer o incluso le cobran más. En este caso el coste infligido al bolsillo de la mujer puede ser considerable. La reparación de los coches es un claro caso de información asimétrica donde un mecánico puede cargar un sobreprecio cuando el cliente no conoce el verdadero coste o naturaleza de la reparación. La discriminación estadística nos diría que las mujeres tienden a ignorar estos aspectos en mayor medida y algunos mecánicos usan esto para inferir que podrán aprovecharse de la  mujer que tienen delante. En este caso, la solución podría ser establecer mecanismos que obliguen al mecánico a revelar información.

En general, observamos que la teoría económica nos indica que muchos de los hechos cotidianos que vivimos “reflejan y perpetúan” la discriminación de género. En la mayor parte de los casos hay espacio potencial para la intervención pública. Además, a nivel individual sigue valiendo el principio de “la información es poder”.

Referencia:

Akerlof, George A., and Rachel E. Kranton. "Economics and identity." The Quarterly Journal of Economics 115.3 (2000): 715-753.



La Seguridad Social será más deficitaria en 2019 que en 2015, según el PP

Para alcanzar el objetivo presupuestario, el estado español conjuga el esfuerzo realizado por la Administración central, las CCAA, los ayuntamientos y, por último, la Seguridad Social. Las gestiones presupuestarias de la administración central y la Seguridad Social dependen desde el año 2011 del Partido Popular -PP-. El objetivo presupuestario no es otra cosa que el objetivo de déficit público de todo este conjunto de entes públicos descrito -conocidos comúnmente como AAPP, o administraciones públicas-. Los objetivos presupuestarios actualmente proyectados por el PP para los años 2017, 2018 y 2019 se corresponden con unos déficits públicos de 3,1%, 2,2% y 1,3%. Es decir, prevé reducir el déficit público de las AAPP sobre el PIB hasta el 1,3%. En el gráfico inicial  se recogen los últimos datos de “Objetivos de Estabilidad Presupuestaria, Deuda Pública, Regla de Gasto y Límite de Gasto no Financiero del Estado” que se pueden consultar en la página web del Ministerio de Hacienda y Función Pública. Tal y como se puede observar, la proyección realizada hasta el año 2019 contempla que tanto las CCAA  como las Corporaciones Locales -CCLL- o ayuntamientos consigan la estabilidad presupuestaria absoluta; 0%; ni más gastos ni más ingresos de los presupuestados. Pero si estas administraciones no incurren en déficits, alguien sí debe hacerlo para que el resultado agregado sea deficitario y solo nos queda la Administración central y la Seguridad Social. La Administración central reducirá su déficit hasta el 0,3% en 2019 desde el 4,8% en 2011 o 2,9% en 2015, es decir, continuará teniendo déficit. Y la Seguridad Social no solo no lo reducirá sino que lo aumentará desde el 0,4% en 2011 y el 0,6% en 2015 hasta un porcentaje del 1% del PIB en 2019. Hasta aquí los datos. Las conclusiones rozan la “gestión política ruinosa”.

La entrada La Seguridad Social será más deficitaria en 2019 que en 2015, según el PP aparece primero en El Captor.



lunes, 26 de junio de 2017

Los ases en la manga del economista académico

billete en la mangaDe Pedro Rey Biel  (@pedroreybiel)

La semana pasada asistí a la conferencia anual de la Economic Science Association, provocador nombre para lo que en realidad es el mayor foro donde nos reunimos los economistas académicos que hacemos economía experimental. Aunque no pude asistir a la mayoría de la sesiones (les dejo enlaces a los resúmenes de los artículos presentados aquí), sí me llamaron la atención las sesiones plenarias, pues era un reflejo perfecto de los temas más candentes en nuestra disciplina.

En la primera de ellas, Anna Dreber nos dio una lección magistral sobre la honestidad que debe presidir la investigación académica. Comenzó hablando de sus muy reconocidos artículos que estudian las diferencias de género en experimentos que reproducen distintas situaciones económicas para, de repente, pedirnos que dejáramos de citar uno de sus artículos mejor publicados sobre el tema. La razón era que se había dado cuenta de que aunque sus resultados eran significativos, el poder estadístico de su diseño experimental era muy bajo, debido en parte a los múltiples tratamientos que utilizaba, que le llevaban a tener un tamaño muestral pequeño por tratamiento. Anna usaba este ejemplo para introducir el verdadero tema de su conferencia, que era cómo el haberse dado cuenta de los posibles fallos de su propio trabajo le había llevado a involucrarse, junto con un gran número de experimentalistas de renombre, en el ambicioso proyecto de replicar todos los experimentos publicados en una de la revistas de Economía de cabecera (American Economic Review) de de 2011 a 2014, del que ya les hemos hablado en el pasado. La conclusión de éste proyecto es que los resultados de sólo un porcentaje bajo de los experimentos publicados en esta prestigiosa revista consiguen ser replicados, ya sea en su tamaño o incluso en su signo. No obstante, el grado de replicabilidad en el área de la Economía, era más alto que en algunas de otras áreas, ya fueran ciencias "sociales" o incluso ciencias "duras".

Ante este panorama, que Anna no atribuía en gran medida a la falta de honestidad de los investigadores (muchos de los cuáles, por cierto, estaban presentes en la sala), nos habló de un proyecto aún más ambicioso: utilizar mercados de predicción ("prediction markets"), en los que los inversores apuestan sobre si los resultados de 44 experimentos publicados en buenas revistas de Psicología serían replicados o no. En este artículo, Anna y sus coautores muestran que estos mercados predicen mejor si los resultados de los experimentos pueden ser replicados que las encuestas individuales realizadas a expertos del área del artículo en cuestión. No sólo eso, sino que los mercados de predicción permiten también estimar la probabilidad de que los resultados sean ciertos en momentos distintos. Por ejemplo, encuentran que las hipótesis que se testan en los experimentos en Psicología tienen una baja probabilidad (mediana del 9%) ex-ante de ser ciertas, y que sólo con una réplica con alto poder estadístico de una misma hipótesis se consigue elevar esa probabilidad. Argumentan por tanto que los mercados de predicción pueden ser una herramienta útil no sólo para estimar a bajo coste si ciertos resultados van a ser replicables sino también para decidir qué experimentos merece la pena replicar, dado los bajos incentivos en términos de publicaciones académicas que existen para realizar réplicas del trabajo de otros.

La conferencia de Anna Dreber, ligó especialmente bien con la intervención en otra de las plenarias de Joel Sobel, uno de los economistas teóricos más serios que conozco, que actualmente ejerce como editor principal de la otra revista con mayor prestigio en Economía (Econometrica). Joel, con sus formas siempre suaves y agradables, pero cargadas de ironía, lanzó una carga de profundidad contra los manuscritos experimentales que recibe para publicar en su revista (lo que muchos se tomaron como "aviso para navegantes"). En su opinión, por mucho que una de las mayores ventajas del trabajo experimental sean las condiciones de (relativo) control que da un laboratorio, y que de hecho se describen en todo artículo para además facilitar el que se puedan realizar réplicas, hay mil detalles de las condiciones exactas en que se realizan los experimentos que no aparecen en el manuscrito final. Argumentaba Joel Sobel que muchos experimentalistas conocen más sobre los sujetos de sus experimentos, sobre las circunstancias en que se realizan (pequeños fallos del software utilizado, preguntas realizadas en voz alta, momento del curso académico en que el experimento se realiza), que lo que luego tiene cabida en el artículo final y que ello, al dejar muchos de estos detalles que podrían influir de forma sensible en los resultados, puede explicar la falta de replicabilidad. esta intervención llevó a un debate, un poco airado pero interesante, sobre qué salida se podía dar a esta información, que si bien puede ser secundaria para el lector del artículo, puede ser fundamental para los evaluadores del mismo y para los expertos que quieran indagar más sobre la veracidad de los resultados. También las contestaciones se centraron en extender el problema  de los "ases en la manga" que pueden estar escondiéndose ciertos experimentalistas, al trabajo teórico o empírico. A fin de cuentas, por mucho que un modelo teórico se pueda demostrar si es correcto o no, ¿quién nos dice que realmente los supuestos que lo justifican, sin bien parecen plausibles, no han sido escogidos y "vendidos" por qué realmente son los que permiten corroborar ciertas hipótesis? E igualmente para los que hacen trabajo empírico con datos de campo no controlados...¿hay alguien que enseñe en sus artículos todas las especifícaciones de las regresiones realizadas antes de obtener los resultados limpios que aparecen publicados?

En fin, mi conclusión de la conferencia no fue, como podría deducirse de algunas de las cosas que cuento, que los economistas estamos llenos de trucos y de ases en la manga, sino que cuando se juntan buenos académicos, con verdadera curiosidad intelectual y sentido de la honestidad, se producen debate vibrantes que nos pueden permitir, desde el sentido crítico, avanzar la ciencia.

 



Las 3 preguntas sobre el CETA que más se hace la gente (y su respuesta)

CETA, Acuerdo de Libre Comercio con Canadá

FUENTE FOTO: @JUNCKEREU

 

SIGUEN EXISTIENDO MUCHAS DUDAS SOBRE EL CETA

La pasada semana expliqué mis argumentos por los que defiendo el CETA. Muchos seguidores siguen teniendo dudas, por lo que he decidido usar directamente el texto del Tratado para que comprueben ellos mismos que sus temores son infundados.

1ª DUDA: EL CETA Y LAS MULTINACIONALES

¿Podrán las multinacionales evitar las leyes nacionales y privatizar los servicios públicos con el Tratado de Libre Comercio con Canadá (CETA)?

El texto oficial lo deja muy claro:

El AECG (CETA en inglés) conserva la capacidad de la Unión Europea y sus Estados miembros y de Canadá para adoptar y aplicar sus propias leyes y reglamentos que regulan la actividad económica en aras del interés público, a fin de lograr objetivos legítimos de política pública como la protección y promoción de la salud pública, los servicios sociales, la educación pública, la seguridad, el medio ambiente, la moral pública, la protección social o de los consumidores, la privacidad y la protección de datos, y la promoción y protección de la diversidad cultural (..)

 

2ª DUDA: EL CETA Y LOS DERECHOS DE LOS TRABAJADORES

¿Entran en riesgo los derechos laborales de los trabajadores con el CETA?

El texto oficial vuelve a dejarlo muy claro:

  1. El AECG (CETA) compromete a Canadá y a la Unión Europea y sus Estados miembros a mejorar su legislación y sus políticas con el objetivo de proporcionar niveles elevados de protección laboral. El AECG dispone que no pueden flexibilizar sus leyes laborales con objeto de estimular el comercio o de atraer las inversiones y, en caso de que se viole este compromiso, los gobiernos pueden solucionar tales violaciones con independencia de si estas afectan negativamente a la inversión o a las expectativas de beneficios del inversor. Asimismo, tampoco modifica el AECG los derechos de los trabajadores a negociar, celebrar o ejecutar acuerdos colectivos ni a emprender acciones colectivas. 
  2. El AECG (CETA) compromete a la Unión Europea y a sus Estados miembros y Canadá a ratificar y aplicar con eficacia los convenios fundamentales de la Organización Internacional del Trabajo (OIT). Canadá ha ratificado siete de los convenios fundamentales y ha iniciado el proceso para ratificar el convenio restante (Convenio sobre el derecho de sindicación y de negociación colectiva, 1949 (C98) (…)

 

3ª DUDA: EL CETA Y LA FALTA DE TRANSPARENCIA

La Unión Europea y Canadá acuerdan cooperar en los organismos internacionales para fomentar la transparencia en el comercio y la inversión internacionales:

  1. Cada Parte garantizará que sus leyes, reglamentos, procedimientos y disposiciones administrativas de aplicación general en relación con cualquier cuestión cubierta por el presente Acuerdo se publiquen sin demora o se pongan a disposición de tal manera que las personas interesadas y la otra Parte puedan familiarizarse con ellos.
  2. En la medida de lo posible, cada Parte:

a) publicará por adelantado las medidas de ese tipo cuya adopción proponga; y

b) dará a las personas interesadas y a la otra Parte una oportunidad razonable de formular observaciones sobre dichas medidas propuestas.

 

De todas formas, tú puedes acceder a toda la información sobre el CETA en el siguiente enlace: http://ift.tt/2rSW6M6.

Seguimos.


Recuerda que cada lunes 😉 envío a los suscriptores de mi blog el análisis económico de la semana. Si tú todavía no estás apuntado, puedes hacerlo GRATIS aquí o haciendo click en la imagen de abajo 👇

 

blog josé carlos díez

 

La entrada Las 3 preguntas sobre el CETA que más se hace la gente (y su respuesta) aparece primero en El Blog de José Carlos Díez.



domingo, 25 de junio de 2017

Guía para aprender métodos cuantitativos en economía (V)

phd

Source: "Piled Higher and Deeper" by Jorge Cham, www.phdcomics.com

Concluyo con esta entrada mi serie sobre cómo aprender métodos cuantitativos en economía (las primeras cuatro entradas se encuentran aquí, aquí, aquí y aquí).

En la entrega anterior me centré en los lenguajes de programación que resultaban, en mi opinión, más útiles para un estudiante o investigador en economía. Mencioné en varias ocasiones, sin embargo, que alrededor del uso de un lenguaje existía una nube de herramientas que uno tenía que manejar con cierta familiaridad y que dejaba para un análisis en mayor detalle. Este cometido es lo que pretendo hoy de manera muy sucinta y a riesgo, por restricciones de espacio, de dejarme muchas cosas en el tintero (como algunas de estas herramientas) y con todas las advertencias, además, sobre la subjetividad de muchos de mis comentarios que es pertinente repetir aquí. El lector interesado puede encontrar muchas de estas herramientas descritas también en A Gentle Introduction to Effective Computing in Quantitative Research: What Every Research Assistant Should Know de Harry J. Paarsch y Konstantin Golyaev.

guide

Sistema operativo

Antes de entrar en la parte principal de la entrada he de resaltar que yo trabajo en Mac o en Linux, pero nunca en Windows. Mac o Linux le permiten a uno, con un botón, abrir una terminal de la familia Unix (Mac es Unix puro, Linux un hermano) y tener a su alcance un sistema operativo robusto como ninguno y en el que programar un código propio no va a ser una aventura. Cada año que doy clase de métodos computacionales en economía veo a cantidad de estudiantes terminar tirando en frustración su ordenador Windows por la ventana y cambiarse a Linux (los Macs salen caros para ellos). Mientras que con un poco de paciencia uno puede normalmente conseguir que todo corra en Windows, no le he visto nunca la mínima ventaja a emplear un sistema operativo que solo da dolores de cabeza. Además aprender Unix o Linux es muy fácil: en un par de horas uno está familiarizado con las instrucciones básicas y un poco de búsqueda en Internet le dará respuesta a casi todas las preguntas adicionales que aparezcan. Una vez que uno sabe Unix, conoce un sistema operativo para siempre: no va a cambiar en la siguiente versión creada por una empresa informática para ganar dinero. Un programador que supiese Unix en 1980 podría emplear hoy mi Mac sin mayor secreto.

carpentry

Un sitio excelente para aprender Unix (y, en general, todos los temas que discuto en esta entrada) es software-carpentry, una fundación sin ánimo de lucro que organiza talleres y publica lecciones en la red sobre manejo de ordenadores para investigadores (con una hermana, Data Carpentry, más centrada en enseñar análisis de datos). Por ejemplo, está lección sobre el shell de Unix le permite a uno arrancar sin problema.

UnixMac

Para aprender más, en clase recomiendo Learning Unix for OS X: Going Deep With the Terminal and Shell (2nd ed.) de Dave Taylor, que es el que yo tengo siempre a mano y Linux Pocket Guide: Essential Commands (3rd ed.) de Daniel J. Barrett. Pero existen, eso sí, decenas de otros libros tan solventes como los que recomiendo y, además, textos más avanzados sobre Unix. Pero no creo que estos sean necesarios para la gran mayoría de los economistas. Yo tengo en la oficina Unix in a Nutshell (4th ed.) de Arnold Robbins por si acaso, pero la verdad es que no lo abro nunca.

Independientemente de si el argumento anterior en favor de Mac/Linux es convincente, sí que el lector deberá de tener en la cabeza mi estructura de trabajo cuando juzgue el resto de mis recomendaciones: toda mi experiencia es sobre el funcionamiento de las herramientas de las que hablaré en Mac o en Linux. No puedo decir mucho sobre lo bien que funcionan en Windows.

Editores

Si uno va a escribir código, necesita o bien un editor o un entorno de desarrollo integrado. Ambas rutas tienen ventajas y desventajas, pero en todo caso tener a mano un buen editor es siempre útil (aunque solo sea para abrir y modificar ficheros de texto eficazmente).

La semana pasada mencionaba alguno de los editores clásicos como GNU Emacs o Vim, que están acompañados de otras alternativas como Ultraedit y Notepad++. Mientras que los mismos siguen siendo herramientas excelentes y que se actualizan con nuevas versiones, mucha gente ha adoptado editores de nueva generación. Entre ellos destacan Atom, Sublime y Visual Studio Code.

Atom

Yo, en mi trabajo diario, empleo Atom, tanto para escribir en Latex como para escribir en C++ o en Julia (para R empleo RStudio y para Matlab el IDE de Mathworks, volveré a ellos en un momento).

Atom es un editor con un diseño moderno, de código abierto, que permite desde un uso muy sencillo a una adaptación a las necesidades de cada usuario muy sofisticada. Por ejemplo, es muy fácil cambiar el esquema de colores o la manera en que los archivos aparecen y uno puede compilar Latex, escribir un código en su lenguaje favorito, interactuar con Git y mantener una lista de tareas para el día sin abandonar la misma ventana y a una distancia de un golpe de pestaña. El número de paquetes es muy amplio y permite una instalación básica del editor muy ligera.

Sublime es muy similar a Atom en su concepción excepto que cuesta $70. A menos que uno tenga un motivo poderoso para emplear Sublime, es razón más que suficiente para no emplearlo; no tanto por los $70 sino por la limitación que los mismos supondrán al crecimiento de la comunidad de usuarios en el medio plazo.

La tercera posibilidad es Visual Studio Code. Aunque es un producto de Microsoft, ha sido lanzado en código abierto. Yo no lo he empleado nunca.

El lector interesado puede encontrar comparativas de estos tres editores más Vim aquí. Una lista exhaustiva de editores con puntuaciones de un grupo de evaluadores, aquí.

Entornos de desarrollo integrado

Muchos programadores prefieren emplear un entorno de desarrollo integrado, que agrupa un editor sofisticado para escribir código, un compilador, un depurador, control de código, un listado de comentarios (incluidos TODOs y otros), etc. La principal ventaja de los mismos es tener todo al alcance de un golpe de ratón o de un comando y poder implementar programación visual de una manera directa. La desventaja es que algunas veces los entornos le abruman a uno: son como esos coches modernos en los que te sientas y no sabes donde mirar de todos las indicadores que tienen.

eclipse

Los dos entornos más populares son Eclipse y Visual Studio. Yo, en el pasado, cuando escribía en C++, Fortran o Scala, he empleado Eclipse. Visual Studio lo utilicé hace muchos años en una versión anterior.

Eclipse, que es de código abierto, lo tiene absolutamente todo, desde la última herramienta de programación en paralelo a una flexibilidad absoluta en configuración. Siguiendo mi analogía, es como un Mercedes S600 con todas las opciones: mires lo que mires, ahí esta. Y como un Mercedes, la ingeniería del mismo es extraordinaria. A la vez, algunas veces uno se pregunta para qué sirven esos 920 botones que no ha empleado nunca (exagero, pero solo un pelín 😉 )

netbeans

Más ligeros en sus contenidos y quizás más fáciles de emplear para un economista son Netbeans y Xcode (que integra muy bien con los Mac). Uno de mis coautores lo hace todo en Netbeans y está muy contento con él. Xcode me imagino que es una buena opción si quieres escribir apps para el Iphone. Yo lo he empleado un par de veces y, al final, he terminado cerrándolo y abriendo Eclipse. Ya puestos a sacar el coche, sacas el Mercedes.

Existen además los entornos diseñados específicamente para cada lenguaje. RStudio, para R, es francamente bueno: muy facil de emplear, con todo lo que uno necesita a mano, etc. Matlab tiene su propio editor y, dado que habla con la pantalla de ejecución de manera rápida y la configuración ya te viene dada, normalmente no merece la pena emplear otro editor distinto.

jupyter

Finalmente querría resaltar Jupyter, una aplicación para la red en código abierto para crear y compartir documentos con código en diferentes lenguajes, datos, ecuaciones, etc. Yo la he empleado un par de veces pero dada la popularidad que esta ganando recientemente probablemente le dedique algo de tiempo a aprender Jupyter mejor durante mis clases en otoño.

Librerías

Una idea que ha surgido varias veces en los comentarios de entradas anteriores es que muchas de las cosas que uno necesita implementar vienen ya en librerías (o paquetes, como se llaman en algunos contextos). Mi respuesta fue que, efectivamente, uno podía muy a menudo pero no siempre, emplear estas librerías (y, además, hay que ser un usuario inteligente de las mismas). Es el momento aquí de revisitar este tema.

Dos librerías muy comunes en métodos numéricos son Armadillo y Eigen (ambas herederas a distancia de BLAS y LAPACK). Armadillo, para C++ y todos los lenguajes que interactúan bien con C++ como Julia o R, es la más sencilla de emplear de las dos y tiene todas las funciones necesarias de álgebra lineal con un sintaxis deliberadamente similar a la de Matlab para conseguir una facilidad de uso de las matrices. Eigen es más poderosa pero también algo más compleja de aprender.

Otras librerías a resaltar son la GNU Scientific Library y GMP para aritmética de alta precisión (por ejemplo, en problemas de estimación, doble precisión da algunas veces problemillas).

Numerical Recipes, de la que ya hablé, es otra librería muy conocida, aunque algunas veces un poco pedestre. Matlab, Julia, R y Python tienen muchas librerías/paquetes que me resulta imposible repasar ahora. Una búsqueda en internet o algunos libros como este le dará al lector toda la información que requiera.

Control de versiones

En cuanto uno empieza a programar o, simplemente, escribir un trabajo de investigación un poco serio se encuentra con la aparición de múltiples versiones del mismo fichero. Una solución sencilla (y que solventa de vez en cuando los problemas) es ser cuidadoso y tener diferentes versiones de cada fichero identificadas con la fecha de edición o similares. Pero si esta estrategia de pobre le saca a uno de un apuro, no es escalable y cruje en cuanto tiene más de un par de coautores que van por libre. Más de una vez el insistir en el control de versiones me ha sacado de algún apuro serio y por ello lo recomiendo enfáticamente.

git

La solución profesional es emplear un software de control de versiones. El más popular hoy en día (y creo el más extendido entre los economistas) es Git. Existe también una variante en la red, Github, que se ha convertido en uno de los medios de difundir código más común.

Gitbook

De nuevo, existen decenas de libros sobre Git, pero el que yo recomiendo es Version Control with Git: Powerful tools and techniques for collaborative software development (2nd ed.) de Jon Loeliger y Matthew McCullough. Las ideas básicas de Git se aprenden en un par de horas.

Aunque no exactamente control de versión, es también útil tener una herramienta para actualizar todos los programas instalados en el ordenador. Yo empleo Macports: es superfacil.

Compiladores

Compiler

Cuando mencionaba, en mi entrada anterior, lenguajes de programación como C++ o Fortran pase de puntillas sobre la idea del compilador que uno necesita para generar un código ejecutable (si uno quiere aprender de verdad que es un compilador, el “el libro del dragón” sigue siendo la referencia clave).

gccegg-65

La elección clara para un economista es GCC, la colección de compiladores de GNU. Gracias a ella uno tiene compiladores para todos los lenguajes comunes de la máxima calidad, técnicamente actualizados, de código abierto y que generar código muy rápido (sí, el mismo código compilado con dos compiladores diferentes puede correr a velocidades muy diversas, con diferencias a veces de mas de 100% incluso con las mismas banderas de compilación, por ejemplo una comparativa de compiladores de Fortran aquí). Además, enlazar GCC con Atom o Eclipse es cosa de cinco minutos.

Hoy existe una alternativa: la infraestructura de compiladores LLVM, que es la que está, por ejemplo, detrás del JIT de Julia. Los compiladores de LLVM enfatizan aspectos como tamaño del ejecutable y reducción en la velocidad de compilación que son importantes en la industria pero quizás algo menos en economía. Mi experiencia es que LLVM genera ejecutables un 10% más lentos que GCC, pero tales mediciones dependen, claro, tanto de los problemas que he corrido como de mi estilo de programación. Aquí, aquí y aquí hay comparativas en detalle.

Finalmente están los compiladores de Intel, relativamente populares entre los economistas porque el compilador de Fortran es el heredero directo del venerable Digital Visual/Compaq Fortran. Pero hoy en día, con GCC y LLVM en el mercado y la posibilidad de integrarlos en Atom o Eclipse, no veo razones poderosas para pagar lo que cuestan estos compiladores de Intel (y, de nuevo en mi experiencia, el ejecutable generado por GCC es ligeramente más rápido que el generado por Intel).

Antes de pasar a la siguiente materia una sugerencia: invertir un poco de tiempo en aprender a manejar bien un compilador (las distintas banderas, etc.) es enormemente rentable en términos de velocidad, eficiencia, etc. La documentación en las páginas de cada compilador es normalmente el mejor lugar para ello.

Programa para controlar la recompilación

En cuanto uno se pone a compilar, desde un programa sencillito o un fichero de LaTex, pronto se da cuenta que es tremendamente aburrido tener que teclear todos los comandos y opciones y, que además, la mitad de las veces cometes un error. Para eso están los ficheros de control de recompilación, los famosos makefiles, que te permiten recompilar de manera rápida, compilar distintas versiones de un fichero (esto es increíblemente util para mí cuando escribo mis manuscritos largos), limpiar ficheros antiguos, etc.

Mi primer trabajo como ayudante de investigación en Minnesota fue escribir makefiles uno detrás de otro. En su día me pareció aburrido hasta que aprendí que quien programó la versión original de make, Stuart Feldman, lo creo en su labor de becario un verano. Estas curas de humildad son las que le ponen a uno en su sitio en la jerarquía intelectual y le impiden quejarse.

gnumake

Hay muchos programas para generar makefiles. Yo soy un clasicón con este tema y siempre empleo GNU Make, que además ya viene instalado en casi todas las distribuciones de Unix. Una referencia completa es Managing Projects with GNU Make: The Power of GNU Make for Building Anything (3rd ed.) de Robert Mecklenburg. Además uno se puede bajar un par de makefiles de internet y emplearlos como plantillas para empezar a entender cómo emplearlos.

Depuradores

“1. That can’t happen.
2. That doesn’t happen on my machine.
3. That shouldn’t happen.
4. Why does that happen?
5. Oh, I see.
6. How did that ever work?”

Six Stages of Debugging

Si el lector ha llegado hasta aquí, ya le puedo contar la verdad: la primera vez que escriba el código no va a correr. Y probablemente ni la segunda ni la tercera. Y cuando ya corra, le saldrá que el tipo de interés del modelo es 12.455+4i por ciento al mes, lo cual no tiene mucho sentido, aunque solo sea por el componente imaginario. Obviamente el programa tiene errores (“bugs”, como el que le salta a Cecilia en la tira cómica que abre esta entrada).

Uno se puede poner a buscar los errores a lo bruto corriendo el código linea a linea hasta encontrarlos. O uno puede emplear un depurador y seguir las técnicas desarrolladas por décadas para encontrar los errores de manera sistemática. Una introducción general al tema, con muchos ejemplos reales, es Why Programs Fail, Second Edition: A Guide to Systematic Debugging (2nd ed.) de Andreas Zeller.

gdb

Hay muchísimos depuradores. Como yo empleo los compiladores GCC, lo que es más conveniente para mi es emplear el depurador asociado, GDB. Una buena introducción al mismo es The Art of Debugging with GDB and DDD de Norman Matloff y Peter Jay Salzman.

RStudio y Matlab tienen sus depuradores propios (siempre me sorprende la cantidad de estudiantes e incluso investigadores que no conocen estas herramientas en entornos que emplean a diario).

Relacionados con los depuradores tenemos las herramientas de linting y pruebas unitarias. Linting sirve para detectar código sospechoso de manera estática (es decir, antes de compilarlo y/o correrlo) y obligar a seguir un estilo (más detalles sobre estilo en unos párrafos). Muchos lectores ya habrán usado una herramienta de linting sin percatarse: son esas cajitas de colores que salen en la columna de la derecha del editor de Matlab (aquí más detalles). Otras herramientas de linting incluyen Lint y Splint. Las pruebas unitarias buscan asegurarnos que un módulo del código funciona como se supone que tiene que hacerlo. Matlab tiene una suite de pruebas unitarias que están muy bien explicadas. Puede ser un primer lugar para familiarizarse con esta técnica.

Análisis de rendimiento

“Premature optimization is the root of all evil.”

Donald Knuth

Vale, ya el programa corre y nos da un resultado sensato. El problema es que tarda 3 horas. Si uno solo tuviese que correr el código una vez, esto no supondría excesivo obstáculo: un poco de paciencia y ya se soluciona. Desafortunadamente, en realidad uno tiene que correr el código muchísimas veces: para mirar que ocurre cuando cambia valores de parámetros, para anidarlo en una estimación estructural, etc. Y, a menudo, no son ni 3 horas, son 30 o 300.

La solución es optimizar el código para ver si podemos lograr que corra más deprisa. Aunque esto no siempre es posible, muchas veces hay fallos en el diseño del código que ralentizan su ejecución (aunque el resultado final sea el correcto). Estos fallos, además, pueden ser muy sutiles. En clase, por ejemplo, siempre le pido a los estudiantes que corran el siguiente código en Matlab (escrito por claridad, no por elegancia):

% Example of locality in memory allocation

m = 2000; % Try 1000, 2000, 5000
n = 10000;

% A smart way to do it
tic
a = zeros(m,n);
toc

clear a

% A not so smart way to do it
% a = zeros(m,n); % Comment in to check latency even with preallocation

tic
for j = 1:n
    for i = 1:m
        a(i,j) = 0.d0;
    end
end
toc

clear a

% A really dumb way to do it
% a = zeros(m,n); % Comment in to check latency even with preallocation

tic
for i = 1:m
    for j = 1:n
        a(i,j) = 0.d0;
    end
end
toc

El objetivo es llenar una matriz de información (por ejemplo, que hemos leído de datos). Primero, hago todas las entradas cero de una manera eficiente y mido la velocidad de ejecución. Luego, hago lo mismo pero con dos bucles anidados, con el bucle interior iterando sobre filas. Esta segunda alternativa es lo que tendríamos que hacer si cada entrada es diferente y viene de otra parte del código o de un fichero externo (algunas veces se puede cargar la matriz entera de una vez, pero imaginemos que no se puede en el problema concreto al que nos enfrentamos). Finalmente, repito el ejercicio pero iterando sobre columnas en el bucle interior. Esta última manera de implementar el código es mucho más lenta que la segunda. Si tiene, querido lector, un Matlab a mano, corra usted el código y compruébelo por si mismo.

¿Cuál es el motivo de esta más que considerable diferencia en velocidad cuando los dos códigos hacen lo mismo? La manera en la que Matlab guarda la información en memoria y como accede a ella. Las matrices pueden ser guardadas en un orden de dominancia de fila o columna (row- and column-major order). Matlab implementa una dominancia de columna y por eso el tercer ejemplo nos da tan malos resultados. Dedicarle 5 minutos a averiguar cómo le gusta a nuestro lenguaje guardar matrices en memoria es una de las mejores inversiones que un programador en economía puede hacer.

Más en detalle, uno puede aprender a emplear una herramienta de análisis de rendimiento como el profiler de Matlab, el de R o el de los compiladores GCC. Hace unos años había una institución famosa en economía (no quiero decir el nombre) que tenía que correr un programa que les demoraba en exceso y estaban pensando en paralelizarlo todo (con el consiguiente coste en horas y dinero). Desafortunadamente no tenían a nadie en plantilla que supiese de estas cosas (su informático sabía de redes y wifi, que es para lo que le pagan y de lo que yo lo desconozco casi todo) y, aprovechando que yo pasaba por ahí, el director me pidió que le diese un vistazo al código. Con el profiler de Matlab encontré el problema en 5 minutos, un “hot spot” un poco tonto que habían creado y que no tenía mayor secreto en re-escribirse con un par de lineas. No cuento esta anécdota para presumir, pues no fue mérito mío. Todo el mérito fue emplear una herramienta adecuada para el problema. El fallo de la institución no fue crear un “hot spot” innecesario. El fallo fue no emplear una herramienta para eliminarlo.

JuliaHP

Matlab tiene unas páginas muy útiles sobre este tema y la mayoría de las lecciones en las mismas sirven para casi todos los lenguajes. Varios de los libros que recomendé la semana pasada también incluyen secciones sobre este tema. En Julia tenemos Julia High Performance de Avik Sengupta.

hpc

Más globales son Introduction to High-Performance Scientific Computing, de Victor Eijkhout, que tiene la ventaja de estar colgado gratis en Internet, e Introduction to High Performance Computing for Scientists and Engineers de Georg Hager (cuya página tiene mucho material adicional de gran utilidad) y Gerhard Wellein (una segunda edición está a punto de salir).

Programación en paralelo

Las referencias anteriores me obligan a tratar, de manera muy rápida, la programación en paralelo. Hoy en día la problemas de más alta dimensionalidad se implementan no en ordenadores con procesadores muy potentes, sino en ordenadores con muchos procesadores. Incluso la mayoría de los teléfonos móviles actuales vienen de fábrica con varios procesadores.

Dada la longitud de esta entrada y que programar en paralelo es algo un poco más avanzado, voy solo a dar dos pinceladas. En el futuro quizás vuelva a este tema (mi propio papel sobre el tema aquí).

MPI

Para las técnicas clásicas de OpenMP y MPI, uno tiene An Introduction to Parallel Programming de Peter Pacheco más las dos páginas que he enlazado, que incluyen muchos tutoriales. Para las técnicas más avanzadas de paralelización masiva, sobre todo en GPUs, Programming Massively Parallel Processors: A Hands-on Approach (3rd ed.) de David B. Kirk (que es alguien que de verdad sabe de esto) y Wen-mei W. Hwu (que tiene una clase en internet a la que yo me apunté hace unos años).

GPU

Finalmente, emplear AWS es una opción excelente desde el punto de vista de coste-eficiencia. Amazon tiene mucha documentación en la red sobre cómo AWS funciona.

Libro de estilo

Uno quiere siempre escribir código que sea:

1. Claro.
2. Robusto.
3. Fácil de mantener.
4. Fácil de compartir.
5. Con menos errores.

Un buen camino para ello es emplear un estilo de escritura consistente y lógico. Hay distintas maneras de conseguir este objetivo y las convenciones a seguir son, en buena medida, materia de gustos. Pero hay que seleccionar un estilo que le venga bien a uno y ser consistente con el mismo a lo largo del tiempo. El secreto es auto-recordarse que lo que es obvio para uno a 21 de Junio de 2017 puede no serlo en dos años cuando el papel llegue de vuelta de la revista con peticiones de cambio. Uno tiene que ser capaz de leer su propio código (o el de sus coautores) en el futuro.

La mayoría de las empresas líderes tienen libros de estilo que uno puede copiar. Por ejemplo, aquí está el de Google para C++ o para Python.

c++

Libros que tratan de estos temas incluyen The Elements of C++ Style de Trevor Misfeldt, Gregory Bumgardner y Andrew Gray y The Elements of MATLAB Style de Richard K. Johnson.

Latex

Como un breve apéndice, y aunque no es estrictamente cuantitativo: uno tiene que aprender Latex. Es la única manera de escribir ecuaciones o de integrar gráficos y tablas con un mínimo de elegancia (o simplemente, sin que Word decida de manera unilateral cambiar de formato).

lamport

A pesar de tener muchísimos años, LaTeX: A Document Preparation System (2nd ed.) de Leslie Lamport sigue siendo una introducción magnífica. Mi copia original murió de uso y la segunda no va por mucho mejor camino, aunque la verdad es que ahora suelo mirar en internet más. Libros más avanzados son este y este.

Para escribir en Latex, uno puede emplear un editor normal (como yo en Atom) o uno especializado como TexShop (que empleo para transparencias, porque me resulta más cómodo con Beamer que Atom). Aquí hay una comparativa de los mismos. Overleaf permite escribir Latex de manera colaborativa en la red.

Ahora una pequeña confesión: yo por muchos años no empleé BibTex. Me daba pereza teclear las entradas. En retrospectiva, es de las cosas más bobas que he hecho nunca y he terminado, con los años, malgastando mucho tiempo. Además, hoy, sitios como IDEAS o casi todas las revistas tienen las citas directamente en BibTex y no hace falta nada más que bajárselas. Así que lo mejor es empezar a emplear BibTex desde el día uno.

Conclusión

Ha sido este un largo camino, tanto para mí (escribir cada una de estas entradas es bastante esfuerzo de tiempo, aunque solo sea por organizar las imágenes) como para el lector, que si ha seguido las cinco entradas habrá leído más de 15.000 palabras (18000 si uno incluye la entrada de aprendizaje automático de Diciembre que motivo la serie) y me he dejado muchas cosas sin explicar). Además la información podrá haber abrumado a estudiantes jóvenes que tienen mucho camino que recorrer.

La idea, sin embargo, no es aprenderlo todo de la noche al día. Es ir, pasito a pasito, afianzándose en una serie de competencias que son claves para un investigador moderno. Es increíblemente fácil escribir una columna en el periódico o una entrada en un blog postulando que “A causa B”. Es mucho más difícil sentarse y escribir un modelo lógicamente consistente (las matemáticas nos descubren una y otra vez que mecanismos que parecían obvios en la discusión verbal se caen como una torre de naipes una vez que vemos los efectos de todos los agentes interactuando entre ellos), ponerlo en el ordenador y que las cosas salgan con el efecto cuantitativo que tienen que salir. Los modelos son tozudos y las restricciones impuestas por los datos mucho más. Lo normal es que las 10 primeras cosas que se te ocurran no funcionen como explicación del mundo. Pero de alguna manera ahí está la gracia y para eso sirven los métodos cuantitativos. Como dice Guillermo de Baskerville en El Nombre de la Rosa, si tuviera una única respuesta a mis preguntas, estaría enseñando teología en París y no economía en Penn.



25/06/2017 – El Día – La deuda y sus controversias

Para entender el problema de la deuda en Argentina hay que remontarse al siglo pasado. Es cierto que en los libros de Historia el antecedente más citado es el empréstito que la Junta de Representante le permitió negociar a Bernardino Rivadavia en 1822, más recordado por el nombre del prestamista, Baring Brothers. Sin embargo, no fue hasta la década del 70 que la deuda representó una mochila pesada para el desarrollo del país.

Independientemente del destino final del dinero y de lo controvertido de las condiciones financieras, lo cierto es que aquel primer crédito fue solicitado con el fin de invertir en infraestructura que presuntamente mejoraría la productividad de la economía permitiendo su repago con creces.

De hecho, enseñamos en la facultad que la deuda no es buena ni mala per se, sino que la evaluación depende del destino de los fondos. Desde que empezó, con el nuevo gobierno, el debate sobre su estrategia de financiar el déficit fiscal con más deuda y menos emisión monetaria, la mayoría de los que han opinado sobre el tema centraron la atención en uno de los argumentos que torna razonable el proceso de endeudarse; esto es: la realización de obras con ese dinero. La lógica es la misma que la de Rivadavia; si los puentes, rutas, centrales nucleares, puertos y demás inversiones aumentan la productividad de la economía, pues se justifica el compromiso con el futuro, puesto que los frutos de ese dinero presuntamente se disfrutaran durante muchos años, pero si los fondos se usan para gasto corriente, quien contrae esa deuda debería pasar la eternidad en el noveno círculo del infierno de Dante.

Lógico como suena, tengo no obstante dos objeciones con esa particular manera de separar el bien del mal. En primer lugar, no es obvio que todo dinero gastado en obras sea bien invertido; una cosa es la construcción de un ferrocarril de cargas que abarata los costos de transporte de la producción, por poner un ejemplo, y otra cosa es una represa hidroeléctrica en un río de bajo caudal, que nunca generará la energía suficiente para justificar su costo. Hay inversiones socialmente rentables y otras que no lo son.

En segundo lugar, tampoco es cierto que el endeudamiento para gasto corriente sea necesariamente una mala idea. Por supuesto que, si la economía tiene una capacidad de generar recursos genuinos por 100 y gasta siempre 200, cualquier modo de financiar esa diferencia resulta insostenible en el tiempo. Pero una cosa es el nivel de ingresos y gastos en las etapas pujantes del ciclo económico y otra cosa muy distinta ocurre durante las crisis. El equilibrio presupuestario corriente debe cumplirse en un ciclo económico completo, pero nada obsta que el Tesoro tenga superávit en los años de crecimiento y déficit en las recesiones. De hecho, eso es lo que normalmente ocurre y si forzáramos el equilibrio de los gastos corrientes año a año, cuando sobrevenga una recesión tendríamos que bajar los salarios públicos, o echar trabajadores a la calle, para volver a tomarlos cuando el nivel de actividad repunte. Ese comportamiento procíclico del gasto profundizaría las recesiones y operaría exacerbando las recuperaciones. Si una cosa aprendimos del trabajo de John Maynard Keynes, es que lo prudente es que la política fiscal sea contra cíclica, financiando con deuda el déficit en las recesiones y pagando la cuenta cuando el ciclo entra en fase expansiva.

Más aún, los principales beneficiados de una economía estable, en la que los ciclos económicos sean muy suaves, son las generaciones futuras, puesto que uno de los determinantes fundamentales de la inversión privada es la baja volatilidad de la economía, que le permite al empresario proyectar flujos probables de ingresos y gastos, con mayor precisión y menor riesgo.

Por eso me sorprende mucho que colegas que se consideran keynesianos se rasguen las vestiduras con la deuda que financia el déficit en esta etapa del ciclo. También me llama la atención que el solo hecho de que el dinero se destine a obras exima del análisis de costo beneficio, fundamental para justificar cualquier inversión.

Entonces el bono a 100 años ¿es bueno o es malo?

Saldado, idealmente por el Congreso, el debate sobre el nivel de deuda deseable, sobreviene la discusión sobre el perfil ideal de esos compromisos. ¿Deuda interna o externa? ¿En pesos o en dólares? ¿Jurisdicción local o internacional? ¿De corto plazo o de largo plazo? ¿A que tasa?

En particular, la controversia de esta semana fue porque se contrajeron 2.750 millones de dólares, a pagar dentro de 100 años, con un interés anual del 7,9%. Dos comentarios.

Lo primero que quiero explicar es que no es cierto que esa sea una deuda que vayan a pagar nuestros nietos. La verdad es que, dentro de 100 años, crecimiento económico mediante, ese dinero que hoy representa el 0,5% del PBI, será probablemente el 0,0025 de nuestra economía.

Lo segundo es que la tasa que se paga depende del plazo, porque siempre es más riesgoso para el prestamista un período de repago más largo, puesto que pueden ocurrir muchas cosas en el medio, como por ejemplo un default. La semana anterior el mismo Ministerio de Finanzas colocó Letes a un año de vencimiento por las que pagó una tasa del 3,10%. A nadie en su sano juicio se le ocurriría que entonces resulta conveniente colocar toda la deuda en instrumentos de corto plazo, solo por el hecho de que son más baratos. Nadie sabe lo que ocurrirá de acá a un año; podría ser imposible renovar el vencimiento de toda la deuda, condenándonos a un default seguro, o podrían subir las tasas internacionales y acabar pagando mucho más.

Ojala podamos analizar estos temas tan delicados, con más pragmatismo y menos prejuicios ideológicos.

fuente:ELDIA