archivo

Archivos Mensuales: marzo 2010

ARTÍCULO
ECONOMÍA
Los mercados, los gobiernos y sus fracasos
Luis M. Linde
TÉCNICO COMERCIAL Y ECONOMISTA DEL ESTADO
nº 157 · enero 2010
Charles K. Rowley y Nathanael Smith
ECONOMIC CONTRACTIONS IN THE UNITED STATES: A FAILURE OF GOVERNMENT
The Locke Institute/The Institute of Economic Affairs, Fairfax (Virginia)
Richard Posner
A FAILURE OF CAPITALISM: THE CRISIS OF ’08 AND THE DESCENT INTO DEPRESSION
Harvard University Press, Cambridge y Londres

En su obra clásica sobre los ciclos económicos, Prosperidad y Depresión (publicada, por encargo de la Sociedad de Naciones, en 1937, en plena Gran Depresión)1, Gottfried Haberler (1900-1995) decía que la palabra «crisis» tiene dos sentidos en la teoría de los ciclos económicos: en sentido técnico, denota el punto de inflexión «que marca el paso de la prosperidad a la depresión», mientras que en el sentido del lenguaje cotidiano «denota un estado de tensión financiera aguda, pánico, retiradas masivas de depósitos por los clientes de los bancos […] bancarrotas», y añadía: «una crisis en sentido técnico –el paso de la prosperidad a la depresión– viene normalmente acompañada por una “crisis” en el sentido del lenguaje cotidiano»2.
La crisis financiera que estalla en Estados Unidos en 2007 y se transmite a Europa, Japón y al conjunto de la economía internacional en 2008 encaja sin dificultad en el modelo dibujado por Haberler hace setenta años: es una crisis financiera con pánicos bancarios, bancarrotas, disminución brusca en los flujos de crédito, que lleva a muchos países, incluidos los más desarrollados, de la euforia y la prosperidad al pesimismo y la contracción económica, naturalmente, con diferencias: por ejemplo, los sistemas financieros de los que hablaba Haberler en 1937 y los de las tres décadas siguientes no tenían los mercados de derivados financieros o los mecanismos de titulización de activos bancarios que existen actualmente y que juegan un papel tan importante.
Un buen número de economistas y escritores políticos, algunos de primera fila3, creen que esta crisis va a traer cambios en el paisaje capitalista y que en el futuro viviremos en un capitalismo más intervenido, lo que, recuperando vieja terminología, algunos llaman «capitalismo de Estado»4. Las preguntas que dan paso a esa expectativa serían: ¿qué ha fallado, o qué ha fallado más: los gobiernos y sus regulaciones, o los mercados y la libertad económica? ¿Hemos dado, al enfrentarnos a esta crisis, pasos importantes hacia ese «capitalismo de Estado», «capitalismo administrado», o afirmar esto es exagerado y, en realidad, estamos donde estábamos?
A finales de 2009 han aparecido ya varios libros muy estimables, tanto para especialistas como para el gran público, sobre la crisis, su gestación, su desarrollo y sus posibles consecuencias5. Uno de los más interesantes, sensacional en términos académicos y políticos, ha sido el de Richard Posner, A Failure of Capitalism: The Crisis of ’08 and the Descent into Depression (Un fallo del capitalismo: la crisis de 2008 y la caída en la depresión). Posner, una muy respetada figura del mundo judicial y académico norteamericano, dedicado desde hace décadas al análisis económico de las leyes y alineado siempre con los defensores del mercado y del laissez-faire, proclama que, en su opinión, la crisis actual es un fallo de la desregulación financiera, una demostración de la falta de eficiencia de los mercados, en suma, un fallo del capitalismo que justifica la intervención de los poderes públicos en medida mucho mayor de la que antes él podía aceptar o defender: un Posner keynesiano e intervencionista es difícil de imaginar para los que han seguido su carrera académica y judicial.
Economic Contractions in the United States: A Failure of Government (Contracciones económicas en los Estados Unidos: un fallo del gobierno) es una muy respetuosa respuesta a Posner fundamentada en la teoría de la «elección pública» que estudia, utilizando el análisis económico6, las instituciones políticas y la actuación de los políticos y de las burocracias en los sistemas democráticos. Sus autores, Charles Rowley y Nathanael Smith7, creen que la crisis ha puesto en evidencia los fallos de las intervenciones de los gobiernos, no de los mercados, e intentan presentar una defensa políticamente realista del capitalismo del laissez-faire, alejada tanto de lo que llaman el «keynesianismo hidráulico» –el intervencionismo basado en las ideas keynesianas más simples sobre el manejo del gasto público y sus efectos sobre la actividad y el empleo– como de la defensa del mercado y del capitalismo que no tiene en cuenta las restricciones del mercado político (para simplificar, las posiciones que suelen asociarse a la «Escuela austríaca» de economía).
Sea cual sea nuestra simpatía por una u otra posición, parece que lo primero debe ser intentar precisar y entender lo ocurrido. Y lo ocurrido incluye tanto la propia crisis y sus manifestaciones en los mercados como la respuesta de los gobiernos y de los bancos centrales que, seguramente, nos dice tanto o más sobre el futuro de nuestro capitalismo como la propia crisis.

LAS EXPLICACIONES SOBRE LA CRISIS

Las explicaciones acerca de cómo se alimentaron los desequilibrios económicos y financieros que explotan en 2007-2008 pueden agruparse en dos o, quizá, tres familias. Se presentan por separado, pero pueden considerarse conjuntamente, al menos, en algunos de sus componentes.
La primera, la más «popular», subraya el papel de la deficiente regulación o desregulación imprudente del sistema financiero, que habría tenido, entre otras, dos consecuencias: por un lado, el aumento excesivo, en algunos casos disparatado, de lo que traduciendo del inglés se llama en español «apalancamiento» («leveraging», la relación entre deuda o recursos ajenos y capital o recursos propios) de muchas empresas, financieras y no financieras, haciendo muy frágil su posición de liquidez y solvencia; por otro, la emisión (creación) y distribución a entidades de variado tipo y a particulares, mediante mecanismos de titulización (títulos emitidos con la contrapartida de activos bancarios), de activos de muy mala calidad (es decir, activos financieros con alta probabilidad de resultar fallidos), frecuentemente con las bendiciones de las agencias de calificación de riesgos (agencias de rating) más prestigiosas del mundo y mediante mecanismos que descargaban, al menos aparentemente, o temporalmente, a los bancos de sus riesgos y los convertían en comisionistas más que en tomadores de tales riesgos.
Esta familia de explicaciones apunta a lo que se considera que son las raíces políticas de la crisis: el triunfo de las ideas más promercado y más contrarias a las intervenciones y regulaciones públicas tras la llegada al poder del presidente Reagan en 1980. Sin embargo, como ha señalado Posner8, sería una invención atribuir este movimiento de desregulación al partido republicano o, en general, a la derecha política de Estados Unidos; en realidad, fue un movimiento de los dos grandes partidos, iniciado en la época de Reagan, pero completado y profundizado durante los dos mandatos del presidente Clinton y sus administraciones demócratas, alguno de cuyos más firmes defensores (como Larry Summers) forman, hoy, parte de la Administración del presidente Obama.
La segunda familia de explicaciones tiene dos subfamilias, que aparecen como adversarias o excluyentes, aunque no dejan de tener puntos de contacto. La primera apunta a la política monetaria supuestamente laxa seguida por el banco central de Estados Unidos, la Reserva Federal (en adelante, FED), que empezó a aplicarse –hay que decir que con aplauso general– en 1995 y se acentuó a partir de 1998 para hacer frente a la crisis asiática y rusa y, aún más, después de 2001, para intentar superar el bache económico que siguió a los atentados del 11-S. Esta política relajada habría sido envolvente y desencadenante de la burbuja de precios inmobiliarios, materias primas y activos financieros entre 2002 y 2007. Muchos creen que lo anómalo de la expansión de 2002-2007 no fue que aparecieran burbujas de precios de activos –en particular la gran burbuja inmobiliaria, continuación de la «exuberancia irracional» de la Bolsa a la que se refirió Alan Greenspan en 1996–, sino lo que tardaron en aparecer esos fenómenos y la ausencia de tensiones inflacionistas.
La segunda apunta a los desequilibrios internacionales (el déficit corriente en Estados Unidos y el superávit corriente en China y otros países asiáticos) como motor de las burbujas y, en último extremo, causantes de la crisis. Según esta explicación, que es la del propio Greenspan y sus defensores, la política monetaria que aplicó la FED no fue laxa y el factor que, en último extremo, puede explicar lo ocurrido es el desequilibrio externo (enorme superávit corriente de balanza de pagos) de China, embarcada durante los últimos diez años en una política de acumulación de capital y crecimiento acelerado apoyada en la contención del consumo, en altísimas tasas de ahorro9 y en las exportaciones, todo ello facilitado por una política de tipo de cambio depreciado de la moneda china, el yuan, frente al dólar estadounidense.
No parece difícil entender la lógica de la primera familia de explicaciones. Si la regulación no controla las imprudencias y la codicia de gestores y directivos que les llevan a realizar operaciones de alto riesgo (el crecimiento de las hipotecas «basura» es el ejemplo más citado), si la regulación es inadecuada, si hay incompetencia o, incluso, connivencia con todo eso por parte de los supervisores de los países con sistemas financieros más desarrollados, ¿qué tiene de raro que se haya producido una cadena de insolvencias, quiebras, etc., y que esto haya llevado, dadas las interconexiones que existen entre los diferentes componentes y agentes del sistema financiero internacional, a una crisis global?
Pero la segunda es otra cosa, la cadena de causas y consecuencias es más larga e indirecta, ya sea en la variante que atribuye la responsabilidad de la crisis a la política excesivamente relajada de la FED, como en la que apunta a los grandes desequilibrios económicos de China y otros países. Porque, ¿qué tiene que ver la política de la FED o la tasa de ahorro de la población china y las exportaciones chinas con el desastre de las hipotecas basura en Estados Unidos? ¿Y con la crisis de la mayor aseguradora del mundo, la norteamericana AIG, salvada de la quiebra por la intervención masiva del Tesoro estadounidense, o con la quiebra de Lehman Brothers o con la crisis de Bank of America o de Citibank? ¿Cuáles son las conexiones entre estos fenómenos? Para intentar responder con alguna precisión tenemos que dar marcha atrás y aburrir al lector con unas cuantas cifras.

CHINA Y LA GLOBALIZACIÓN

En 1999-2008, el déficit corriente (el saldo de exportaciones e importaciones de bienes y servicios, más el saldo de transferencias y rentas pagadas al exterior y recibidas del exterior) acumulado en la balanza de pagos de Estados Unidos sumó 5,6 billones de dólares (de los cuales, 1,7 billones, el 31%, se generó en transacciones con China); las compras por residentes norteamericanos de activos en el exterior (tanto activos financieros como inversión directa) sumaron 6,2 billones de dólares; en total, por ambos conceptos, un déficit de 11,8 billones de dólares que fue financiado por las entradas de capital que Estados Unidos recibió del exterior. De esas entradas, ¿qué parte corresponde a China? Para responder a esta pregunta tenemos que ir a la balanza de pagos de China.
La balanza de pagos de China durante el decenio 1999-2008 puede resumirse en tres cifras: 1) el superávit corriente, que fue 1,4 billones de dólares (billones latinos, millones de millones, lo que en inglés norteamericano llaman «trillions»); 2) el superávit de la cuenta financiera y de capital, que sumó 0,4 billones, y 3) la contrapartida de la suma de los dos saldos anteriores, el incremento en las reservas oficiales de divisas (principalmente, en dólares estadounidenses, pero también en euros y yenes), que fue de 1,8 billones de dólares10.
Entre 1999 y 2008 China aumentó sus tenencias de títulos públicos de Estados Unidos (emitidos por el Tesoro y otras entidades oficiales) en 668.000 millones de dólares11 (el 43% de todas las compras netas de títulos públicos norteamericanos hechas por otros países en ese período), pasando de unas tenencias, a comienzos de 2000, de 59.400 millones de dólares a 727.400 millones en diciembre de 200812; a esa cifra podrían añadirse los 80.000 millones de dólares de títulos públicos mantenidos a finales de 2008 por la Autoridad Monetaria de Hong Kong, por lo que China es, sin duda, el primer comprador de deuda pública de Estados Unidos.
Si a los 668.000 millones de dólares de compras de títulos públicos de Estados Unidos sumamos los 725.000 millones de compras de títulos y activos norteamericanos emitidos por el sector privado (los datos se refieren siempre al período 1999-2008) llegamos a 1,4 billones de dólares, lo que significa que China dedicó más del 75% de su superávit corriente y de capital (1,8 billones) a financiar el 12% del total del déficit corriente y salidas de capital de Estados Unidos en ese período (11,8 billones de dólares). La «responsabilidad» de China (y de otros países asiáticos y de los Estados árabes productores de petróleo) en la crisis vendría, así, de su papel como muy importante «suministrador» de ahorro a Estados Unidos. Para Greenspan y otros analistas, sin este ahorro exterior sería imposible explicar la evolución de los tipos de interés en la economía norteamericana, motor de la burbuja hipotecaria que fue clave en la formación y en el estallido de la crisis.
A la vista de las cifras, no parece razonable sostener que el ahorro exterior y, en primer lugar, el de China, no tuvo impacto alguno conteniendo los tipos de interés. Pero esto no demuestra que la política monetaria que aplicó la FED en esos años no contribuyese también a ese resultado, es decir, no nos dice nada sobre el grado de laxitud monetaria que aceptó o impulsó Greenspan, sobre todo a partir de 200113.

LA RESPONSABILIDAD DE LA RESERVA FEDERAL

¿Fue laxa la política monetaria de la FED entre 2001 y 2005? Si la respuesta es sí, dos preguntas más. ¿Esa relajación fue el resultado de decisiones de la FED o de factores fuera de su control? Y la segunda: ¿en qué medida contribuyó esa laxitud, voluntariamente buscada o resultante de fuerzas fuera del control de la FED, a la burbuja inmobiliaria norteamericana y al estallido de la crisis financiera global?
En principio, el indicador del grado de relajación o tensión que la autoridad monetaria quiere mantener en su política viene dado por el tipo de interés que aplica a las operaciones de suministro de liquidez al sistema bancario. También, en principio, tipos de interés más bajos se consideran política monetaria más relajada que tipos de interés más altos. Pero el impacto de la relajación sobre la actividad y los mercados puede ser diferente en unos casos y en otros.
Si los tipos de interés nominales, empezando por los tipos de las operaciones de suministro de liquidez del banco central, son muy bajos, cercanos a cero, pero, a la vez, hay expectativas de caídas de precios, es decir, de deflación, entonces una política monetaria nominalmente relajada (el banco central suministra liquidez barata) no lo será por su impacto real; no podrá estimular la actividad y el empleo porque los tipos de interés reales serán altos, puesto que deben sumar al tipo nominal la tasa esperada de caída de precios14 . Este fue, aproximadamente, el caso de la Gran Depresión de 1930-1932, cuando los tipos de interés nominales eran bajos, pero los agentes económicos percibían que los tipos de interés reales se mantenían altos debido a las expectativas deflacionistas15.
Análogamente, si los tipos de interés nominales son altos, pero existen expectativas inflacionistas fuertes, los tipos de interés reales pueden ser bajos o, incluso, negativos (hay que restar la tasa esperada de inflación al tipo nominal) y la política monetaria, que pretende ser contractiva, no conseguirá moderar la demanda de crédito y la actividad, puesto que los tipos de interés reales seguirán siendo bajos y favorables a los deudores y a las empresas.
Dicho lo anterior, es cierto que los tipos de interés nominales se mantuvieron muy bajos en la economía norteamericana entre 2001 y 2006. Si tomamos, por ejemplo, el tipo de los fondos federales16, que es el tipo de interés objetivo de la política monetaria17, nos encontramos con que en 2002-2004 el tipo efectivo medio se situó por debajo del 2%; de hecho, el objetivo de la FED entre julio de 2003 y junio de 2004 fue el 1%, el más bajo desde 1961.
En el período 2001-2005, todos los tipos de interés, incluyendo los tipos de la deuda pública a todos los plazos y los tipos del mercado hipotecario, estuvieron en niveles nominales muy bajos, no vistos desde comienzos de los años sesenta. Aunque la inflación se mantuvo en tasas muy moderadas y estables (en el entorno del 2,5% a lo largo del decenio 1995-2005), algunos instrumentos financieros llegaron a tener tipos de interés reales negativos (por ejemplo, la deuda pública con vencimiento hasta cinco años tuvo en 2002-2004 tipos de interés nominales inferiores a la tasa de inflación). Se produjeron algunos desfases –los tipos de interés de los bonos del Tesoro y otros instrumentos no subieron lo esperado cuando la FED empezó a subir sus tipos a partir de junio de 2004–, dando lugar a lo que se conoció entonces, debido a una expresión que él mismo utilizó, como el «Greenspan’s Conundrum»18, el «enredado misterio de Greenspan», pero el ajuste se produjo después: aun con desfases, irregularidades y alguna inconsistencia, los tipos de interés siguieron el movimiento de rebaja de tipos de la FED entre 2000 y 2003 y, después, el de alza de tipos, entre 2004 y 2006.
Juzgada por la evolución de los tipos de interés, no cabe duda de que entre 2000 y 2005 la política de la FED puede considerarse relajada. Pero, ¿fue esta política, impulsada por Greenspan (y por su sucesor, Bernanke, cuando era presidente de la FED de Nueva York) para superar el amago de recesión posterior a los atentados de septiembre de 2001, la causa, o una de las causas, de la burbuja inmobiliaria y de otros activos y de la acumulación de insolvencias hipotecarias, antesala de la explosión de 2008?
La defensa de Greenspan es sostener que no puede explicarse la evolución del mercado hipotecario norteamericano entre 2002 y 2005 a partir de la política de tipos de interés bajos aplicada por la FED. Para Greenspan, es ridículo sostener que el tipo de interés de los fondos federales, que es a cortísimo plazo, el tipo que se denomina en inglés overnight, literalmente, «por una noche», que es el que controla la FED, tuvo una influencia determinante sobre los tipos del mercado hipotecario, o sobre los tipos a medio y largo plazo que favorecieron la gran expansión mundial y las diferentes burbujas de precios (de materias primas, energía, alimentos, etc.) que, igual que la inmobiliaria, pincharon con la crisis.
Para Greenspan, la explicación de la tendencia a la baja en los tipos de interés que se manifestó en todo el mundo en aquellos años está en el fortísimo crecimiento de una serie de países, empezando por China, y en la generación en esos países de un enorme volumen de ahorro puesto a disposición de la economía mundial y, en primer lugar, a disposición de la economía de Estados Unidos (las cifras que antes indicamos sobre los flujos de balanza de pagos entre China y Estados Unidos). La aparición de ese ahorro habría sido un fenómeno fuera del control de la política monetaria de Estados Unidos –y de cualquier otro país, salvo la propia China–, por lo que la responsabilidad de la FED en la crisis habría sido, en definitiva, nula o menor. Pero, en todo caso, ¿qué hizo la FED?
Pues bien, la evolución de los tipos de interés controlados directamente por la FED (tipos de descuento y tipos de los fondos federales), de la cantidad de dinero y del crédito (incluidos los créditos hipotecarios) en los años en que más se cebó la bomba de la crisis, 2002-2006, confirman que existió una política monetaria y crediticia relativamente relajada y que es difícil sostener que la FED no tuvo influencia alguna en la aparición de la burbuja. Porque, ¿cómo es que la política monetaria no intentó compensar la tendencia a la relajación que impulsaban esas entradas de capital de China y de otros países, orientando antes en sentido más restrictivo los tipos de interés? ¿Podría haberse tomado alguna medida para intentar moderar la evolución del crédito y de los precios de los activos?

LAS FUNCIONES DE LOS BANCOS CENTRALES

La política monetaria llevada a cabo por los países más desarrollados durante el último medio siglo ha estado inspirada, en lo fundamental, en las experiencias norteamericana y alemana. Por caminos y en momentos históricos distintos19, esas experiencias hicieron surgir y consolidaron dos ideas fundamentales. La primera, que la política monetaria, responsabilidad en los modernos sistemas fiduciarios de los bancos centrales, debe tener como primer objetivo la estabilidad de precios, el control de la inflación. La segunda, que tanto para fijar sus objetivos como para diseñar y ejecutar sus políticas, los bancos centrales deben ser independientes, es decir, que hay que sustraer o proteger a la política monetaria de las exigencias políticas a corto plazo de los gobiernos. Éstos han sido los dos componentes de lo que podemos llamar el «enfoque dominante» u «ortodoxo» de la política monetaria durante los últimos decenios, pero quizá más acusadamente a partir de la década de alta inflación y bajo crecimiento de los años setenta del siglo XX.
Según esta visión «ortodoxa», la política monetaria actúa a través del manejo de los tipos de interés y las operaciones de préstamo o suministro de liquidez a los bancos para conseguir que la tasa de inflación evolucione de forma moderada (el objetivo suele ser una tasa de inflación en torno al 2%). Desde esta visión, aparte de sus competencias en materia de supervisión y regulación para mantener la solvencia y buen funcionamiento del sistema financiero, los bancos centrales no han considerado que su responsabilidad alcance a combatir o frenar las burbujas de precios de activos mientras no afecten a la estabilidad de precios, entendida, fundamentalmente, como estabilidad de precios al consumo. Pero las crisis financieras con repercusión internacional de los últimos treinta años (crisis de deuda latinoamericana de los ochenta, la crisis de Bolsa de 1987, crisis asiática y rusa de 1998, la crisis derivada del pinchazo de los negocios «punto-com», la primera gran incursión de Internet en el mundo financiero y, desde luego, la crisis de 2007-2008) han llevado a que algunos replanteen esa «ortodoxia»20.
Una característica notable de la evolución económica de Estados Unidos y otros países desarrollados durante el decenio 1995-2005 fue, junto a la aparición de esas crisis, la coexistencia de altas tasas de crecimiento, bajos niveles de paro y ausencia de inflación, una conjunción virtuosa que parecía desmentir unas cuantas enseñanzas del análisis económico de la segunda mitad del siglo XX. En el cuadro 1 se presenta la evolución de crecimiento económico e inflación (medida por los precios al consumo) para la economía de Estados Unidos entre 1950 y 2007; como puede observarse, los diez años del período 1995-2005 fueron los mejores desde el punto de vista de la combinación de crecimiento y estabilidad de precios desde el decenio de los sesenta.
Aunque atribuir el «mérito» de esa estabilidad a la FED puede tener difícil demostración –puede negarse tal cosa precisamente con el mismo argumento que explica los bajos tipos de interés no por la laxitud de la FED, sino por la «globalización financiera»–, sí podría afirmarse que la evolución de los precios no justificaba una política más restrictiva que la que se aplicó. Sin embargo, si de los precios al consumo pasamos al endeudamiento del sector privado y a los precios de los activos, en particular los precios de la vivienda, que es el activo más importante para el conjunto de las familias, el panorama es bien diferente.
Hay, desde luego, diferentes formas de medir la intensidad del endeudamiento de los agentes económicos. En el cuadro 2 se recoge la evolución de: 1) la deuda crediticia neta (pasivos menos activos, ambos frente al sistema crediticio) del sector privado no financiero (empresas y familias) en relación con el PIB; 2) la evolución de la deuda crediticia neta que corresponde sólo a las familias en relación con su renta disponible, y, finalmente, 3) la proporción de los pasivos crediticios de las familias también a renta disponible. Al referirse sólo al sistema crediticio y excluir de los activos las acciones y otras participaciones cotizadas en los mercados de valores, esta medida elimina el efecto de la burbuja y da un resultado más cercano a lo que nos interesa: la razón es que una cartera de valores cotizados en Bolsa puede sufrir (y, de hecho, todas han sufrido) oscilaciones muy fuertes con la burbuja de precios y su posterior estallido; pero el valor de una deuda crediticia o un activo mantenido en forma de depósito bancario no se modifica con la burbuja.
Como puede verse en el cuadro 2, las tres proporciones mantuvieron una tendencia permanente al alza (la deuda neta y los pasivos crecían más rápidamente que el PIB o la renta disponible) a lo largo de esas cinco décadas, pero es en 2000-2008 cuando se produce una gran aceleración del endeudamiento. En esos ocho años la proporción deuda neta del sector privado a PIB crece tanto como en los cuarenta años anteriores (casi +0,47), la proporción de deuda de las familias a renta disponible crece tanto como en el período 1960-1990 (+0,28), y la proporción de pasivos de las familias a renta disponible tanto como en los años 1970-2000 (+0,33).
El crédito hipotecario fue en 2000-2005 el principal factor de aumento de los pasivos crediticios de las familias: en 1960 representaba el 65% del total de esos pasivos; en 2000, el 69%, y en 2005-2008 se mantuvo en el 76%, el crecimiento más fuerte en medio siglo. El índice de precios de la vivienda para el conjunto de Estados Unidos subió entre 2000 y 2006 casi un 90%, mientras que el índice de precios al consumo crecía un 17,5% y la renta familiar mediana (igual número de rentas superiores que de rentas inferiores) subía un 1%: nunca se había producido en la historia económica de Estados Unidos una separación tan grande en la evolución de esos índices21.
Hubo expertos (el más conocido de ellos, pero no el único, Nouriel Roubini, profesor en la Universidad de Nueva York) que señalaron, ya en 2005, que esta evolución apuntaba directamente a una crisis financiera muy grave. Pero desde la política monetaria (o desde la regulación de los mercados de capitales, o la supervisión financiera) no se adoptó ninguna iniciativa22. Lógicamente, el estallido de la crisis justificó todas las advertencias y todos los reproches, teniendo en cuenta que tanto Greenspan como su sucesor, Bernanke, se manifestaron repetidas veces contrarios a asumir como tarea de los bancos centrales ninguna clase de política preventiva contra las burbujas en los precios de los activos y el endeudamiento creciente del sector privado.
La cuestión que esto plantea es: ¿deben los bancos centrales frenar las expansiones económicas y de crédito cuando no hay –al menos, no hay todavía– un problema –o una previsión técnicamente razonable de un problema– de estabilidad de precios?
En 2002, el Banco Internacional de Pagos publicó dos trabajos23 que se enfrentaban a estas cuestiones. Su tesis fundamental era la siguiente: las transformaciones ocurridas en la economía y en el sistema financiero internacional (liberalización, globalización y gran aumento en la productividad) permiten la acumulación de tensiones y desequilibrios financieros (cuyos indicios son subidas fuertes y rápidas de precios de los activos y gran expansión del crédito) sin inflación. En estas nuevas circunstancias, los bancos centrales deben ampliar sus funciones al control de la inestabilidad financiera y, para ello, además de nuevas o reforzadas funciones de regulación y supervisión, y sin abandonar, desde luego, su tarea central de prevenir y combatir la inflación, debe plantearse la posibilidad de aplicar políticas monetarias restrictivas incluso en ausencia de inflación.
Sin embargo, medir el potencial de crisis contenido en una determinada evolución del crédito y de los precios de los activos es mucho más difícil que medir la evolución de la inflación, de los tipos de interés o de la cantidad de dinero; y tampoco es nada fácil determinar cómo hay que modificar la orientación restrictiva y la secuencia temporal de la política monetaria para que pase de combatir la inflación –la subida de los precios al consumo, en primer lugar– a combatir también las tendencias a la inestabilidad financiera contenidas en las burbujas de precios de los activos financieros y reales24. Pero las dificultades técnicas no serán el obstáculo fundamental a esta ampliación de las preocupaciones de los bancos centrales. Las dificultades políticas serán más serias, porque se trataría de que, en ausencia de inflación, pudieran llevarse a cabo políticas monetarias restrictivas preventivas, poniendo, así, fin a fases de expansión, algo que muchos considerarán siempre injustificado y que difícilmente será visto con simpatía ni por los políticos, ni por los agentes económicos.

REGULACIÓN Y SUPERVISIÓN FINANCIERAS

Junto al replanteamiento de las tareas de la política monetaria y de los bancos centrales, los otros dos capítulos que la crisis ha abierto son la regulación y la supervisión, es decir, la vigilancia y control por las autoridades de los riesgos que asumen las entidades financieras. En su A Failure of Capitalism, Posner sostiene que la desregulación financiera ha ido demasiado lejos durante las últimas dos décadas y que se impone una marcha atrás. En su opinión, y este es el fondo de su argumento, el mercado financiero, en el que los diferentes intermediarios compran y venden activos y pasivos, deudas y créditos, no sólo no puede corregir por sí solo los desequilibrios que genera, sino que, sin la intervención de los poderes públicos, tiende a acentuarlos y a convertir en depresiones catastróficas lo que no deberían ser sino fases bajistas del ciclo.
Sin negar que una cierta «marcha atrás» es posible, hay que señalar que el sistema financiero internacional presenta, hoy, dos características que ya se daban en 1980, pero que se han acentuado muy considerablemente. La primera, los diferentes mercados financieros están fuertemente integrados (tanto en el sentido de instrumentos –valores, divisas, derivados financieros, de crédito– como en sentido nacional o geográfico: el mercado europeo, el norteamericano, el japonés funcionan, en muchos sentidos, como un mercado único) debido a la casi total libertad de movimiento de capitales y a las posibilidades que dan los modernos medios de comunicación e informáticos; y la segunda, en los mercados financieros, como ocurre en la «economía real», la innovación es parte muy importante de la ventaja competitiva que cada empresa trata de obtener sobre las demás, lo que plantea, con frecuencia, nuevos riesgos.
Es difícil negar que la supervisión en Estados Unidos y en el Reino Unido, por citar los dos países en cuyos mercados se concentra el grueso de la actividad y la innovación financiera de ámbito internacional, ha cometido fallos importantes, que algunos imputan al «extremismo» promercado. Lo cierto es que muchas veces pueden explicarse, simplemente, por la velocidad de las innovaciones, la complejidad de los instrumentos y de la operativa en los mercados, así como por el temor de cada supervisor nacional a perjudicar la posición competitiva de las empresas bajo su tutela, una consideración que es pertinente para describir lo que ha ocurrido durante las últimas décadas con los contratos sobre «derivados financieros», los «hedge funds» y los mecanismos complejos de titulización.
El campo de las reformas, que pueden incorporar alguna «marcha atrás» en la desregulación financiera, sobre el que ha ido formándose un cierto consenso en las instituciones financieras internacionales es muy amplio, pero lo fundamental puede resumirse, quizás, en cuatro apartados: 1) las reglas de recursos propios (capital, reservas y provisiones) de los bancos en proporción a los riesgos asumidos, que es lo que regulan las reglas que se denominan «Basilea II», negociadas entre 2000 y 2006 y que empezaban a entrar en vigor cuando estalla la crisis; 2) las reglas de liquidez (plazos de vencimiento de activos y pasivos) y solvencia («apalancamiento», o proporción activos/pasivos); 3) las reglas aplicables a las operaciones con derivados financieros fuera de los mercados organizados (es decir, en transacciones privadas, sin contratos-tipo ni cámaras de compensación); 4) la regulación de los conflictos de intereses de las agencias de calificación de riesgos25.
Suponiendo que exista voluntad política para hacer todo esto, y refiriéndonos a Estados Unidos, que es, obviamente, clave en cualquier reforma, podemos preguntarnos: la gran banca, comercial y de inversión, los grandes «hedge funds», los grandes fondos de inversión, ¿se van a dejar reformar, en el sentido de aceptar un control más estricto de sus riesgos por los supervisores? Pues lo probable es que ofrezcan mucha resistencia, tanto mayor y tanto más efectiva, naturalmente, cuanto mejor y más rápidamente se supere la crisis. Y ya tenemos algún indicio.
El ex presidente de la FED (1979-1987) Paul Volcker, que colabora actualmente con la Administración Obama dirigiendo un grupo de asesores encargado de dar ideas para impulsar la recuperación económica, lanzó (septiembre de 2009) una propuesta radical: que la banca comercial limite sus riesgos, dejando de tomar posiciones en los mercados financieros con cargo a su propio capital, algo que llevaría a prohibir a los bancos, entre otras cosas, «promover y capitalizar» entidades poco o nada reguladas, como los «hedge funds»: los bancos sólo podrían realizar esa clase de operaciones por cuenta de sus clientes. Esto significaría volver a la separación de banca comercial y banca de inversión que en 1933 impuso la Glass-Steagall Act, y que, después de un proceso de erosión, fue finalmente derogada por la Administración del presidente Clinton en 1999.
La propuesta de Volcker tiene una segunda parte, corolario de la primera: los rescates con dinero público y las garantías para los depósitos de la clientela serían sólo para los bancos comerciales que limitasen su actividad al negocio tradicional y no tomaran posiciones por cuenta propia en los mercados de capitales y de derivados. Pues bien, todo indica no sólo que los grandes bancos norteamericanos se opondrían en lo posible a este retorno a la separación entre banca comercial y banca de inversión, sino, además, que la actual Administración demócrata no parece simpatizar con la idea, ni dispuesta a dar esa batalla.

FALLOS DEL MERCADO, FALLOS DE LOS GOBIERNOS

A pesar de su gravedad, no parece que la crisis que se inicia en 2007 vaya a alcanzar el dramatismo y la profundidad de la «Gran Depresión» (comparando 1932 con 1929, la Bolsa había caído un 80%, el PIB real, un 36% y el desempleo llegaba al 25% de la población activa). Incluso los que creen posible una recaída de la actividad en 2010 no parecen temer nada parecido a aquella crisis. Los tres factores que pueden explicar la diferencia son la reacción de los bancos centrales, el hecho de que las grandes economías emergentes (Brasil, India y China, principalmente) han resistido bien la crisis y han mantenido crecimientos relativamente elevados, y la falta de éxito, por ahora, de los movimientos de proteccionismo comercial. Pero, sin duda, la pieza crucial ha sido la contención del colapso financiero mediante la creación masiva de dinero por los bancos centrales, materializada en préstamos a los intermediarios financieros, en parte a tipos de interés cercanos a cero, para reforzar su liquidez, permitir la recuperación de la confianza y mantener el funcionamiento del mercado interbancario26.
Salvar el sistema financiero con una enorme creación de dinero, tal como han hecho la FED, el Banco Central Europeo y el Banco de Inglaterra, no mejora, evidentemente, la eficiencia de los mercados. Ha sido, en todo caso, un recurso para ganar tiempo que puede crear algunos problemas o agravar otros27. Pero no hacerlo y permitir una cadena de quiebras y el colapso de los canales de retribución del ahorro y suministro de crédito nos habría llevado a un territorio desconocido, con consecuencias políticas potencialmente muy peligrosas: como en las guerras, se habría sabido cómo empezaba esa aventura, pero no cómo iba a terminar. En esta cuestión no hay discrepancias: tanto Posner como Rowley y Smith consideran que era necesaria esa masiva creación de liquidez y que, una vez producida la explosión de la crisis, la política seguida por la FED y el Banco Central Europeo ha sido la correcta. Y, aunque Rowley y Smith son mucho más específicos que Posner en cuanto al detalle de las medidas a adoptar para superar la contracción económica (con alguna de las cuales discreparía Posner)28, existe otra importante coincidencia: comparten escepticismo en cuanto a la eficacia de los diferentes aluviones de gasto público (gasto adicional o rebajas fiscales) para reactivar la demanda.
Entre el desengaño de Posner sobre el «mercado libre», su eficiencia y su capacidad para superar los desequilibrios sin ayuda del gobierno, y la confianza de Rowley y Smith en los mercados y su atribución de la responsabilidad por la crisis financiera y la contracción económica (de la última que padecemos, y de las precedentes) a errores en la regulación e intervención de los gobiernos hay, probablemente, menos distancia de la que podría creerse a primera vista. Para empezar, coinciden en un punto fundamental: tanto Posner como Rowley y Smith creen que la política de la FED entre 2000 y 2005 fue demasiado relajada y un factor clave en la formación de la burbuja y, por consiguiente, de la crisis29.
Posner no niega que las intervenciones públicas y las interferencias políticas (el estímulo del Congreso estadounidense a las hipotecas «basura» es un buen ejemplo) pueden ser muy perturbadoras y pueden contribuir a la formación de las crisis financieras. Lo que sostiene es que la crisis actual ha venido precedida por dos décadas de desregulación y de invasivo laissez-faire financiero y que, a lo largo de este proceso, se ha demostrado que los mercados financieros y de capitales pueden ser muy ineficientes, agravando los desequilibrios, con escasa, o nula, capacidad de autocorrección (el crecimiento disparatado de algunos mercados de derivados financieros, o del «apalancamiento» de muchas empresas serían ejemplos). Los gobiernos, cree Posner, pueden hacerlo mal y pueden perturbar el funcionamiento de los mercados pero, en su opinión, lo decisivo en la actual crisis no han sido los errores de los gobiernos, sino la tendencia de los mercados cada vez más desregulados a generar y acumular desequilibrios.
Por su parte, Rowley y Smith no niegan que los agentes económicos puedan tomar decisiones ineficientes movidos por conflictos de intereses, por errores técnicos o, simplemente, por la lógica de la competencia. Reconocen, por ejemplo, que, en la crisis actual, este ha sido el caso de las grandes agencias de calificación de riesgos (agencias de rating) como organizadoras y calificadoras de operaciones de titulización de créditos hipotecarios y otros activos bancarios30. Pero la cantidad y calidad de las interferencias públicas en la economía, y en los mercados financieros, en particular, es tal que, en su opinión, no tiene sentido hablar, ni siquiera en el caso de Estados Unidos, de «capitalismo de laissez-faire». Vivimos, sostienen, en un capitalismo intervenido, un «capitalismo de Estado» y la crisis, la actual, igual que la Gran Depresión de 1929-1933, significa un fracaso de ese «capitalismo de Estado», no del mercado.
Nada garantiza, en su opinión, que incrementar aún más la capacidad de los poderes públicos para intervenir en la gestión de los riesgos de las entidades financieras mejore su eficiencia y solvencia a medio y largo plazo. Sin embargo, como no tenemos ningún ejemplo real de capitalismo de laissez-faire (para Rowley y Smith, Estados Unidos dejó de serlo después de la Primera Guerra Mundial, y la vuelta de ese capitalismo es imposible de acuerdo con su propio análisis), es difícil la comparación con los mercados y los capitalismos intervenidos, por lo que el argumento queda, inevitablemente, en el aire.
El giro prointervención y escéptico sobre la eficiencia de los mercados de Posner no ha sido un fenómeno aislado. Con la crisis ha aparecido mucha literatura orientada a la recuperación de enfoques críticos (keynesianos u otros) con las ideas de liberalización y desregulación. Quizá la más llamativa de estas «recuperaciones» ha sido la de un académico norteamericano un tanto olvidado durante la última década, Hyman Minsky (1919-1996)31, y su «Hipótesis de inestabilidad financiera».
Según esta «Hipótesis», el capitalismo moderno no puede conducir a, ni mantener, un equilibrio de pleno empleo y estabilidad de precios, debido a la influencia del sistema financiero sobre la inversión, principal determinante de la actividad y de los beneficios de las empresas. El financiero, como cualquier otro sector, busca aumentar sus beneficios en tanto que «productor» o «vendedor de deuda»; en las épocas de bonanza y expansión favorece el aumento del «apalancamiento» (recordamos: la relación entre deuda y recursos propios) y la generación de pasivos financieros que sólo pueden atenderse generando más pasivos financieros32, todo lo cual lleva a la sobreinversión, a insolvencias generalizadas, caída en los beneficios, a la deflación y a la recesión.
Para Minsky, la tendencia a la inestabilidad financiera es endógena al capitalismo, es decir, no hace falta ningún acontecimiento externo para generarla (como sería una conmoción externa, tal como una crisis del petróleo, o una restricción de demanda originada en una subida de tipos de interés por el banco central). Si las crisis no son aún más frecuentes y más dramáticas se debe, pensaba Minsky, a las intervenciones de los bancos centrales creando liquidez y a la fortaleza del gasto público, verdaderos grandes estabilizadores del capitalismo moderno.
La crisis también ha puesto de actualidad algunas ideas de la «escuela austríaca» (la que se une a los nombres de Mises y Hayek), que siempre ha sostenido la influencia del sistema financiero sobre la actividad económica y defiende que puede estar justificada una política monetaria restrictiva para hacer frente a las burbujas y a la acumulación de desequilibrios productivos y financieros incluso en ausencia de inflación33.

¿OTRO CAPITALISMO?

La crisis no podrá considerarse superada mientras no se vuelva a proporciones de deuda (del conjunto del sector privado, de las familias y del Estado) a PIB similares a las que existían antes de la explosión, y mientras no se recuperen los flujos normales de crédito, lo que no podrá ocurrir mientras los bancos no absorban sus pérdidas y no se recapitalicen; y eso podrá lograrse con estabilidad de precios sólo si los bancos centrales consiguen retirar del mercado la enorme cantidad de liquidez creada en 2008 y 2009, que está, además, en la base de la evolución alcista en las bolsas y de los mercados de materias primas en 2009. Incluso si todo va bien, llevará años y no será fácil porque, entre los dos riesgos a los que se enfrenta la política monetaria –el riesgo de retrasar la recuperación y el riesgo inflacionista–, es seguro que los políticos –y bastantes economistas34– presionarán a favor del crecimiento a corto plazo, es decir, a favor de mantener tipos de interés reales muy bajos, negativos, si es posible, aunque sea a costa de más inflación.
Las reformas regulatorias y de supervisión que están planteadas, y las nuevas iniciativas para mejorar la cooperación internacional que, con mayor o menor éxito, se llevarán a la práctica, no van a transformar el capitalismo intervenido en el que vivimos y cuyas dos características verdaderamente cruciales (y en esto parece difícil negarle la razón a Hyman Minsky35 ) son el manejo (es decir, la creación) de la liquidez bancaria por los bancos centrales y el manejo del déficit público (es decir, la deuda pública) por los gobiernos.
La política de los bancos centrales creando dinero y prestándolo a coste casi cero para apuntalar los balances de las entidades financieras; el salvamento por los gobiernos de empresas industriales y financieras en bancarrota, poniendo en juego enormes sumas de fondos públicos, incluso en una situación fiscal muy degradada (déficit galopante e incremento muy rápido de la deuda pública en relación con el PIB); la doctrina, ya completamente asentada, acerca de los bancos cuyo gran tamaño genera, en caso de crisis, lo que se denomina «riesgo sistémico» (es decir, sus crisis pueden terminar afectando a todo el sistema financiero nacional e internacional), por lo que son «too big to fail», demasiado grandes para permitir su quiebra, teniendo que ser ayudados con fondos públicos a cualquier coste (ayudas directas y ayudas para garantizar los depósitos de los clientes): todo esto ha sido tan masivo y tan contundente que es difícil imaginar políticas aún más intervencionistas, salvo, naturalmente, si se abandona el marco, debilitado, pero todavía dominante, de la economía de mercado y se entra en algún nuevo (que sería muy viejo) territorio «socialista».
No es probable que salgamos de este «capitalismo intervenido». Nadie ha propuesto otro modelo que parezca políticamente posible en el marco de las democracias occidentales, tal como hoy existen y funcionan, y que, a la vez, ofrezca alguna perspectiva de mayor eficiencia económica. Aunque decir esto sea, quizá, demasiado optimista: a veces, las sociedades se vuelven locas y deciden empeorar su suerte.

1. Prosperidad y Depresión. Un análisis teórico sobre los movimientos cíclicos, de Gottfried Haberler, es uno de los mejores libros de teoría económica y de historia del análisis económico publicados en el siglo XX, uno de los más reeditados y más traducidos. Aunque hay noticias de una traducción española de 1942, la primera edición española que hemos podido localizar es la del Fondo de Cultura Económica de 1945. La edición que puede considerarse definitiva es la de Allen & Unwin y Harvard University Press de 1958. Nosotros citamos por la edición de Atheneum, Nueva York, 1963, que reproduce la de 1958 con diferencias menores.
2. Gottfried Haberler, Prosperity and Depression, Nueva York, Atheneum, 1963, pp. 257-258.
3. Una reflexión interesante acerca de ese posible nuevo «paisaje capitalista» ha sido la de Amartya Sen, «Capitalism beyond the Crisis», The New York Review of Books, 26 de marzo de 2009.
4. Ian Bremmer, «State Capitalism Comes of Age», Foreign Affairs, vol. 88, núm. 3, mayo-junio de 2009.
5. Entre los libros publicados en 2009 hay que mencionar el de Carmen M. Reinhart y Kenneth S. Rogoff, This Time is Different. Eight Centuries of Financial Folly, Princeton y Oxford, Princeton University Press, 2009. La descripción de la crisis actual se encuentra en las páginas 199-242.
6. Aparte de una serie de precursores y antecedentes, la teoría de la «elección pública» empezó a elaborarse por James Buchanan (premio Nobel de Economía en 1986) y Gordon Tullock en 1962 con The Calculus of Consent. Logical Foundations of Constitutional Democracy: se trata de un análisis de las instituciones políticas del sistema democrático y de su funcionamiento con los instrumentos de la teoría económica. Su denominación, Escuela de Virginia de Economía Política, tiene su origen en que las instituciones universitarias a las que pertenecían y pertenecen Buchanan y Tullock, y, en primer lugar, la Universidad Georges Mason, están en Virginia.
7. Rowley es un destacado académico británico, asociado desde hace décadas a la Escuela de Virginia y a la economía de la «elección pública»; Smith es un economista y académico asociado a la misma escuela.
8. Richard Posner, «The Good Paul Krugman and the Bad Paul Krugman», The Atlantic, 3 de junio 2009, disponible en http://correspondents.theatlantic.com/richard_posner/2009/06/the_good_paul_krugman_and_the_bad_krugman.php.
9. En 1996, China ahorraba el 36% de su PIB (frente al 17% de Estados Unidos, el 20% de Alemania o el 30% de Japón); en 2007, China ahorró el 51% de su PIB (frente al 14%, 24% y 26%, respectivamente, de los países indicados): «China’s Savings Rate and its Long-Term Outlook», Goldman Sachs Global Economic Paper, núm. 191, 16 de octubre de 2009.
10. China ha seguido aumentando sus reservas durante la crisis. En septiembre de 2009 alcanzaban 2,3 billones (latinos) de dólares. Todos los datos sobre la balanza de pagos de China están tomados del State Administration of Foreign Exchange Bureau, disponibles en Internet: http://www.safe.gov.cn.
11. Bureau of Economic Analysis, US International Transactions Accounts Data, US Department of Commerce, Tabla 1. Disponible en http://www.bea.gov/international/bp; estadística de «Major Foreign Holders of Treasury Securities», también disponible en http://www.treas.gov/tic/mfh.his01.txt.
12. Lo que equivale al 24% de todos los títulos públicos estadounidenses en poder de extranjeros (era sólo el 5% en 1999). El país que sigue a China en esta estadística es Japón: entre 1999 y 2008, las tenencias japonesas de títulos públicos estadounidenses aumentaron en 361.000 millones de dólares. Japón se acerca bastante a China por su peso en las tenencias totales de estos títulos tanto respecto al total de las tenencias extranjeras (el 21%) como respecto a las tenencias en reservas oficiales (31%).
13. Alan Greenspan, «The Fed Didn’t Cause the Housing Bubble», The Wall Street Journal, 11 de marzo de 2009; «Global Imbalances: Two Giants Step in Closer», Goldman Sachs, Global Economics Weekly, 09/16, 29 de abril de 2009; Barry Eichengreen, «Fix Global Imbalances to Avert Future Crises», Gulf Times, 24 de mayo de 2009.
14. Si los precios están cayendo a una tasa anual de, por ejemplo, el 2%, puede decirse que un depósito a un año a un tipo de interés nominal anual del 1% tiene un rendimiento real del 3%, porque al final de ese período anual el poder de compra del importe inicial de ese depósito habrá crecido en el 1% de retribución nominal más el 2% de la caída de los precios; en esa misma situación de deflación, si hay que pagar un 2% nominal por un préstamo recibido, el tipo de interés real para el prestatario puede estimarse en el 4% (2% nominal más 2% de lucro cesante que pierde por no mantener el importe del préstamo recibido, simplemente, como saldo inactivo o líquido; si decidiera mantener inactivo o líquido el importe del préstamo recibido, la operación no daría, teóricamente, ni beneficio ni pérdida).
15. Ben S. Bernanke, «Money, Gold and the Great Depression», observaciones en la H. Parker Willis Lecture in Economic Policy, Washington y Lee University, Lexington, Virginia, 2 de marzo de 2004, disponible en http://www.federalreserve.gov/boarddocs/speeches/2004/20040322/default.htm.
16. Es el tipo de interés al que las entidades prestan y toman prestados los fondos que les sobran o que necesitan, respectivamente, para cumplir con los requisitos legales de reservas y tener saldo suficiente para liquidar las operaciones en sus cuentas de la FED.
17. Mediante operaciones de compra y venta de títulos del Tesoro (operaciones «de mercado abierto») con los bancos, la FED influye en los tipos de interés que los bancos aplican en sus operaciones interbancarias.
18. En su informe sobre política monetaria presentado al Senado en febrero de 2005, Greenspan dijo que no podía entender la razón por la que los tipos de interés de los títulos del Tesoro permanecían tan bajos a pesar del endurecimiento de tipos que estaba llevando a cabo la FED desde mediados de 2004: The Federal Reserve Board, Testimonio del Presidente Alan Greesnpan, Semmiannual Monetary Policy Report, 16 de febrero de 2005, disponible en http://www.federalreserve.gov/Boarddocs/hh/2005/february/testimony.htm.
19. En Estados Unidos, con la Federal Reserve Act de 1913 (Glass-Owen Bill) que, a través de diversos avatares y enmendada en 1977, ha mantenido su vigencia hasta hoy; en Alemania, con la creación del Bundesbank, en 1957; en la creación del Banco Central Europeo con el Tratado de Maastricht de 1992 jugó un papel determinante la, digamos, «ideología alemana» en política monetaria, inspirada por el Bundesbank. De hecho, Alemania condicionó su adhesión al proyecto de la Unión Monetaria Europea al respeto del principio de independencia del BCE y a la estabilidad de precios como su objetivo estatutario.
20. El lector interesado puede consultar dos artículos publicados en Revista de Libros: Luis M. Linde, «Crisis financieras», núm. 124 (abril de 2007), y Alberto Nadal, «Aprender de otras crisis», núm. 147 (marzo de 2008).
21. Jeremy J. Siegel, «Effcicient Markets Theory and the Crisis», Wall Street Journal, Europe, 29 de octubre de 2009, p. 16.
22. En enero de 2007, el entonces secretario del Tesoro, Henry Paulson, promovió la creación de un grupo de trabajo, al que se incorporaría Bernanke, para estudiar la evolución del apalancamiento en las instituciones financieras y, en particular, en los «hedge funds»; pero los acontecimientos se precipitaron y no parece que ese grupo terminase su estudio antes del estallido de la crisis.
23. Claudio Borio y Philip Lowe, «Asset Prices, Financial and Monetary Stability: Exploring the Nexus», BIS Working Papers, núm. 114 (julio de 2002); Claudio Borio, William English y Andrew Filardo, «A Tale of Two Perspectives: Old or New Challenges for Monetary Policy?», BIS Papers, núm. 19 (octubre de 2003).
24. Charles R. Bean, «Asset Prices, Financial Instability, and Monetary Policy», The American Economic Review, vol. 94, núm. 2 (mayo de 2004), pp. 14-18.
25. Puede añadirse un quinto asunto: la revisión de la normativa que obliga a la contabilización de los activos financieros por su valor de mercado (en lugar de por su coste histórico u otras fórmulas que evitan utilizar el valor de mercado), convertidas en norma internacional durante los últimos años a instancias de las autoridades norteamericanas y que, en opinión de muchos, han jugado un papel desestabilizador en la crisis. La aplicación de esta regla contable había obligado (a junio de 2009) a reconocer bajas en el balance (pérdidas) por 41.000 millones de dólares a Merrill Lynch, 37.000 millones a Citigroup, 26.000 millones a AIG y 13.500 millones a Lehman Brothers: véase «U.S. Congress Helped Banks Defang Key Accounting Rule», The Wall Street Journal, Europe, 4 de junio de 2009, p. 14.
26. En 2008, la FED abrió nuevas ventanillas de suministro de liquidez, incluyendo algunas categorías de prestatarios, como los bancos de inversión, que nunca anteriormente habían podido participar en esas operaciones. Después, en 2009, amplió el abanico de activos financieros –incluyendo activos considerados «tóxicos» o de improbable recuperación– que compraba a las entidades, o que éstas podían utilizar como garantía o «colateral» de los préstamos que recibían de la FED, o podían cambiar por activos de mejor calidad en poder de ésta. Las consecuencias de esta política tan agresiva han sido: 1) Pasar de un préstamo total de la FED al sistema financiero de 925.000 millones de dólares en diciembre de 2007 a 2,3 billones en diciembre de 2008 y 2,1 en junio de 2009, y 2) Un empeoramiento muy notable de la calidad del activo del balance de la FED, puesto que se ha hecho cargo de un gran volumen de activos «tóxicos» que son, precisamente, los que hacían insolventes a un buen número de entidades financieras. Por su parte, el Banco Central Europeo pasó de un total de préstamos de liquidez en el entorno de 400.000 millones de euros en 2005-2006 a 617.000 millones en diciembre de 2007, 829.000 en diciembre de 2008 y casi 900.000 en junio de 2009; pero el Banco Central Europeo no ha cargado su balance con activos «tóxicos», y esta ha sido una diferencia muy significativa con la FED.
27. La rebaja hasta niveles cercanos a cero de los tipos de interés a los que la FED, el Banco de Inglaterra y el Banco Central Europeo hacen sus préstamos a los bancos ha llevado a la política monetaria convencional a una zona de escasa o nula efectividad; el siguiente paso ha sido lo que se denomina en la jerga del oficio en inglés «quantitative easing», que es lo que se conoce en español como «monetización» (los bancos centrales comprando títulos, públicos y privados, o prestando –lo que equivale a una compra temporal– con esa garantía, por volúmenes enormes).
28. Defienden un suministro de liquidez por la FED amplio y barato, incluso mediante la monetización de deuda, mientras la economía no inicie la recuperación; la reactivación del mercado de viviendas mediante una reforma de las leyes sobre inmigración; la suspensión de todos los aranceles a la importación («comercio libre unilateral»); la eliminación de barreras sindicales y corporativas en el mercado laboral; la eliminación de los estímulos fiscales; la reforma de la seguridad social para contener el incremento de sus pasivos a largo plazo; alcanzar el equilibrio presupuestario a largo plazo; evitar los rescates bancarios y las nacionalizaciones, utilizando los mecanismos de garantía de depósitos y de préstamo a los bancos en dificultades, pero solventes: Rowley y Smith, op. cit. , pp. 63 y ss.
29. Richard Posner, op. cit. , p. 281; Charles K. Rowley y Nathanael Smith, op. cit., pp. 33-37.
30. Charles K. Rowley y Nathanael Smith, op. cit., p. 93.
31. Hyman P. Minsky ocupó una posición un tanto «lateral» respecto a las corrientes académicas «centrales» o dominantes en Estados Unidos. Minsky, que se confesaba seguidor del Keynes más desconfiado del laissez-faire y más favorable a las intervenciones del Estado, dedicó décadas de trabajo a formular y refinar su «hipótesis de inestabilidad financiera» del capitalismo y a analizar el papel de los bancos centrales y del gasto público para superar las crisis. Minsky publicó, aparte de artículos y textos de conferencias, tres libros: John Maynard Keynes (1975), Stabilizing an Unstable Economy (1986) y Can It Happen Again? (1982), una colección de artículos sobre la Gran Depresión. La «Hipótesis de Inestabilidad Financiera» de Minsky se inspiraba, en parte, en Irving Fisher (1867-1947).
32. Lo que el propio Minsky bautizó como «esquema Ponzi», en recuerdo del famoso estafador «piramidal» que actuó en Estados Unidos en los años veinte.
33. Aunque hay que precisar que las ideas de política monetaria de Hayek cambiaron al final de su vida, pasando a ser defensor de un enfoque mucho más convenional, orientado al manejo por el banco central de la cantidad de dinero y a la estabilidad de precios: véase Lawrence H. White, «Hayek’s Monetary Theory and Policy: A Critical Reconstruction», Journal of Money, Credit and Banking, vol. 31, núm. 1 (febrero de 1999), pp. 109-120.
34. «New Fed view? Build inflation leeway», The Wall Street Journal, Europe, 11 de septiembre de 2009, p. 21.
35. Esta es la idea central de su libro Stabilizing an Unstable Economy, publicado en 1986.
____________________

ARTÍCULO
Teoría política
Libertad, igualdad, fraternidad… y poder (II)
RAIMUNDO ORTEGA
Raimundo Ortega es economista.

nº 65 · mayo 2002

MANCUR OLSON
Poder y prosperidad. La superación de las dictaduras comunistas y capitalistas
Trad. de Antonio Resines
Siglo XXI, Madrid 288 págs. 18,03 €

ROBERT DWORKIN
Sovereign Virtue. The Theory and Practice of Equality
Harvard University Press, Cambridge

ROBERT WILLIAM FOGEL
The Four Great Awakenings & The Future of Egalitarianism
The University of Chicago Press, Chicago

El último libro de Ronald Dworkin es un apasionante aunque, en mi opinión, fallido intento, de difuminar las fronteras donde termina la economía y comienza la ética. Pero, aun así, es un recordatorio, que debemos agradecer, de la urgente y difícil tarea de reducir rápida y drásticamente tanto la desigual distribución de la riqueza entre las naciones del mundo como las existentes en el interior de cada país. Robert W. Fogel, galardonado en 1993 con el Premio Nobel de economía por sus trabajos sobre los efectos económicos de la esclavitud en Estados Unidos y profesor de Instituciones Americanas en la Universidad de Chicago, intenta en su obra más reciente dar una respuesta estadounidense a una cuestión no sólo estadounidense que plantea en la primera página de su libro: «En el amanecer de un nuevo milenio, […] la falta de equidad espiritual (o inmaterial) es actualmente un problema tan relevante, o acaso más, que la de carácter material». Su punto de partida es que el límite de la pobreza se sitúa hoy en Estados Unidos en un nivel de renta real equivalente al disfrutado hace un siglo por el decilo más alto de su población, lo cual hace que el aspecto crítico de lo que califica como «agenda postmoderna de la igualdad» no resida en la distribución de bienes tales como los alimentos, la vivienda, los artículos de consumo duradero o incluso los activos financieros, sino en el campo de los bienes espirituales, ya que éstos son los ingredientes críticos para la autorrealización de las personas y aquellos cuya carencia provoca un extrañamiento espiritual respecto al tronco de la sociedad en que viven. La historia de ese país se ha cimentado en dos principios que han marcado el progreso del igualitarismo americano: la igualdad de oportunidades, dominante a lo largo del siglo XVIII y los tres primeros cuartos del siglo XIX, y el de igualdadde condiciones, que se hizo realidad fundamentalmente a partir del «New Deal» y se materializó en medidas gubernamentales tales como la imposición progresiva, los salarios mínimos y las pensiones, entre otros. Esas y otras medidas transferían a mediados de la década de los años noventa el 20% de la renta de la quinta parte más rica de la población americana a los grupos más pobres. Pero en los años finales del siglo XX se asiste en Estados Unidos a un resurgir del principio de igualdad de oportunidades debido, por un lado, a la recuperación del «entusiasmo religioso» –que acentúa la responsabilidad individual– y, por otro, al convencimiento de que una parte apreciable de los problemas de desigualdad aún sin resolver –barreras educativas y profesionales que frenan el progreso de ciertas minorías étnicas o de grupos como las mujeres– son más una cuestión de igualdad de oportunidades que de transferencias de renta. Una característica del libro de Fogel, que puede interesar al lector español acostumbrado a intentar interpretar los fenómenos sociales de aquel enorme país por medio de análisis predominantemente políticos, económicos o pseudoculturales, es la utilización de un esquema basado en el papel de los movimientos religiosos a lo largo de su historia. Siguiendo las pautas marcadas por el gran historiador de la religión William McLoughlin, y en menor medida de otros dos grandes maestros de la historiografía americana, Gordon Wood y Anson Stokes, Fogel considera que los períodos de crisis morales y de nuevos planteamientos teológicos constituyen el fermento transformador de los valores éticos y de las políticas sociales dominantes en cada época, origen a su vez de los cambios políticos y crisis electorales que concluyen por adecuar el aparato económico y las nuevas tecnologías a los moldes forjados por el naciente entramado de corrientes éticas, sociales y políticas. De acuerdo con ese modelo, la historia estadounidense estaría pautada por cuatro grandes ciclos, enlazados entre sí, de una duración aproximada de ochenta a cien años. Cada ciclo cubre tres fases, cuya vida coincide con una generación. La primera es escenario de un renacimiento religioso, que suele calificarse como «gran despertar», heraldo de un período asentado en principios éticos renovados, y a la que sigue una segunda fase ilustrada por programas políticos y movimientos sociales adaptados a aquel tono ético. La tercera y última de las fases contempla la puesta en cuestión de esos cimientos éticos y políticos como resultado de la decadencia de la orientación religiosa que los puso en marcha. El «primer gran despertar» transcurre desde 1730 hasta 1830, y se caracteriza religiosamente por el declinar de la doctrina calvinista de la predestinación, el énfasis en la posibilidad del «nuevo nacimiento» a la fe por medio de la conversión de los pecadores y la aparición de una ética de la benevolencia que no libró a los dirigentes de las iglesias oficiales de las acusaciones de corrupción por obra del poder y el lujo. Los dirigentes políticos de la Revolución americana eran, sin embargo, criaturas de la Ilustración y en su ideario fluían más las ideas del derecho natural que las de la doctrina de la revelación. El «segundo gran despertar» aparece alrededor de 1800 y llega hasta 1920. En una sociedad inicialmente rural, los predicadores metodistas aseguraban a los americanos que cualquiera de ellos era capaz de alcanzar la gracia y salvarse si luchaba contra el pecado, obteniendo la prosperidad puesto que Dios recompensaba la virtud y castigaba con la pobreza a quienes condenaba por sus faltas. Fue en esos años cuando algunas voces religiosas comenzaron a difundir el mensaje de que era misión de los Estados Unidos instaurar el reino de Dios en la tierra. La fase política contempló una serie de reformas sociales pero, sobre todo, el triunfo del ala más radical del abolicionismo, que acabó plasmando una coalición antiesclavista, origen del Partido Republicano, cuyo mensaje electoral se basaba, más que en consideraciones religiosas, en la conveniencia de impedir a los dueños de esclavos apoderarse de nuevas tierras pertenecientes a los blancos del Norte y evitar la competencia de una mano de obra más barata. El año 1890 es la fecha en que comienza el «tercer gran despertar», cuya fase religiosa duró hasta 1930 y fue testigo de un cisma entre las principales iglesias evangélicas, no sólo por el rechazo a la proposición de que la pobreza era consecuencia del pecado, sino también a propósito de la reforma de las ciudades, consideradas como centro de corrupción social. Finalmente triunfó el ala modernista o liberal, que aplicaba principios científicos modernos al estudio de la Biblia y hermanaba las teorías evolucionistas y los estudios teológicos, predicando que la pobreza no es una señal de fracaso personal sino social y que el Estado está obligado a mejorar las condiciones de los pobres impulsando la redistribución del trabajo y de la renta, medios imprescindibles para acabar con la corrupción que reinaba en las ciudades. Los postulados del llamado Evangelio Social encontraron terreno abonado, primero, en las universidades y, segundo, en los nuevos medios de comunicación ––desde los periódicos populares hasta el cine––, que acabaron por propiciar no sólo la aparición del «New Deal» y las bases de un Estado del Bienestar, sino plantando también las semillas ideológicas para una serie de reformas políticas posteriores tan relevantes como las de carácter laboral de los años treinta a los años cincuenta, las de los derechos civiles, en las décadas de los cincuenta y los sesenta, y el nuevo feminismo de finales de los sesenta y comienzos de los setenta. Estados Unidos está hoy, según Fogel, inmerso ahora en el «cuarto gran despertar», surgido hacia 1960 y caracterizado por una fase de intensa sensibilidad religiosa cuyo rasgo más destacado es la pérdida de influencia de las confesiones protestantes tradicionales y el enorme crecimiento en la feligresía de las iglesias conocidas como «entusiastas» –Mormones, Iglesia de Pentecostés, Adventistas y Neofundamentalistas–, que han incrementado sus miembros en más del doble, alcanzando a finales de los ochenta 60 millones de simpatizantes, lo que suponía casi un tercio del electorado estadounidense. Su cristalización ideológica fue el movimiento de la Mayoría Moral, cuya plataforma política incluía la oposición al aborto, el restablecimiento de la oración en las escuelas, la lucha contra la pornografía, las propuestas de establecer unos programas educativos orientados a la transmisión de determinados valores morales a los niños, y que fue capaz de enlazar con movimientos conservadores en el campo económico, defendiendo los recortes de impuestos y la menor intervención del gobierno en los problemas sociales al ensalzar la responsabilidad que a los ciudadanos corresponde en el desarrollo de su destino. La difusión de estos postulados caló también en los partidos políticos, de forma tal que hoy en día es imposible entender las tendencias políticas y las orientaciones sociales de la sociedad estadounidense sin conocer las agendas de estas confesiones religiosas. Pero la manifestación política más sobresaliente ha sido el dominio del Partido Republicano en ambas cámaras del Congreso durante la mayor parte de la década de los noventa y, pese a los esfuerzos del presidente Clinton para incorporar a su programa de gobierno cuestiones afines a los cristianos entusiastas ––como la lucha contra la difusión de la violencia y la pornografía en el cine y la televisión o los juegos de azar organizados por los estados–, la última elección presidencial se saldó con el triunfo de un candidato inane cuyo único activo electoral fue un confuso conjunto de promesas llamado «conservadurismo compasivo». Ante este panorama, la opinión de numerosos estudiosos de la historia estadounidense –Fogel incluido– es que, aun cuando la renta real media del 20% más pobre de la población se ha multiplicado por veinte en la centuria que separa 1890 de 1990, un ritmo muy superior al del resto del país, la crisis cultural, consecuencia de la industrialización y urbanización, que provocó el movimiento del Evangelio Social durante el «tercer gran despertar» permanece sin resolver. Problemas tales como la droga, el embarazo de jóvenes solteras, la violencia física sufrida por mujeres y niños, así como la criminalidad entre los quinceañeros, son indicativos de una crisis moral y cultural que no termina de sellarse desde hace más de cien años y que fortalece el convencimiento de que las reformas culturales deben sustentarse más en el plano personal que en el social y que el compromiso individual es la mejor base de los movimientos de cambio general. El resultado ha sido el fortalecimiento de un nuevo populismo y la demanda de la devolución del poder al pueblo. A partir de ese punto, Fogel comienza a desgranar en el capítulo quinto de su obra lo que llama «la postmoderna agenda igualitaria». Para ello recurre a la mención de algunos rasgos típicos de las sociedades avanzadas, pero especialmente acusados en los Estados Unidos: el predominio de los servicios en las economías de esos países, los cambios en la estructura del consumo familiar y en el uso del tiempo, los dilemas respecto a la financiación de los sistemas sanitarios y, sobre todo, de las pensiones –destacando que estos dos últimos problemas no se plantean actualmente en términos de lucha de clases económicas sino de equidad intergeneracional debido a que lo que a comienzos del siglo XX era una política socialmente encomiable parece hoy un reto económicamente imposible–, pero, especialmente, su insistencia en la promoción de la educación como medio no sólo de asegurar la competitividad de la economía estadounidense en un marco a escala mundial sino, lo que es más relevante para sus preocupaciones de redistribuir la renta entre grupos sociales desiguales, como medio de reducir las desigualdades actualmente existentes. Nuestro autor señala que la desigualdad ha aumentado tanto en el seno de los países ricos como entre éstos y los países pobres, pero llama nuestra atención sobre algunos matices frecuentemente olvidados en este tipo de discusiones. Es en las últimas 38 páginas del libro donde el lector encuentra los cuatro puntos cardinales de las tesis de Fogel y que me atrevería a identificar como los siguientes: la pregunta a propósito de si es posible redistribuir los recursos inmateriales al igual que sucede con los materiales; su afirmación según la cual completar la revolución educativa es el reto pendiente del cuarto gran despertar, pero que será una tarea muy cara; sus precisiones respecto a por qué ha aumentado la desigualdad en Estados Unidos; y, por último, una serie de conclusiones sobre qué puede deparar el futuro. Pues bien, y resumiendo: así como la política fiscal ha sido y es un arma eficaz para distribuir la renta, no parece claro que exista un sistema parecido para redistribuir los recursos inmateriales. Los medios hasta ahora experimentados para reducir las desigualdades materiales han tenido un éxito considerable, confiesa Fogel, pero ninguno será tan eficaz como la educación; el único inconveniente reside en que es muy caro: más exactamente, supondría dedicar el 11 o el 12% de la renta nacional de los Estados Unidos en lugar del 7% como sucede en la actualidad. Las precisiones sobre la evolución de la desigualdad merecen, sin duda, un resumen algo más amplio. Fogel reconoce que, si bien tanto las fórmulas utilizadas para medir las condiciones de vida –que incluyen tanto las puramente financieras como las biomédicas– muestran una reducción de la desigualdad entre mediados del siglo XIX y mediados de los años sesenta del pasado siglo, a partir de 1970 la desigualdad económica ha vuelto a aumentar en los Estados Unidos. Ahora bien, en 1890 el 10% más rico trabajaba menos horas que el 10% más pobre; actualmente la situación es casi exactamente la contraria, pero la cuestión incluye características muy significativas; por ejemplo, en 1994 el 54% de las familias situadas en el decilo más alto de renta en ese país tenían trabajando tanto al cabeza de familia como, normalmente, a la esposa, y un 12% adicional lo componían personas que se encontraban en la cumbre de su profesión y de sus salarios. Es más, entre la década de los sesenta y la de los ochenta, las horas trabajadas por el núcleo de personas predominante en el decilo más elevado –profesionales altamente cualificados– aumentó un 12%, mientras que las del decilo más bajo disminuyó un 20%; pero ello no se debió a las dificultades de éstos para encontrar trabajo, ya que su consumo familiar aumentó un 11%, sino a que en un 75% se trataba de familias o personas que se encontraban transitoriamente en ese decilo de distribución de la renta, pero contaban con una riqueza acumulada suficiente para mantener sus niveles normales de consumo y, por lo tanto, aproximadamente sólo la cuarta parte restante era crónicamente pobre. Abundando en su análisis sobre la importancia de la educación, el profesor de Chicago apostilla que el aumento del coeficiente de Gini se ha debido, por un lado, al rápido aumento de las rentas de los profesionales altamente cualificados en los años ochenta y, por otro, al estancamiento de las retribuciones de quienes tenían un nivel de educación que no iba más allá del bachillerato. Aquí he de añadir que la desigualdad entre naciones parece haber aumentado entre mediados de los años setenta y comienzos de los noventa, pues la medida internacional de la desigualdad pasó del 62,5 en 1988 al 66 en 1993. Es cierto que los países del llamado Tercer Mundo han visto aumentar su riqueza, pero a un ritmo muy inferior a los de las naciones desarrolladas y que, sin entrar a analizar las causas, los informes de la FAO y de las Naciones Unidas, de 1996 y 1993, respectivamente, señalaban que en los países subdesarrollados había 180 millones de niños menores de cinco años con un nivel de desnutrición equivalente al de las personas más pobres en Francia e Inglaterra antes de la Revolución de 1789. Un buen resumen se limitaría a constatar, como hace Fogel, que las desigualdades internacionales son hoy en día superiores a las existentes en el interior de los países ricos. Pero, al parecer, la tradición igualitaria permanece, y continuará, sana en los Estados Unidos de acuerdo con un decálogo optimista –págs. 236 a 242– que comprende tanto una mejor y más variada alimentación como mejoras en la educación, pasando por el fortalecimiento de la familia tradicional, la reducción de la desigualdad entre las naciones y la discriminación de las amenazas que hoy en día padece el medio ambiente en general y la atmósfera en particular. Ahora bien, siempre existen nubarrones capaces de ensombrecer tan dorado panorama: la resistencia a realizar una transición fácil de una minoría gobernante blanca y protestante a una mayoría ni blanca ni protestante, la incapacidad de las nuevas generaciones para orientar los descubrimientos científicos y la nueva tecnología hacia la resolución de los problemas genéticos o del medio ambiente, la combinación de una estructura demográfica y ocupacional que obstaculiza la entrada en el mundo del trabajo de jóvenes más preparados y con nuevas ideas, el mantenimiento de tasas de fertilidad que contengan el exceso de población del planeta o, y ésta es una preocupación muy americana y quizás más duradera que la actual lucha contra el terrorismo islámico, los riesgos de una confrontación entre Estados Unidos y China. Al finalizar la lectura de un libro como éste, uno se alegra de haber tenido la oportunidad de disfrutar de un análisis bien documentado e inteligentemente expuesto de la historia de las corrientes igualitarias en el país que actualmente es la primera potencia económica y política del mundo. Sin embargo, permanecen algunas dudas respecto a en qué medida el autor cumplió su propósito de presentar un nuevo programa de reformas, de orientación liberal, capaz de superar la patente desigualdad, sobre todo de bienes inmateriales, que caracteriza hoy a los Estados Unidos, aun cuando no sólo a ese país, como bien muestra un estudio sobre la posible convergencia de las estructuras sociales en Canadá, Alemania, Estados Unidos, Francia y, parcialmente, España. Es probable que ello sea debido a que el enfoque elegido por Fogel –el esquema de los «despertares» de origen religioso– no acabe de explicar tan cabalmente como él cree los ciclos de la historia americana y, sobre todo, falle en su aplicación a una sociedad postindustrial como es hoy su país y en la cual, por mencionar un rasgo muy visible, la influencia de los medios de comunicación es tal que resulta capaz de fijar los programas de los partidos políticos y de los candidatos a la presidencia y, si me apuran, orientar decisivamente las cuestiones que conforman la opinión pública dominante. La segunda laguna de este libro sobre la igualdad es que, a pesar de la riqueza de sus datos y de la agudeza con que se estudian, concluye ofreciendo una letanía de buenos propósitos que está muy lejos de constituir una propuesta coherente que incluya remedios para las hirientes diferencias existentes –dentro de los países y entre ellos– en la distribución tanto de los bienes materiales como de los inmateriales. Se hubiera agradecido, por ejemplo, que pronosticara cómo sería posible disponer de esos casi cinco puntos porcentuales del PIB –¡nada menos que 461.000 millones de dólares de 1996!– que se precisan para la mejora de la educación en el marco de unas condiciones que indican un rápido deterioro del actual superávit presupuestario. El libro póstumo de Mancur Olson, profesor de la Universidad de Maryland, analiza una cuestión aparentemente muy diferente de la que preocupa a sus colegas de Nueva York y Chicago, respectivamente, puesto que él afronta en su libro el análisis de cuál es la esencia –algunos dirían «la naturaleza»– del poder político y las razones por las cuales algunas de sus formas dan origen a determinados modelos de comportamiento económico, mientras que otras dan lugar a otros diferentes. Pero existe, no obstante, una relación entre la posición de Olson, explicando por qué existen desigualdades entre países y regímenes políticos, y las pretensiones de Dworkin, buscando una y otra vez la igualdad, de tal forma que, de ser ciertas las teorías del primero, los propósitos del segundo serían irrealizables… salvo en la teoría. Olson tiene el don de resumir en pocas páginas y en un lenguaje sencillo sus tesis básicas, proporcionando rápidamente al lector un esquema de su pensamiento. Por lo tanto, al llegar a la página 30 se tiene ya una idea muy precisa del armazón que sostiene la obra y que su estructura en tres niveles: el primero describe el paso del bandido itinerante al autócrata sedentario –en su opinión, ese cambio supone el comienzo de la civilización, tal y como nosotros la entendemos– y cómo, en el caso del segundo, es la existencia de «intereses abiertos» –es decir, en los que participan tanto el tirano como sus súbditos– y no de contrato social alguno, la que opera como «mano invisible» que permite diferenciar entre una y otra forma de apropiación ilegítima, en el sentido de que el autócrata acaba prestando algunos servicios beneficiosos para sus súbditos aun cuando ésta no sea, por así decirlo, su intención. En el segundo nivel se explica el modo en que incluso el autócrata más ilustrado acaba sucumbiendo a la tentación de primar sus propios intereses sobre los de sus sometidos, generando de esa forma las condiciones para que ciertos grupos o dirigentes lo derroquen y, si ello sucede en circunstancias tales que ninguno puede proclamarse a sí mismo como nuevo autócrata, la dispersión de poder permitirá el nacimiento de la democracia. La democracia es, pues, un régimen de poder compartido que precisa para su funcionamiento un gobierno formalmente elegido –gracias a una jerarquía funcional y al mantenimiento de la paz– que asegure ante todo un orden pacífico, al igual que el respeto a los derechos de propiedad, el cumplimiento de los contratos y la resolución pacífica de las controversias, pero también la provisión de un cierto nivel de bienes públicos y el pago de los correspondientes impuestos por parte de los ciudadanos. Nada asegura, situados en ese tercer nivel, que una mayoría democrática no esté interesada en explotar a las minorías –recordatorio este de plena actualidad en algunas regiones españolas–, pero aquí vuelven a entrar en juego los «intereses abiertos», compartidos en democracia por un número generalmente muy amplio de ciudadanos, y otra categoría reforzada, los «intereses superabiertos», en los cuales todos participan en principio y que, por lo tanto, suelen estar reconocidos de forma especialmente solemne –generalmente en las constituciones o textos legales básicos– y defendidos por instituciones y procedimientos adecuados. Ese entramado legal e institucional fuerza un modus operandi en el cual el intercambio voluntario y la existencia de costes de transacción acaban logrando resultados que la jerga económica califica de «Pareto-eficientes». Ahora bien, recordando las premisas de su obra pionera La lógica de la acción colectiva, publicada en 1965, Olson subraya aquí que únicamente en los grupos pequeños puede tener éxito la acción colectiva voluntaria –en otras palabras, el tejido de acuerdos entre individuos racionales que beneficia a todos y a cada uno de ellos–, pues en los grupos grandes –como las democracias en que vivimos– los individuos no están motivados para actuar habitualmente en beneficio del bien común, ya que para ellos resultará beneficioso quedar excluidos de los costes inherentes al suministro de un bien colectivo. Pero otros pueden seguir el ejemplo y el resultado final acaso sea que el bien público en cuestión no se suministra; se precisará, por tanto, la existencia de incentivos selectivos –ya sean de carácter positivo o negativo– para que los grandes grupos que actúan en democracia se embarquen en una acción colectiva. Puede decirse que el difunto profesor de Maryland no se hacía demasiadas ilusiones ni sobre la justificación de los gobiernos ni, como enseguida se comentará, sobre el altruismo de los individuos; la democracia, en consecuencia, debe valorarse en la medida en que avale, en principio, paz, comodidad y seguridad para los ciudadanos y sus propiedades. Actualizando en cierto modo a Hobbes, opinaba que los grupos muy numerosos no pueden eliminar la anarquía y establecer un gobierno orientado al bien público basándose en el contrato social voluntario, y ello aun cuando existan intereses abiertos y superabiertos. La razón es que el ciudadano típico de una democracia no tiene normalmente un incentivo para embarcarse en un estudio serio de los asuntos públicos, pues sólo obtendrá una parte mínima de los beneficios de la acción política; ese hombre es, en gráfica expresión de Olson, un «ignorante racional». Por ello los votantes –y, en consecuencia, las mayorías electorales– son a veces incapaces de seleccionar sus propios intereses, siendo esa ignorancia racional la que permite a los grupos organizados actuar colectivamente e influir de modo decisivo en la vida pública y en las decisiones adoptadas por los diferentes niveles de gobierno. Es cierto que los gobiernos democráticos pueden ocasionar pérdidas de eficiencia en el suministro de bienes públicos, pero esas pérdidas resultan relativamente tolerables en comparación con las distorsiones originadas por la actuación de los grupos de presión o la cartelización organizada por sectores de intereses que persiguen objetivos especiales restringidos. Que se conviertan en simples manipuladores o en enemigos de la democracia depende únicamente, creo yo, de cómo reaccionen los gobiernos a su existencia y funcionamiento, ya que la libertad económica exige una actitud decidida por parte de los poderes públicos. Habitualmente, gobierno representativo y crecimiento económico sostenido han ido de la mano, pero existen casos –y la España franquista es uno de ellos– en los cuales la presencia de libertades económicas establecidas bajo un régimen políticamente autocrático facilita, incluso de forma inesperada, la transición hacia la democracia. Olson dedica casi una cuarta parte de su libro a aplicar su modelo analítico al caso de las autocracias soviéticas, a su descomposición y al legado que ello dejó. Con todo el interés que las reflexiones de Olson siempre tienen, se trata de las páginas más caducas de la obra y el lector puede saltárselas para concentrarse en el capítulo final, dedicado a resumir las opiniones del autor respecto a la aparente paradoja según la cual, siendo los mercados condición sine qua non para una evolución próspera de la economía, y existiendo prácticamente en todas las sociedades que en el mundo han sido, en algunas han facilitado la prosperidad, mientras que en otras conviven con el atraso, incluso con la miseria. Su tesis es que ello nada tiene que ver con los efectos de la intervención de los poderes públicos pues, como bien dice, incluso en los países más ricos y liberales el Estado interviene mucho y en ocasiones equivocadamente. Su conclusión es que las diferencias entre Suecia y Mozambique no se deben al intervencionismo estatal, sino a algo muy diferente: a saber, no a los mercados que en ambos países existen, sino a los que funcionan en el primero y brillan por su ausencia en el segundo. Los mercados de los países pobres son del tipo que Olson caracteriza como de «transacciones autoobligatorias»: es decir, los bienes que se negocian en ellos se intercambian directa e inmediatamente por otros bienes o por dinero. Carecen, sin embargo, de mercados capaces de cubrir transacciones efectuadas en lugares diferentes o que implican promesas de realización en momentos de tiempo alejados el uno del otro. Pero ello exige que ambas partes confíen en el cumplimiento de las obligaciones libremente contraídas, lo cual no es seguro en los países pobres, en los que el derecho de propiedad y los derechos contractuales, en sí mismos un bien público inapreciable, están protegidos muy débilmente. En otras palabras, si el gobierno no percibe que apoyar decididamente ese cumplimiento redundará en su interés, esa sociedad habrá iniciado el camino que le conduce inexorablemente a la pobreza. Es imposible resumir en menos de 175 páginas un modelo tan lúcido y explicarlo con tanta claridad como hace Olson en este libro, y no es fácil adivinar qué respuesta hubiera dado Olson a las demandas de los movimientos antiglobalización, pero es más que probable que hubiera juzgado con escepticismo la eficacia de soluciones tales como la condonación de la deuda externa de los países pobres, insistiendo en cambio en el levantamiento de cualquier restricción al comercio y en el aumento de la inversión en salud y educación al tiempo que se refuerzan el respeto a los derechos individuales y la consolidación del entramado institucional preciso para el fomento de los mercados como medio para asegurar un crecimiento económico sostenido y desterrar al gran enemigo del desarrollo de los países pobres: la corrupción. Es una lástima que los lectores que no hayan podido leer el libro de Olson en su versión original se vean obligados a sufrir la tortura de una lastimosa versión en español que, y apunto sólo unas muestras, traduce (pág. 160) «the input-output possibilities» por «las posibilidades de entrada salida», vierte directamente a nuestro idioma «stationary bandit» como «bandido estacionario» (pág. 8), o cita como única versión en español del clásico libro de Schumpeter Capitalism, Socialism and Democracy la publicada en Barcelona en 1986, olvidando la muy anterior editada por Aguilar en 1951. El lector tiene en sus manos tres excelentes obras que le permiten recordar, de un lado, y en contra de lo insinuado por Dworkin, que en la mayoría de las democracias occidentales el fin de la acción política no es exclusivamente garantizar la máxima libertad individual posible, sino asegurar las condiciones que permitan mantener un mínimo de bienestar para todos sus ciudadanos. Es posible que, como sostiene Fogel, en ese bienestar predominen cada vez más los bienes inmateriales, pero, de ser así, ese rasgo diferenciaría aún más las democracias de los países liberales y ricos de las situaciones que caracterizan los regímenes autoritarios y pobres del Tercer Mundo o la de aquellas naciones –no pocas de ellas latinoamericanas– que tienden a creer, erróneamente, según Olson, que se puede huir de la pobreza refugiándose en brazos de tiranías de uno u otro género. Pero no es fácil convencer a los apóstoles del moderno apocalipsis con razonamientos dirigidos a demostrarles que, precisamente, en los valores liberales, el progreso tecnológico, el buen funcionamiento de los mercados y la actuación limitada y responsable de los gobiernos democráticamente elegidos reside la única esperanza de los países en vía de desarrollo. Ahora bien, la explicación de ese error debe abarcar también el análisis de una evidente situación de desigualdad, esforzándose por poner en orden cifras contradictorias e intentando prever si, en el futuro, podrá corregirse esa tendencia a la desigualdad. Pues bien, a lo largo del siglo XIX el PNB per cápita creció a una media anual del 1,3% en Estados Unidos y Gran Bretaña y de casi el 2% en el siglo XX, con el resultado de que, entre 1870 y 1913, el PNB por cabeza se duplicó en Estados Unidos, y entre esa última fecha y 1995 se quintuplicó (en España se multiplicó por 44 entre los años 1960 y 2000). Ese crecimiento no ha hecho sino incrementar la desigualdad entre países ricos y pobres, como bien muestra el hecho de que en Estados Unidos la renta per cápita a precios de 1990 pasó de 10.000 dólares en 1950 a 24.000 cuarenta años después, mientras que en Mozambique descendió de 1.000 dólares a 850. Por cierto, esta comparación pone de manifiesto los riesgos inherentes en las comparaciones de este tipo, puesto que si ponemos a un lado, de nuevo, a Estados Unidos y en otro a China en vez de Mozambique, durante el período 1975-1995 se comprueba que la renta per cápita en este último país ha crecido casi 4,5 veces, mientras que el país americano lo hizo sólo 1,4. El resultado ha sido que la diferencia entre ambos países se redujo en un ratio de 19 a 6, justo lo contrario de lo sucedido con Mozambique. Las sospechas de que, no obstante, algo no casa se confirma con un estudio del Banco Mundial que reúne datos de ochenta países para los últimos cuarenta años y que demuestra estadísticamente que la renta per cápita de los países pobres ha crecido al mismo ritmo que la de los ricos. Ahora bien, en la escena doméstica los datos vuelven a indicar la existencia de desigualdades; así, en Estados Unidos y en el período 1979-1997, la renta media de la quinta parte más rica de la población pasó de ser nueve a quince veces superior a la de la quinta parte más pobre. Con todas las cautelas necesarias, la conclusión sería que la distribución de la riqueza, tanto en el mundo como en la mayoría de los países, se ha hecho más desigual. Semejante resultado no hubiera sorprendido a Olson, pues en la lógica de su modelo está implícito, y este es también un dato, que en los países desarrollados el incremento de la riqueza de los grupos más afortunados ha ido emparejado con la mejora notable de la inmensa mayoría de la población, mientras que en las naciones menos desarrolladas –léase Rusia, no pocos países latinoamericanos o africanos– los nuevos ricos han aumentado su fortuna a costa de los pobres. Pero tampoco le hubiera asombrado que, a pesar de las enormes diferencias de riqueza existentes en los países democráticos y capitalistas, la desigualdad se tolera mejor, ya que en general se acepta como la consecuencia de un sistema competitivo, en el cual hay más igualdad de oportunidades, muy al contrario de lo que sucede en los países menos desarrollados. Pero es también posible confiar en un horizonte más esperanzador; en concreto el que se desprende de un modelo diseñado por otro Premio Nobel de economía, el profesor de Chicago Robert Lucas Jr. Imaginemos, nos dice, un mundo integrado por países que en el año 1800 tenían todos una renta media por cabeza de 800 dólares del año 1985 –aproximadamente la renta per cápita de los países actualmente más pobres y, más o menos, la existente en la era preindustrial– e igual población. En esa fecha un grupo de países inicia una senda de crecimiento, cifrada en un ritmo del 2% anual, mientras que los restantes permanecen estancados. Esta hipotética avanzadilla disfrutaría el año 2000 de una renta media de 33.000 dólares. Posteriormente, por ejemplo cada cincuenta años, otros grupos de países comienzan a crecer a un ritmo igual al 2% del grupo inicial, más un margen proporcional a la diferencia entre el primero y el segundo grupo, y así sucesivamente, de tal forma que un país que hubiera quedado rezagado en la revolución industrial podría alcanzar idéntico nivel de renta que las nacionescabecera. Por lo tanto, los países de la segunda oleada de salida –en 1850– crecerían a un ritmo anual del 4,5%; los que iniciasen su despegue en 1900, al 7%; y los más rezagados –los de 1950– gozarían de un ritmo anual nada menos que del 9,5%. Es interesante subrayar que, según este modelo, y a diferencia de la exigencia dworkiniana de una única subasta de cestas con iguales recursos, el factor decisivo para que un país inicie su crecimiento es la renta media del mundo en cada momento. Esto significa que cuanto más rica sea la comunidad de naciones, más probabilidades de crecer tendrá un país inicialmente anclado en la era preindustrial. Curiosamente, estos supuestos ofrecen un perfil de crecimiento mundial parecido a lo realmente sucedido en estos dos últimos siglos: un suave despegue durante el siglo XIX, una fuerte aceleración en la mayor parte del siglo XX –cuando la renta global se incrementa– y un ritmo más pausado en las últimas décadas de dicho siglo, debido a que sólo quedaban unas cuantas economías preindustriales sin iniciar su crecimiento. A diferencia de las construcciones dworkinianas, aquí no hay «prueba de la envidia»; es más, el modelo se basa en dos motores de crecimiento que se refuerzan mutuamente: primero, una vez lanzado el grupo inicial de países, el ritmo de avance de los siguientes depende del diferencial de renta entre el conjunto pionero y el de cada uno de los grupos subsiguientes; segundo, el «grado de aprovechamiento» de los rezagados está normalmente ligado a tres causas: su capital humano, la existencia de instituciones y reglas que rompan las posibles barreras al crecimiento y, en último lugar, la forma en la cual aprovechen los inevitables rendimientos decrecientes y el flujo de recursos de todo tipo que desde las economías maduras se transfieren a los países en crecimiento para incrementar su nivel de renta. Este modelo pretende aclarar algunas cuestiones clave para todos aquellos preocupados sobre todo por la igualdad. Si en un largo período inicial de casi ciento cincuenta años el crecimiento entre los países originó diferencias internacionales de renta pronunciadas, en la medida en la que ahora nos hallemos en un período de lenta convergencia hacia una tasa global de crecimiento en torno al 2%, cabría esperar una reducción paulatina de esa desigualdad, con la esperanzadora consecuencia de que no parece existir una frontera infranqueable entre naciones ricas y pobres en la medida en que éstas se encuentren dispuestas a sembrar en su propio terreno las semillas de crecimiento que en su día aseguraron el éxito de aquéllas. Confiemos en que la realidad no desmienta una vez más la teoría, pero la revisión del pasado enseña a no descartar nada, como demuestra el historiador de Princeton Harold James en un reciente libro en el que analiza cómo la Gran Depresión de los años treinta destruyó rápidamente la globalización que comenzó a forjarse sobre la base del orden económico internacional en las últimas décadas del siglo XIX. ¿Pura coincidencia con la situación actual?

BIBLIOGRAFÍA CITADA
Gordon S. Wood, The Radicalism of theAmerican Revolution, Nueva York, Knopf, 1992.
Anson P. Stokes, The Church and the Statein the United States, 3 vols., Nueva York, Harper & Bros, 1950.
William G. McLoughlin, Revivals, Awakenings and Reform. An Essay on Religion and Social Change in America, 1607-1977, Chicago, University of Chicago Press, 1978.
Simon Langlois y Salustiano del Campo, ¿Convergencia o Divergencia? Comparación de tendencias sociales recientes en las sociedades industriales, Bilbao, Fundación BBV, 1995.
Robert Lucas Jr., «Some Macroeconomics for the 21 st century», Journal of EconomicPerspectives, vol. 14, nº 1, invierno 2000.
Harold James, The End of Globalisation:Lessons from the Great Depression, Cambridge, Harvard University Press, 2001.

____________________

Fuente original: http://www.revistadelibros.es/articulo_completo.php?art=3604

ARTÍCULO
Teoría política
Libertad, igualdad, fraternidad… y poder (I)
RAIMUNDO ORTEGA
Raimundo Ortega es economista.
nº 64 · abril 2002
MANCUR OLSON
Poder y prosperidad. La superación de las dictaduras comunistas y capitalistas
Trad. de Antonio Resines
Siglo XXI, Madrid 288 págs. 18,03 €
ROBERT WILLIAM FOGEL
The Four Great Awakenings & The Future of Egalitarianism
The University of Chicago Press, Chicago
RONALD DWORKIN
Sovereign Virtue. The Theory and Practice of Equality
Harvard University Press, Cambridge (Mass.)

A la pregunta de cuál es el significado actual de la igualdad, Dworkin responde sin dudar: el proyecto político que todo gobierno debe perseguir para asegurar que la suerte de sus ciudadanos le sea idénticamente relevante. Sólo entonces podrá ese gobierno presumir de auténtica legitimidad, añade; pero, dicho esto, acepta la dificultad de aclarar cómo se consigue llevar a la práctica esa preocupación por la suerte de todos y cada uno de aquéllos. Ronald Dworkin enseña derecho y filosofía en la Universidad de Nueva York y jurisprudencia en el University College de Londres. Muy conocido en los ámbitos académicos anglosajones, tanto por su defensa de las tesis igualitarias como por sus constantes alegatos a favor de los derechos individuales, ha sido más citado que estudiado en Europa, acaso porque en esta orilla del Atlántico no se digieren bien las teorías generales del derecho basadas en la adecuada combinación de bases morales duraderas en el tiempo y razonamientos filosóficos tan generales que algunos han llegado a calificarlos de «iusnaturalistas». Desde mediados de la década de los ochenta, comenzaron a traducirse en España algunas de sus obras, tales como Los derechos en serio, El imperio de la justicia, Ética privada e igualitarismo político, El dominio de la vida, así como la contribución titulada «El liberalismo» e incluida en el libro Moral pública y privada, editado por Stuart Hampshire. Con todo, no puede decirse que entre nosotros sea un autor muy popular ni entre los juristas ni entre los especialistas en filosofía política, y me temo que la obra a la cual se refiere esta reseña tampoco vaya a aumentar su influencia en este país. El esquema del último libro pretende justificar, primero teóricamente, cómo la igualdad de recursos ––que no igualdad de bienestar, concepto «demasiado vago» o «poco práctico» para suministrar la base de cualquier teoría de la igualdad (pág. 16)– conforma en su opinión el ideal igualitario de carácter material que cualquier gobierno está obligado a intentar ofrecer a sus ciudadanos, mientras que su segunda parte aplica ese análisis a la discusión práctica de cuestiones políticas de importancia crítica en los Estados Unidos, pero igualmente pertinentes en otras sociedades occidentales prósperas. Dworkin no ofrece un libro de fácil lectura, por lo que resulta recomendable dedicarle un fin de semana, con el ánimo tranquilo y la convicción de que vale la pena renunciar a unos largos paseos o a asistir al auditorio de música a escuchar al Cuarteto de Tokio para adentrarse en sus 473 páginas. Las últimas 166, que constituyen la segunda parte, titulada «La práctica», contienen las conclusiones a las que Dworkin, aplicando la «interdependencia de la teoría política y la controversia práctica», llega en casos que van desde la experimentación genética a la eutanasia, y en los cuales las normas legales o las decisiones judiciales apoyan en ocasiones, u obstaculizan en otras, el objetivo de promover la igualdad. Comentarlas alargaría en exceso esta reseña, ya de por sí extensa, de forma que me limitaré a aquellos casos a los cuales aplica directamente su esquema del seguro como mecanismo para llevar a cabo en la práctica el ideal de la igualdad de recursos que inicialmente apuntala otro expediente, el de la subasta, valiéndose para ello de la teoría económica del equilibrio general; por lo tanto, resumiré únicamente los capítulos 8 y 9, dedicados al coste de la salud, y al paro y la mala suerte de nacer en familias sin recursos. El núcleo de la obra lo constituye, sin embargo, su primera parte –«La teoría» –, que abarca 292 páginas de ardua lectura, pero en la cual se encierran las claves que permiten desentrañar por qué piensa nuestro autor que los tres ideales que pusieron en marcha la Revolución francesa, y a los cuales hace referencia el título de estos comentarios, se deben, y se pueden, alcanzar simultáneamente. Pues bien, abrimos el libro y nos enfrentamos a su primer capítulo, que Dworkin dedica a desmenuzar la igualdad de bienestar. Para ello comienza con un homenaje envenenado al propio concepto de «bienestar» empleado en la teoría económica y después se adentra a toda velocidad en un examen de lo que califica como «teorías del éxito» y «teorías conscientes» del bienestar para ofrecer su propia versión, la «ecuménica», en la cual la igualdad de satisfacciones y de éxitos se cimenta en la igualdad inicial de recursos disponibles por cada persona. Pero antes de entrar en cómo se propone Dworkin asegurar la igualdad de recursos –objetivo del capítulo 2 del libro– conviene saltar directamente a la cuestión central del siguiente ––«la importancia de la libertad»–, pues en él aparecen dos de los dilemas fundamentales de su propuesta; concretamente cómo es posible conciliar libertad e igualdad –lo que ha originado un interesante debate con David Miller en las páginas del Times Literary Supplement1– y, sobre todo, su propósito básico, que no es otro sino establecer que la legitimidad de un gobierno se calibra por su preocupación por asegurar idéntico desvelo por todos sus ciudadanos. Ese rasgo igualitario resulta tan esencial en la maquinaria política que en caso de un auténtico enfrentamiento entre libertad e igualdad, aquélla debería ceder el paso a ésta. Dworkin rechaza, no obstante, la confrontación entre ambos valores y asegura que la libertad es una condición de la igualdad, porque la preocupación del Estado por todos sus ciudadanos no impide que éstos sean en gran medida responsables de su propio destino. El autor recurre para ello al concepto de lo que llama individualismo ético, concepto asentado en el principio de igual importancia –es decir, que es igualmente importante que toda vida sea fructífera y no un fracaso– y en el de especial responsabilidad, según el cual cada uno de nosotros es especialmente responsable del éxito de nuestra existencia. El primero requiere que el gobierno adopte las medidas legales y administrativas adecuadas para que el destino de sus ciudadanos no dependa de lo que Dworkin llama «circunstancias», mientras que el segundo impulsa a los gobernantes a promover que el destino de sus ciudadanos responda a las «elecciones» por ellos adoptadas. Y en la medida en que ese doble objetivo se cumpla el Estado estará tratando a sus ciudadanos con idéntica preocupación, obligándose para ello a intentar igualar los recursos con los que cada uno de ellos cuenta a fin de que su vida sea un éxito. Metido en harina, nuestro autor se adentra a continuación en la tarea de desmenuzar las características que conforman la personalidad ética, cuyo contenido ejemplificará en el capítulo 9 al tratar de «Justicia, seguro y suerte», y más concretamente en su apartado «El problema estratégico» (págs. 322-325). Aun cuando no es imprescindible, el lector puede juzgar útil adelantarse y leer detenidamente esas páginas para entender dos conceptos esenciales en todo el razonamiento del autor; a saber: «elecciones» y «circunstancias». El primero refleja la personalidad de un individuo y está compuesto de ambición –un precipitado de gustos, preferencias, convicciones y metas en la vida– y carácter, entre cuyos rasgos destacados la aplicación, la tenacidad, la frugalidad y la previsión. En cuanto a las «circunstancias», éstas se agrupan en recursos personales –salud física y mental, talento para producir lo que otros valorarán– e impersonales –tales como la riqueza y las posibilidades legales de utilizarla––, susceptibles de ser reasignados de unas personas a otras. Hechas estas aclaraciones, Dworkin perfila su teoría de la justicia distributiva, que califica de «continua» porque diferencia entre «elecciones» y «circunstancias», asentándola en la igualdad de recursos e indicando que su pretensión reside en que los recursos impersonales de cada ciudadano respondan a sus «elecciones» pero no a sus «circunstancias». Ahora bien, los problemas aparecen en cuanto Dworkin se ve obligado a desmenuzar su teoría de la justicia económica y a justificar su postulado según el cual los gobiernos preocupados por la auténtica igualdad, la de recursos –no la de bienestar, ni tampoco la de oportunidades, puntualiza–, intentan que «los recursos impersonales de los ciudadanos [básicamente su riqueza] sean sensibles a sus elecciones pero no a sus circunstancias». Esto significa que ciertos frutos de los rasgos constitutivos de la personalidad, y que conforman el carácter y la ambición de un ciudadano ––verbigracia, sus gustos, preferencias, laboriosidad, determinación, capacidad de previsión–, no constituirían la base de impuesto alguno, mientras que los obtenidos gracias a sus capacidades innatas –físicas o mentales – y a su talento para producir lo que otros valoran, sí deberían ser objeto de un impuesto dedicado a redistribuir los recursos en una comunidad que aspire a la igualdad. El problema reside en que no sólo este diferente tratamiento fiscal provocaría el rechazo en nuestras actuales sociedades –acostumbradas a considerar que cada uno tiene derecho a la mayor parte de los frutos obtenidos gracias a su personalidad y su talento– sino, también, en la dificultad de diferenciar ambos rasgos, dificultad que revela, acaso, lo endeble de la distinción. ¿Cómo solventa Dworkin esa dificultad y justifica su teoría de la igualdad de recursos y el sistema de su distribución, respetuoso por una preocupación idéntica por todos y cada uno de los ciudadanos? Para ello nos pide imaginarnos unos robinsones repartiéndose los recursos existentes en una isla desierta mediante una subasta walrasiana y en busca de un óptimo cuasi-paretiano sometido al contraste que denomina la «prueba de la envidia» (pág. 67). Pues bien, los náufragos intentarán repartirse los recursos de una forma igualitaria extrema; es decir, hasta el punto de que ninguno de ellos prefiera la cesta de recursos en poder de cualquiera de los otros. Superada esa «prueba de la envidia», se puede afirmar que cada cesta proporciona un conjunto idéntico de recursos. ¿Cómo se llega a tan satisfactoria solución? Pues suponiendo que los robinsones disponen de una bolsa con idéntica cantidad de monedas y que van pujando en subasta por las cestas existentes, y a las cuales el subastador pone precio. ¡No se olvide que, habida cuenta de la vigencia de la «prueba de la envidia», un náufrago podrá siempre reclamar una nueva subasta hasta llegar a un resultado satisfactorio paro todos! Ahora bien, el mecanismo es engañosamente sencillo, ya que da por supuestas algunas exigencias que el autor se encarga rápidamente de desvelar. Ante todo, es preciso que los náufragos sepan lo que desean hacer con esos recursos –«qué tipo de vida perseguir», en palabras de Dworkin– y que estén informados sobre el coste que su elección representa para los restantes miembros de la comunidad, a lo cual se añade la existencia de un marco normativo básico –«a baseline liberty/constrain system»–, el mejor posible respecto a cómo usar esas cestas de recursos y que incluye, claro está, los derechos fundamentales por todos conocidos. Una vez adjudicados los recursos, los náufragos comienzan, como es normal, a intercambiarlos y a utilizarlos de modo que al cabo de cierto tiempo se observa, inevitablemente, una desigualdad de riqueza. La pregunta es si está permitido, de acuerdo con la «prueba de la envidia», efectuar una nueva subasta. La respuesta es que las decisiones adoptadas en la subasta inicial son definitivas. Por lo tanto, al participar en la que satisfaga la «prueba de la envidia» cada náufrago deber tener claro el proyecto de vida que desea para saber qué recursos elegir. Pero la relación proyecto de vida/recursos disponibles puede saltar por los aires si alguien queda defraudado y desea pujar de nuevo, circunstancia que no está permitida. Asimilado el artificio de la subasta y su contraste, la «prueba de la envidia», al lector le pueden asaltar dos objeciones: en primer lugar, que el artificio tiene un fallo, ya que el proyecto real – la igualdad de recursos– se intenta justificar como resultado de unas circunstancias que no se han dado en la práctica: la hipotética subasta inicial de cestas de recursos; en segundo, y habida cuenta de la naturaleza de las personas, a la hora de aplicar la «prueba de la envidia» ha de tenerse en cuenta que ciertas envidias no estarán justificadas y otras –las que señalan desigualdades de recursos– sí. Pero aceptar esa diferencia supone volver a empezar. La impresión final que se obtiene es que la subasta es un artificio dialéctico útil tan sólo para ofrecer una explicación aproximada de lo que se entendería en la práctica como una dotación inicial de recursos justa (el autor llega a confesar en la pág. 72 que los «mercados económicos» y numerosas formas de «procesos políticos democráticos» pueden interpretarse como modalidades de subasta). Esa impresión se acrecienta cuando observamos que Dworkin se ve obligado a poner sobre la mesa un nuevo artificio suplementario: el del mercado de seguros. Veamos para qué. La subasta de la isla desierta servía para distribuir cestas de recursos materiales entre los náufragos, pero cada uno de ellos llegó a ella dotado de unos recursos y también de unas carencias personales. Ahora bien, advierte nuestro autor, uno puede asegurarse contra la mala suerte que suponen esas carencias y sus consecuencias futuras. Por lo tanto, el mercado de seguros permitirá a los náufragos, que cuentan ya con sus cestas iguales de recursos, decidir qué riesgos consideran más relevantes y cuánto estarían dispuestos a pagar para asegurarlos y contar así con una fórmula que les permita responsabilizarse de sí mismos. Pero inmediatamente surge una nueva complicación, y es que alguno de los náufragos puede tener defectos innatos cuyas consecuencias futuras son imprevisibles, siendo por lo tanto difíciles de asegurar. Pero resulta que la isla no estaba tan desierta –o que el subastador tiene más funciones de las que se suponía–, pues surge un gobierno previsor capaz de descubrir cómo se habrían asegurado los náufragos caso de ser conscientes de esas deficiencias innatas, y dispuesto a compensarlos por el importe del capital asegurado menos las primas debidas por el seguro. Si uno se pregunta quién pagará las primas de esta segunda clase de pólizas, no obtiene una respuesta clara, salvo la afirmación de que lo harán los afortunados nacidos sin deficiencias. Pero, ¿cómo, si sus consecuencias únicamente se revelarán en el futuro? ¿O es que se aceptan traspasos intergeneracionales de responsabilidades? ¿Tal vez el gobierno posee esa presciencia? No olvidemos, por último, que el talento es también un recurso personal aun cuando ignoramos qué ganancias nos proporcionará. La solución propuesta por Dworkin es otro hipotético mercado de seguros en el cual el asegurado, conociendo cuál es la distribución de la renta en su sociedad, pero ignorando en qué nivel se encontrará, se cubre contra la posibilidad de no ganar la renta que le correspondería en función de su talento y de la distribución de la renta en el país. Dos detalles adicionales: las primas variarán en función de los niveles de cobertura elegidos y se satisfarán con los futuros beneficios, pero no con los recursos inicialmente asignados. Esa política aseguradora hará que la gente modere su estimación de los beneficios esperados de sus talentos y que se consiga una estructura progresiva entre primas pagadas y capitales asegurados. Lo cual, trasladado al mundo real, equivale a que la subasta ideada por Dworkin para neutralizar nuestras diferencias de talentos es extrañamente parecida a la combinación de un salario mínimo garantizado y un impuesto progresivo de la renta. Al final, los artificios de la igualdad de recursos impersonales, de la «prueba de la envidia», de la subasta y de los mercados de seguros para cubrir desigualdades originadas por recursos personales tales como las deficiencias y los talentos, se revelan como lo que son: construcciones teóricas más o menos ingeniosas pero que no resisten la prueba de su traducción a la realidad. Y no la resisten porque en el momento de la subasta de recursos impersonales carecemos de un proyecto clarividente y definido de cómo y para qué los utilizaremos, porque la suerte y la diferencia de cualidades personales alterarán inevitablemente la igualdad de recursos impersonales inicialmente obtenida, habida cuenta que siempre resultará muy tenue la frontera entre envidias justificadas e injustificadas; en conclusión, el artificio propuesto falla porque la subasta dworkiniana está muy lejos del rigor de su supuesto modelo –la walrasiana–, se aleja de los «estados óptimos» de Debreu –que reposan en la continuidad de cambios adecuados en la producción, los consumos y las preferencias– y su «test de la envidia» resulta un pálido remedo de los óptimos paretianos. Y es que, como acertadamente se pregunta K. Anthony Appiah en su reseña del libro, «¿no preferiríamos un sistema que permitiese una cierta reasignación a posteriori o garantizase un nivel de prestaciones sociales, incluso si tuviésemos idénticos talentos, sencillamente porque podemos tener diferente suerte?»2. Llegados a este punto, a Dworkin únicamente le queda una pregunta que responder aunque, eso sí, esencial: ¿qué es lo que realmente propone igualar y para qué? Aceptemos que su propuesta es igualar nuestras carencias por medio de un mecanismo de seguro que nos resarza de sus efectos negativos sobre nuestras vidas o admitamos que, en realidad, no se propone igualar nuestros diferentes talentos, sino nivelar sus consecuencias económicas. Pero la cuestión sigue siendo para qué, y la respuesta que él ofrece es la comunión en una concepción concreta del liberalismo, que califica como «igualdad liberal» y que explica afirmando «que libertad, igualdad y comunidad no son tres virtudes políticas diferentes y a veces en conflicto entre sí […] sino aspectos complementarios de una única visión política, de tal forma que no podemos asegurar o ni siquiera comprender uno cualquiera de esos tres ideales políticos aislado de los restantes» (pág. 237). Dicha concepción liberal considera que somos responsables de llevar una «vida buena» y que esa clase de vida –concebida como «un reto»– lo es en tanto y cuanto constituye una respuesta apropiada a las diferentes circunstancias en que se lleva a cabo. Instalado Dworkin en el familiar terreno de las relaciones entre ética y política, tan caro a Platón y a Aristóteles –que siguen teniendo los derechos de autor de lo que significa ser un «buen ciudadano»–, se adentra en una más de sus elaboradas distinciones. En este caso se trata de diferenciar cuáles de nuestras circunstancias operan como «parámetros» (o criterios definidores de qué debemos entender por «vida buena») y cuáles como «límites» o «limitaciones» (obstáculos que hemos de vencer para conseguir ese ideal de vida establecido por los parámetros). En principio, los parámetros son responsabilidad de cada uno –de su «personalidad ética», en la terminología dworkiana– y el Estado haría bien en no interferir con sus propósitos igualitarios. Pero el problema no es tan sencillo, pues conecta inmediatamente con las anteriores matizaciones sobre «carencias» y «talentos», y nos lleva a preguntarnos si, en pos de la igualdad, el Estado debe intervenir y compensar por las carencias que son limitaciones –¿me compensará por carecer de la habilidad de Ferrán Adrià para cocinar?–, así como redistribuir los talentos que constituyen parámetros –¿cómo distribuir el genio musical y la voz de Teresa Berganza? Aun cuando Dworkin ha sido criticado por usar y abusar del empleo de teorías en exceso ambiciosas al analizar cuestiones de derecho constitucional3, el lector sentirá un considerable alivio cuando comience la segunda parte del libro, en la cual el profesor americano examina las cuestiones prácticas a la luz de su ideal de justicia: por ejemplo, con la salud y el elevado coste de su suministro a todos los ciudadanos, preguntándose cuál debería ser el nivel mínimo de cobertura que incluso los más pobres deben en justicia tener asegurado, pues una vez admitida la necesidad de racionar recursos médicos, como él hace, lo relevante es el criterio para llevarlo a la práctica, ya que una visión igualitaria nos diría que los cuidados médicos deben dispensarse de acuerdo a las necesidades y no en función del dinero que los pacientes, o sus familiares, tengan. Dworkin afirma que en su país, al igual que en la mayoría de las naciones prósperas, se adoptan decisiones que probablemente los pacientes no tomarían si fuesen ellos quien eligiesen y pagasen. Para corregir tal situación propone el llamado «ideal de seguro prudente», consistente en que cada ciudadano con una renta media pueda adquirir en el mercado una póliza de seguros que le cubra una gama de servicios médicos. Este expediente presentaría dos ventajas: primera y fundamental, pondría de relieve que en nuestras prósperas sociedades no existe todavía un sistema de sanidad universal, ya que hay personas privadas de ese conjunto de servicios médicos de carácter general, y, segundo, contaríamos con un criterio que permitiría establecer límites racionales a los gastos médicos excesivos, límites que no podríamos considerar como compromisos con un cierto concepto de justicia, sino consecuencias de la misma. El expediente del seguro, que resultará esencial para su teoría de la igualdad de recursos, vuelve a ser utilizado por Dworkin para aplicar su concepto de justicia a cuestiones tales como el seguro de paro y la herencia, entendida también en el sentido de tener «la mala suerte» de nacer en una familia con pocos o nulos recursos; situaciones en las cuales resultan trascendentes conceptos como las «elecciones» y las «circunstancias», que ya nos son de sobra conocidas. Así provisto, y después de despachar sumariamente los conceptos utilitario y rawlsiano de la justicia, pasa Dworkin al estudio de la aplicación del mecanismo de seguro al paro y la «mala suerte» de nacer en una familia pobre. Si partiésemos de una situación ideal en la cual cada ciudadano contase con un nivel de riqueza y unas oportunidades equitativamente distribuidas y se les diese la posibilidad de contratar una póliza que ofreciese unos ingresos estipulados de antemano u obtener una renta inferior a la asegurada, todos deberíamos convenir que a nadie se le está tratando injustamente, puesto que recibiría lo que voluntariamente contrató. Es decir, si resultase posible diseñar una póliza de seguro de paro que cualquier americano medianamente sensato suscribiese, se habría definido el núcleo básico de prestaciones que el Estado debería facilitar en este capítulo de gastos sociales. Pero, ya en esta sencilla aplicación, el mecanismo de seguro comienza a suministrarle quebraderos de cabeza a Dworkin que, unas páginas después (págs. 334-338), se ve obligado a discutir en detalle nada menos que cuatro modalidades de pólizas de seguro. A ello se añade el reconocimiento de que, si bien el expediente de la póliza de seguro pretende igualar a la gente en sus riesgos «ex ante» de mala suerte pero no en sus circunstancias «ex post», una vez que esa mala suerte se ha materializado, sus resultados pueden requerir mecanismos adicionales y tan conocidos como los impuestos, aun cuando es dudoso que los esquemas de seguros ofrezcan idénticos resultados que los impuestos concebidos para redistribuir riqueza. Quedarían por comentar otras cuestiones lúcidamente estudiadas por Dworkin en esta obra. Cuestiones referentes, por ejemplo, a la libertad de expresión y las dimensiones de la democracia, los avances genéticos o el aborto y la eutanasia ––que ya habían sido analizados en un anterior libro traducido al español4–, le sirven para hacer un repaso crítico de la jurisprudencia del Tribunal Supremo estadounidense, lo que no le impide reconocer que las interpretaciones del máximo órgano jurisdiccional se basan en una visión nada desdeñable: a saber, que los jueces deben ponderar cuidadosamente los principios de moralidad política que subyacen en la historia nacional, puesto que esos principios pueden identificarse mediante análisis de ámbito más o menos general, pero no deben ampliar esa formulación más allá de lo requerido por una interpretación razonable, pues en tal caso corren el riesgo de suplantar aquéllos por sus propias opiniones. Concluyamos. Las tesis igualitarias que impregnan el libro de Dworkin abonan en los albores del siglo XXI viejas raíces que se hunden en la historia del pensamiento político, comenzando por el comunismo elitista de los guardianes platónicos de La República y su creencia en los efectos perniciosos de la riqueza sobre el buen funcionamiento del gobierno, además de la comunidad cooperativa de Tomás Moro y las disquisiciones de Rousseau sobre la desigualdad en El contrato social. Dworkin edifica sus teorías sobre la doble base del liberalismo y el utilitarismo ingleses, pero remoza una visión platónica –a la cual a la vez apela y pretende distanciarse en este libro – según la cual la moral y el bienestar se integran en una ética caracterizada por dos facetas: la que gobierna nuestra vida privada y la que rige la esfera política. Si la virtud es conocimiento, como afirmaba Platón, se comprende bien el afán de Dworkin por destacar que nadie puede ni debe asentar su propia vida sobre la realización de actos socialmente injustos. Al cerrar el libro, muchos lectores tendrán la sensación de haber terminado una obra que se propone responder lúcidamente a la pregunta que hoy en día más debe preocupar a las sociedades democráticas y prósperas del planeta: cómo seguir avanzando en la senda de la igualdad sin poner en peligro la libertad de todos y cada uno de los ciudadanos. Después de experiencias como las ofrecidas por los regímenes y sociedades comunistas en el transcurso del siglo XX, para la inmensa mayoría de los ciudadanos de esas sociedades muy probablemente primará la libertad sobre la igualdad y rechazarán cualquier intento de hacer más igualitarias sus sociedades si ello implica retroceder, siquiera sea mínimamente, en el camino de las libertades obtenidas. Para los lectores que comulguen con esa opinión, el ideal igualitario de Dworkin puede interesarles teóricamente, pero probablemente preferirán sus análisis jurídicos sobre cuestiones prácticas y confiarán, como él, en que el camino hacia la igualdad debe recorrerse lo más rápidamente que permita la preservación de la libertad general. Se trata, en definitiva, de defender una libertad positiva, que predique la intervención del gobierno para eliminar los obstáculos opuestos al más perfecto desarrollo de sus ciudadanos y a la mejora constante de su nivel de vida como ejemplo de la igualdad a conseguir.

1. David Miller, «Beetroot are not the only fruit», Times Literary Supplement, 22 de septiembre de 2000, pág. 13, y Ronald Dworkin y David Miller, «Equality – An exchange», ibidem, 1 de diciembre de 2000, págs. 15-16.
2. K. Anthony Appiah, «Equality of What?», The New York Review of Books, 26 de abril de 2001, págs. 63-68.
3. Cass R. Sunstein, Designing Democracy,What Constitutions Do, Nueva York, Oxford University Press, 2001.
4. Ronald Dworkin, Life´s Dominion, Nueva York, Knopf, 1993; existe versión española: El dominio de la vida, Barcelona, Ariel, 1994. Nota: En el próximo número publicaremosla segunda parte de este artículo, donde se reseñan los libros de Robert William Fogel y Mancur Olson.
____________________
La esencia de Mayo del 68
Luis Arranz Notario
PROFESOR TITULAR DE HISTORIA DE LAS IDEAS Y DE LA VIDA POLÍTICA EN LA UNIVERSIDAD COMPLUTENSE
nº 145 · enero 2009
Kristin Ross
MAYO DEL 68 Y SUS VIDAS POSTERIORES
Trad. de Tomás González Cobos
Acuarela y Antonio Machado Libros, Madrid 438 pp. 22 €

La mayoría de los autores que se adentran en el análisis de los porqués del mayo del 68, no tardan en recurrir a la palabra «misterio» cuando tienen que explicar sus causas. Los antaño nuevos filósofos lo atribuyen a un clima político y social autoritario, radicalizado por las consecuencias de todo tipo del intenso desarrollo económico que tenía lugar en Francia. Puesto que su formación política e intelectual se vio profundamente condicionada por aquel acontecimiento, aquéllos han desarrollado una extraordinaria sutileza y sofisticación para decantar el componente totalitario de la revuelta, con la que rompieron sin ambages y a tambor batiente a mediados de la década de los años setenta del siglo pasado. Pero no por ello han dejado de glosar y ponderar, a lo largo de estos cuarenta años, una suerte de buen legado, de herencia presentable de las convulsiones de aquellos dos meses. Un lado positivo fruto de la vertiente anarquizante y antidogmática del mayo del 68, si bien este «balance globalmente positivo» exige el recurso sistemático a las consecuencias no queridas para explicar la historia.
Así las cosas, el modo en que bautizó Raymond Aron lo ocurrido durante aquellos días –la révolution introuvable– sigue estando justificado. Nada revalida mejor el análisis del pensador francés que releerlo después de cuarenta años. Aquella exhaustiva entrevista, a través de la cual fluye su percepción de los hechos, se realizó, a lo sumo, un par de meses después de lo sucedido a lo largo de mayo y junio de 1968. Esa inmediatez no impide, sin embargo, el pleno ejercicio de la racionalidad frente a las pasiones políticas, en el clima hiperideologizado del momento. No hay aspecto fundamental de la situación de entonces que Aron no examine con una lucidez admirable al cabo de los años. Es cierto que los nuevos filósofos han tratado denodadamente de conciliar el 68 con la libertad y sustraérselo a la revolución. Pero la defensa sobria y firme del Estado liberal y, sobre todo, de la universidad liberal en el momento más duro y difícil, tuvo en Aron un portavoz tan notable como aislado y denostado1. Un Aron, por cierto, atento no sólo a las posibles consecuencias catastróficas de la movilización semi y pseudorrevolucionaria de estudiantes y obreros, sino también al férreo pulso que estaba teniendo lugar, paralelamente, entre dos interpretaciones y dos liderazgos posibles de la V República: el declinante, intransigente (y al tiempo desmoralizado) del general De Gaulle, y el ascendente, inspirado en un criterio flexible y con visión de futuro, de su primer ministro, Georges Pompidou2.
El debate entre los nuevos filósofos sobre los contenidos e implicaciones del mayo del 68 tiende a eludir este y otros análisis políticos posibles, al tiempo que practica una sociología savante, de contenidos eminentemente culturales. Los Ferry, Finkielkraut, Glucksmann, entre otros, prefieren abismarse en un análisis filosófico dignificado, del que surgen diagnósticos interesantes, pero muy alejados –e indirectamente embellecedores– de los términos de la confrontación ideológica y política que estaba teniendo lugar durante el 68. Por ejemplo, Luc Ferry y Alain Renaut, autores de un libro sobre la filosofía del mayo del 68, aparecido allá por los años ochenta del siglo pasado, extraen como principal balance de su análisis crítico la contraposición surgida entonces entre un individualismo anarquizante, cerrado a todo tipo de trascendencia, incluida la subjetiva y cismundana, y la noción kantiana de la autonomía, basada en la capacidad de obligarse voluntariamente al cumplimiento de una norma de valor universal. Desde ahí profundizan en el modo en que la evolución de la estética y de la filosofía del siglo XX favoreció ese triunfo de la irracionalidad y de la amoralidad3.
Ahora bien, lo que en algunos puede producir, a lo sumo, una leve sonrisa ante los excesos del esprit francés, sin perjuicio de admirar su brillantez y, a veces, su sagacidad, en otros casos, como el del libro objeto de este comentario, desencadena un ataque de indignación sectaria que, éste sí, nos devuelve al verdadero espíritu del mayo del 68. Bastará mencionar cuatro o cincos rasgos básicos del panfleto de Kristin Ross para que el lector pueda hacerse una idea.
Comencemos por lo más general: la historia como disciplina. La autora suscribe con entusiasmo la, llamemos, metodología sostenida por los integrantes del Centre de Recherche sur les Idéologies de la Révolt, un grupo surgido en la estela de las iniciativas del Sartre maoísta que editó, entre 1975 y 1981, una revista llamada, muy apropiadamente, Révoltes logiques. La publicación negaba toda relación pedagógica entre el pasado y el presente, y ni siquiera admitía que la historia tuviera el valor heurístico de la narración. Los integrantes de Révoltes logiques afirmaban sin rodeos que el «pasado no nos enseña nada», si acaso «el momento de una oportunidad imprevista». No hay duda de que la autora, como el grueso de los siempre fieles al auténtico espíritu del mayo francés, tiene a gala no haber aprendido nada desde entonces. En particular, nada sobre lo ocurrido en el mundo entre 1989 y 1993.
En todo caso, a la profesora Ross, el rigor histórico no le concierne. El libro contiene un reiterado intento por asimilar a De Gaulle y la V República con el golpismo militar y la dictadura. Es evidente que en su esquema quedaría muy bien un hilo conductor que vinculara a De Gaulle con Vichy, en el pasado, y con la represión del FLN argelino y la transición de la IV a la V República a partir de 1958. De este modo, cree poner al descubierto «el punto flaco del gaullismo»: «su fiera confiscación de la democracia durante la guerra de Argelia y su dependencia en los años posteriores de un Papon, jefe de policía, y Massu, general del ejército» (p. 125)4. Mi impresión es que el misterio atribuido al origen de aquellos acontecimientos se rebajaría bastante si su análisis tuviera en cuenta algo que la profesora Ross mantiene cuidadosamente excluido de su estrecho y asfixiante universo, y que está ausente también en los nuevos filósofos y en el propio Aron. Me refiero al tremendo fracaso experimentado por la izquierda reformista francesa, encabezada por la SFIO y el gobierno del socialista Guy Mollet, entre el fiasco de la guerra de Suez, en 1956, y la crisis política desencadenada en Francia por la descolonización de Argelia, que llegó a su apogeo dos años después. Fueron el líder socialista y el entonces presidente de la IV República, René Coty (proveniente del republicanismo radical histórico), quienes recurrieron a De Gaulle como último recurso para impedir que la crisis argelina desembocara en un verdadero golpe de estado de la extrema derecha, que hubiera revalidado póstumamente el régimen de Vichy5. Tras esa experiencia, y ante el creciente arcaísmo del prudente PCF, a muchos tuvo que parecerles que sólo una drástica innovación de la añeja tradición revolucionaria francesa podía enfrentarse al gaullismo y, mejor todavía, al capitalismo.
Lo que Ross viene a reafirmar, cuarenta años después, es el dogma imperante en el ambiente izquierdista de la universidad española, que se esforzaba por reproducir los planteamientos del mayo francés: no existía ninguna diferencia significativa entre la dictadura de Franco y la V República francesa. Por lo tanto, no existía ninguna amenaza para la democracia en los planteamientos del mayo del 68, porque no había ninguna democracia. Existían dos realidades abominables: la dominación capitalista y la sociedad de consumo. Todo lo demás era anecdótico. Carecía de sentido, con mayor razón, preocuparse por el entusiasmo de los estudiantes parisinos hacia modelos políticos como la Revolución Cultural china o el castrismo, pues sus objetivos –nos lo recuerda incesantemente Ross– eran los mismos: «contestar el dominio del experto, desbaratar el sistema de las esferas “naturales” de los profesionales (sobre todo la esfera de la política especializada)» (p. 31). Marx había sido un ingenuo –puntualiza Ross– por creer en las capacidades emancipadoras de la tecnología. El mérito esencial de los maoístas fue no caer en esa trampa «e ir hacia el pueblo», lo que quería decir penetrar en las fábricas y convertirlas en escenario de un nuevo maquis (p. 166). Creo, pues, interpretar de modo exacto el planteamiento de la autora sobre el sentido último del mayo francés si deduzco que su más profunda originalidad consistió en tratar de abolir, en la teoría y en la práctica, el contenido de los tres primeros capítulos de La riqueza de las naciones, de Adam Smith, tres capítulos dedicados a describir la división del trabajo como el principio esencial de la civilización.
Un par de detalles más. La autora reproduce con pleno acuerdo la opinión de Jacques Rancière (quien fuera discípulo destacado de Louis Althusser), para quien el policía y el sociólogo desempeñan la misma función social. Las fuerzas del orden, antes que a la represión, se dedican a determinar «lo que es y lo que no es perceptible, determinar lo que puede y lo que no puede verse» (p. 62). Calibre el lector el resultado de la aplicación de este criterio a la crítica del adversario y percibirá el nítido eco de los métodos leninista y estalinista de discusión. ¿Qué podía esperar un pensador como Aron sino que, en el mejor de los casos, lo llamaran policía? El ambiente intelectual del mayo francés y sus ecos en otros países tenía bastante más de intimidación intelectual y política que de lúdico y ácrata antidogmatismo. Ross proporciona en su libro ejemplos excelentes de esta dialéctica intimidatoria en sus referencias a los nuevos filósofos, que son el blanco principal de su desprecio, pero también en el caso de personajes para ella igualmente deleznables, como Furet, Annie Kriegel y otros renegados del estalinismo, virus del que la autora cree estar completamente inmune. Y es esta buena conciencia la que le empuja a un rechazo sin paliativos de la crítica del totalitarismo, en su vertiente comunista, llevada a cabo por el conjunto de autores que denigra, o, conforme a la pauta del 68, desenmascara.
Kristin Ross sobrelleva, al parecer, con estoicismo admirable su terrible destino de enseñar en una universidad tan ultrarreaccionaria como la de Chicago, en el país que es el corazón del sistema alienante y represor que ella detesta. Tal vez por eso no le impresiona ni poco ni mucho la suerte de los millones de afectados por la aplicación burocrática y poco lúdica del proceso revolucionario dirigido a eliminar las diferencias entre gobernantes y gobernados, así como a reducir a puro esquema la división social del trabajo, al menos en los campos de concentración. Por ello nos advierte de que todo iba muy bien en Francia mientras la atención de la gente con ánimo reivindicativo y de protesta se concentraba en el sufrimiento de los pueblos oprimidos por el colonialismo y el imperialismo; esto es, en los casos de Argelia y, luego, Vietnam. Esa conciencia solidaria fue determinante para forjar el clima del que surgió el mayo, porque fundió la conciencia antiimperialista y anticapitalista. Pero el proceso se torció cuando, a mediados de los setenta, «la atención que se había concentrado en los obreros argelinos de la periferia de las ciudades francesas se [desplazó] hacia las desgracias de unos pocos científicos e intelectuales disidentes en la Europa del Este» (p. 329). Alega Ross con perfecta flema que esa situación –limitada al parecer a unas pocas individualidades quejicas– era conocida hacía mucho. Aunque lo que considera nefasto, en realidad, es que dicha información dejara de ser inocua, tras el efecto devastador que tuvo en las filas de la izquierda la traducción de Archipiélago Gulag, de Alexander Soljenitsin.
Los aspectos citados bastan para poner de relieve que el verdadero espíritu del mayo del 68 anida en el libro de Ross. Pues su misterio sobrevive, por más que nos esforcemos en disiparlo racionalmente. Y consistió y consiste, en mi opinión, en esa capacidad para construir, en medio de una sociedad abierta, un universo impregnado de sospecha, hermético frente a todo contraste con la realidad y repleto de aversiones y tópicos. De ella se alimentó en buena medida el liderazgo del mayo francés.

1. Raymond Aron, La révolution introuvable, París, Fayard, 1968. El libro consta de una extensa entrevista realizada por Alain Duhamel, jefe de redacción del diario Le Figaro, y va acompañada de los artículos que en ese periódico publicó Aron al hilo de los acontecimientos de mayo y junio de 1968. Que yo sepa, no se ha reeditado en ninguno de los aniversarios de la revuelta.
2. Véase al respecto el extraordinario análisis del gaullismo de Gaetano Quagliariello, De Gaulle e il gollismo, Bolonia, Il Mulino, 2003, así como la biografía de Éric Roussel, Georges Pompidou 1911-1974, París, Lattès, 1994, o, del historiador René Rémond, Notre siècle 1918-1991, París, Fayard, 1991.
3. Mai 68. Le Débat (París, Gallimard, 2008) contiene los cinco debates habidos en la revista Le Débat sobre aquellos acontecimientos. El más interesante, con diferencia, es en el que discuten Ferry y Renaut, Finkielkraut y Krzysztof Pomian, que data de 1985 y gira en torno al contenido del libro de los dos primeros, La Pensée 68, aparecido ese mismo año.
4. Papon había sido colaborador activo e importante, durante la ocupación alemana, en la deportación de los judíos franceses a Alemania bajo el régimen de Vichy. Massu, represor y torturador durante su mando en Argelia, enemigo de la política de De Gaulle allí por aceptar la independencia de la colonia, era general en jefe del ejército francés de ocupación en Alemania cuando De Gaulle lo visitó durante unas horas, por sorpresa y de forma secreta, en Baden-Baden, el 29 de mayo de 1968, tras el aparente fracaso de los acuerdos de Grenelle, negociados por Pompidou y los sindicatos durante lo peor de la crisis de mayo.
5. Sobre esta crisis, que Juan José Linz conceptualizó en su día de reequilibrio, véase el libro reciente de Michel Winock, L’agonie de la IVe République, París, Gallimard, 2006.
___________________

ARTÍCULO
Estudios culturales
Posmodernismo: El revés de la trama
ÁLVARO DELGADO-GAL

nº 15 · marzo 1998
ALAN SOKAL & JEAN BRICMONT
Impostures Intellectuelles
Editions Odile Jacob, París, 1997

En el otoño de 1994 se produjo un episodio que los posmodernos tienen motivos para calificar de trágico, y los que no son posmodernos, de cómico. Sokal, profesor de Física Teórica en la Universidad de Nueva York, sometió a la consideración del consejo editorial de Social Text un escrito con el siguiente epígrafe: «Transgrediendo fronteras: hacia una hermenéutica transformativa de la gravedad cuántica». En el artículo, Sokal no omitía uno sólo de los lugares comunes que de un tiempo a esta parte gobiernan el discurso posmoderno americano. Rechazaba como un mito y un resabio de la Ilustración la idea de que existe un mundo externo que es misión de la ciencia ir comprendiendo cada vez mejor; sostenía que la realidad física es un artificio de la propia ciencia, y abogaba por una física «liberadora» que no se dejara intimidar por un respeto pazguato hacia los hechos objetivos. Todo ello salpimentado con citas a granel de científicos y filósofos, y rematado por una gigantesca bibliografía de doscientos y pico títulos. El equipo editorial de Social Text, una revista de muchas campanillas en los mentideros posmodernos, recibió el artículo con entusiasmo y lo publicó a bombo y platillo. Poco después, en la revista Lingua Franca, Sokal levantó el velo y descubrió el pastel. El artículo era una broma; una insensata, fabulosa, sucesión de disparates. Les voy a citar uno, ni más ni menos grave que los restantes. En la nota 105, se dice literalmente lo que sigue: «Del mismo modo que las feministas liberales suelen limitarse en sus reivindicaciones a reclamar la igualdad social y legal para las mujeres, así como el derecho a decidir libremente sobre el aborto, los matemáticos liberales (¡incluso, a veces, socialistas!) se contentan no pocas veces con operar en el marco hegemónico Zermelo-Fraenkel (el cual reflejando los orígenes también liberales del XIX , incorpora ya el axioma de igualdad), al que se añade solamente el axioma de elección. Pero este marco es notoriamente insuficiente para una matemática liberadora, como lo ha demostrado hace ya tiempo Cohen (1960)». El axioma de igualdad dice simplemente que dos conjuntos son iguales si tienen los mismos elementos. Establecer una conexión entre este axioma y la vocación igualitarista del liberalismo decimonónico no es más razonable que sugerir que sólo una sociedad interiormente quebrada utiliza en sus cálculos aritméticos los quebrados. Pero es aún más gracioso el calembour a propósito del axioma de elección. El axioma de elección fue introducido en la teoría de conjuntos por Zermelo, y sirve a ciertos propósitos de índole técnica: nos garantiza que, dada una colección de conjuntos no vacíos, se puede formar un nuevo conjunto «eligiendo», de cada uno de los conjuntos de partida, exactamente un elemento. Luego, Cohen demostró que el axioma de elección es «independiente», esto es, que ni él ni su negación pueden ser deducidos de los axiomas restantes de la teoría de conjuntos. ¿Cómo relaciona Sokal el axioma de elección con el debate feminista en torno al aborto? Acudiendo a un equívoco verbal. A los abortistas, en América, suele denominárseles «pro-choice», o sea, «pro-elección». Según esta tesis, Zermelo habría anticipado las reivindicaciones del feminismo proabortista. Pero con timidez aún, con un deje conservador. Tocaría a Cohen la gloria de haber puesto el cascabel al gato «liberando» el axioma de autos. Es decir, dejando sentado que no depende lógicamente de los demás axiomas. El dislate, la atroz tontería, salta a la vista para quien quiera que sepa un mínimo de matemáticas. Y me detengo aquí. Si les fuera desgranando por lo fino el rosario de patochadas que Sokal soltó de propósito en su artículo, necesitaría más páginas, muchas más, de las que contiene esta revista. El que sí decidió que sería una pena pecar de demasiado lacónico, fue Sokal. En el trance de preparar su documento jocoso y asesino, había pasado revista a los autores más influyentes en el pensamiento posmoderno, por lo común franceses: Derrida, Deleuze, Lacan, Kristeva, Baudrillard, etc. Y como el cúmulo de necedades detectadas se perdía en el horizonte (es una excepción Derrida, del que sólo se recoge una salida de pata de banco), y además seguía aún caliente la polémica provocada por su apócrifo, reunió las espigas sueltas en una gavilla y publicó el volumen que encabeza la presente reseña: Impostures Intellectuelles, una especie de sottisier o hilarante florilegio de imbecilidades dichas por los ilustres. El libro, en cuyo apéndice aparece el artículo de Social Text, ha sido pensado para el público francés y está escrito por tanto en la lengua de Racine. Como coautor figura Jean Bricmont, profesor de Física Teórica en la Universidad de Lovaina. La reacción del público en Francia ha sido más bien risueña, quitando, claro, a las víctimas de la sátira. La Kristeva, una de las dianas más flechadas (junto a Lacan y Luce Irigaray), ha replicado, rápida como una avispa, que el libro constituye un ataque a Francia. Personalmente, ignoro si Sokal abriga intenciones hostiles respecto del país vecino, pero he de decir que me he reído mucho leyendo su obra. No me resisto a citarles una de las páginas dedicadas a Irigaray, en la que se analiza la célebre ecuación de Einstein: e = mxc 2 (c es la velocidad de la luz, e la energía y m la masa). Escribe Irigaray: «¿Es sexuada la ecuación e = mxc 2 ? No lo descartemos. Pongamos que sí, en la medida en que privilegia la velocidad de la luz respecto a otras velocidades que nos son vitalmente necesarias. Lo que se me antoja una señal del carácter sexuado de la ecuación, no es su utilización por la industria de armamento, sino que se haya privilegiado exactamente lo que camina más aprisa»1 . Sokal señala, brevemente, que la ecuación ha sido verificada experimentalmente, cosa que no habría sido posible si en vez de «privilegiarse» a c en la ecuación… se hubiese apostado por una velocidad «más lenta». ¿Qué pedagogía se desprende de todo lo que antecede? Pese a lo que pueda parecer, el mensaje contenido en Impostures Intellectuelles guarda una relación tenue con el que nos envía el artículo de Social Text. Lo que se deduce de Impostures Intellectuelles, es que la filosofía francesa más de moda en los setenta y ochenta estaba plagada de charlatanes. O haciendo una pequeña extrapolación, que la filosofía contemporánea, la filosofía contemporánea continental, está atravesando una crisis de identidad considerable. Pero el artículo de Social Text refleja algo bastante más tenebroso, y a su modo más interesante. Veamos por qué. EL SÍNDROME POSMODERNO El posmodernismo no es sólo una moda filosófica de acuñación francesa y gran séquito en la universidad norteamericana. A la vez, y quizá sobre todo, refleja un humor o actitud social que ha prendido en los Estados Unidos como en ningún otro lugar del planeta. Pero esto es sorprendente: es sorprendente que sea en Norteamérica, y precisamente en Norteamérica, donde ha alcanzado masa crítica una doctrina oscura y a trechos ininteligible. Ningún adivinador racional del futuro habría podido prever que las disquisiciones de Derrida en De la Grammatologie o en Marges de la Philosophie, o los textos más sibilinos de Foucault, fueran a ser citados, esgrimidos y utilizados dialécticamente por masas de profesores, alumnos y activistas en universidades donde el graduado medio no sabe distinguir con claridad entre Landrú y Descartes. El fenómeno se presta a ser estudiado desde dos teorías que sin estar encontradas entre sí se sitúan en tradiciones, y apelan a procedimientos analíticos por completo distintos. El primer modelo es sociológico, o si se prefiere, sociológico-filosófico. El segundo nos remite directamente a la historia de las ideas y es más potente, o al menos más intrigante, que el anterior. De acuerdo con la perspectiva sociológica, el auge en los Estados Unidos de una serie de tesis abracadabrantes –a saber, que el «mundo exterior» es fruto de nuestras estrategias interpretativas; que no hay ni puede haber una ciencia aséptica ni un discurso racional; que detrás de un argumento cualquiera se encuentra siempre emboscada la voluntad de poder de quien lo esgrime– obedece a un puro factor de oportunidad. No se debe a un súbito fervor por Derrida o Foucault, sino al hecho de que la filosofía de estos últimos da cobertura y legitima una tentación presente en ciertos sectores de la sociedad americana: la de cortocircuitar la política. ¿En qué consiste cortocircuitar la política? En tomar atajos cuyo efecto final es un socavamiento de la buena convivencia política. La política, en su acepción normal, implica una negociación entre dos o más partes, y por tanto el reconocimiento, así en el terreno de los intereses como de los argumentos, de un marco común a esas partes. Pero las feministas no liberales, los líderes más exaltados de las minorías étnicas, los gays militantes o los diversos portavoces del mosaico multicultural norteamericano se han mostrado proclives, a partir de finales de los setenta, a desdeñar, o impugnar, la noción misma de un marco común. Han estimado que lo que se les proponía como un marco común constituía una expresión implícita de los valores dominantes en el pasado y de los intereses de las mayorías vinculadas a posiciones de privilegio en el pasado, y en consonancia con esta idea, han acudido a una visión adversativa de la política. La cuestión, para ellos, no es ponerse a hablar en el interior de un sistema de creencias compartidas sino de contraponer, a los valores de la mayoría, los valores del grupo al que respectivamente pertenecen. Es importante darse cuenta de que esta situación no guarda paralelo alguno con las luchas pretéritas de los socialistas por superar el capitalismo. Los socialistas creían en la Razón. Los socialistas marxistas, en una Razón que no estaba instalada institucionalmente ni podía estarlo hasta que se hubiese consumado la derrota del capitalismo, pero que, aún así, era eso, la Razón, algo absoluto y universal. Los multiculturalistas americanos y afines, no creen sin embargo en la Razón. Más bien, creen en la afirmación voluntarista de su propia identidad, en su identidad como una cosa dura y necesitada de expansión que sólo acertará a crecer y llegar a sazón mientras no sea sofocada por otras identidades hostiles, máxime la representada por el establishment o como quieran ustedes llamarlo. De ahí que hayan recibido con gran alborozo la tesis foucaultiana de que todo artefacto humano –la democracia, la ciencia, la religión– encubre una voluntad de poder. El poder que la sociedad dominante quiere ejercer a costa de la minoría. Las gender-feminists, por ejemplo, no reclaman, al revés que las feministas liberales, igualdad de derechos ante la ley. La ley «burguesa» y «decimonónica» cuya dispensación igualitaria perseguían las feministas de hace dos generaciones ha sido creada según ellas por el hombre, por el otro, y no podrá entonces hacer justicia a las mujeres. Las gender-feminists reclaman una ley distinta, o, dado que el concepto de ley lleva en su fundamento la idea de una aplicación universal, reclaman otra cosa, que sería más propio denominar una interpretación o apropiación del mundo en clave femenina. Una ciencia femenina, una historia femenina, una lógica femenina. El logocentrismo, o sea, la sujeción disciplinada de la argumentación racional a las leyes de la lógica recibida, constituye para estas feministas la enésima versión del falocentrismo, un término puesto en circulación por Derrida. Y existen de hecho mujeres que han negado, por falocentristas, reglas básicas de la lógica de enunciados, como el modus ponens. Naturalmente, estas alegrías tienen un precio. Uno de los precios, es el abandono de la comunicación racional, o simplemente, de la comunicación. Si, volviendo al ejemplo anterior, rechazamos el modus ponens, dejaremos de ser personas con las que se pueda desarrollar un diálogo sometido al requisito mínimo de la predicibilidad: aunque nos hayamos comprometido a asumir B en el caso de que antes se cumpla A, estaremos siempre en situación de no asumir B pese a que se haya verificado A. Y si rompemos cualquier otro principio básico de la lógica, verbigracia, aceptamos el modus ponens pero decidimos no inmutarnos por una contradicción de más o de menos, terminaremos aterrizando igualmente en el caos de la impredecibilidad. Conforme consta a cualquier principiante en lógica, daremos por bueno y simultáneamente por malo todo enunciado posible. Estaremos en la entropía lógica absoluta, en una especie de libertad cuya indefinición misma nos abre a todas las posibilidades, incluidas las que mutuamente se excluyen. De ello da buena prueba un episodio fantástico que Sokal relata en su libro. Entre la tesis científica de que los indios americanos proceden de Asia, y la tesis nativista de que emergieron a la superficie desde un agujero situado en el interior de la tierra, existe una contradicción evidente. Esto es, una tesis no puede ser verdadera sin que la otra sea falsa. Pues bien, Roger Anyon, un arqueólogo inglés que ha realizado trabajos sobre el pueblo zuni, ha encontrado una vía intermedia. Ha afirmado textualmente: «La ciencia es una manera, una entre muchas, de conocer el mundo… La visión de los zuni es tan válida como la que la arqueología nos propone sobre el pasado prehistórico». Otra víctima ilustre de la manera posmoderna de acercarse a las cosas, ha sido la realidad objetiva, o para ser más precisos, la realidad como algo que existe con independencia del observador. ¿Por qué? Porque la realidad objetiva, lo mismo que la lógica, constriñe al sujeto, y al constreñirlo, lo condiciona. Lo aprieta desde afuera, impidiendo que se infle y ponga turgente como una vela a la que hiere el viento. No es casual, en este sentido, que el filósofo menos «posmoderno» de la historia sea Aristóteles, el primero de los lógicos y también el primero de los realistas. Aristóteles, en efecto, no sólo sistematizó la lógica, sino que fue extraordinariamente proclive a concebir al hombre bajo el prisma de lo natural: el hombre es para él una especie, como la salamandra o el buey, y en consecuencia se halla inscrito dentro de un contorno que no le es dado transgredir sin vulnerar su humanidad. Y por supuesto, existían para Aristóteles los géneros sexuales. Vertió sobre ellos una serie de opiniones que el tiempo ha reducido a extravagancias, y exageró el carácter distinto –e inferior– de la mujer. Pero lo último no lo coloca fuera de la cosmovisión científica moderna, de la cosmovisión científica moderna en su acepción genérica. De hecho, la biología contemporánea cree en la índole finita, no abierta a cualquier posibilidad, del ser humano. Lo hace en la medida en que estima que la composición genética de un individuo o la prehistoria evolutiva de la especie son decisivas a la hora de explicarse la constitución integral de uno u otra, y por tanto la esfera, por fuerza limitada, de lo que podemos ser o hacer. Tal es el motivo por el que los posmodernos se avienen mal con la ciencia biológica, a la que tildan de «determinista» y rehén de una «mítica» verdad objetiva. Luego, adquirida ya velocidad de crucero, abjuran también del resto de las ciencias en su dimensión más convencional o «decimonónica». Es precisamente esta nueva forma de oscurantismo, lo que más ha inquietado a Sokal. Sokal es un científico natural, y no podía admitir que se entrecomillase la ciencia en nombre del relativismo cognitivo radical con el que se habían pintarrajeado la cara los voceros del posmodernismo. De modo que él mismo se fingió relativista, y por esa brecha se coló en el corazoncito acelerado de los editores de Social Text. En su artículo, ya lo he dicho, Sokal puso especial esmero en afirmar que la física actual, la seria, reconoce que la realidad objetiva es una construcción humana y que su praxis se encuentra, y además es bueno que así sea, tan comprometida por los intereses políticos como Kishin Shinoyama, Dos desnudos de espalda, 1968. cualquier otra rama de la actividad humana. Pulverizó el mundo exterior, y lo redujo a una mera conveniencia de nuestras urgencias vitales. La facilidad con que su documento mentiroso atravesó la aduana de Social Text vino a demostrar de paso lo que es quizá más definitivo dentro de este episodio: que el relativismo cognitivo, en su desalada versión posmoderna, tiene efectos perversos, no sólo en lo intelectual sino también en lo moral. ¿Por qué? Porque el relativista cognitivo incurre a la vez en dos vicios en apariencia opuestos: la ligereza y la vehemencia. Es vehemente por cuanto se niega a someter sus propias creencias a cualquier crítica «exterior», y por tanto procedente de cuadrantes o puntos de vista que sean extraños o postizos a «su manera» de entender las cosas. Y es ligero porque está siempre en disposición de cambiar de parecer: ante la ausencia de arbitrajes reconocidos, podrá pensar tranquilamente una cosa hoy, y otra mañana. Los editores de la revista confirmaron esto punto por punto. No sólo demostraron ser ineptos científica e intelectualmente, sino que dejaron al descubierto su mala fe. Aceptaron un artículo que no habían comprendido ni podían comprender por la sola razón de que, allí donde no era directamente ininteligible, confirmaba sus prejuicios. Sokal ganó la espalda a sus enemigos y los puso en evidencia por reducción al absurdo. Hasta aquí, les he expuesto la relación entre el posmodernismo y determinadas formas de disidencia. He permanecido silencioso, sin embargo, sobre las causas de esa disidencia. No he intentado explicar por qué los disidentes se han lanzado por el camino del irracionalismo abierto. Y es que lo último… no es fácil de entender. La negación de una realidad exterior resulta máximamente comprensible cuando los tiempos son tan duros, tan ingratos e intratables, que es mejor negar las cosas que mirarlas de cara. Pero ni las mujeres, ni los negros, ni los homosexuales, ni los huéspedes menudos de los demás losanges del mosaico americano atraviesan tiempos de inclemencia extrema. Antes al contrario, se encuentran en una situación incomparablemente mejor que cualquier otra del pasado. Las mujeres han progresado rápidamente en las profesiones y el nivel de renta, los negros otro tanto, y los homosexuales pueden manifestarse en público sin dar con sus huesos en la cárcel o ser muertos a palos por los bien pensantes. ¿Entonces? Los sociólogos han acudido a distintas hipótesis, sólo convincentes a medias. Nos han recordado, pongo por caso, que las ideas van a la zaga de la realidad, y que al igual que en esas películas donde, por estar desacordados el sonido y la imagen, la protagonista dice «te odio» no al dar la bofetada sino en el beso subsiguiente a la bofetada, se ha producido una explosión verbal antisistema justo después de que el sistema hubiera integrado de facto a muchos de los que estaban fuera de él. Según esta teoría, los disidentes se habrían equivocado de década, o acaso de siglo. También se ha dicho que el éxito genera expectativas irrazonables, y las expectativas irrazonables, decepción. Los negros, por ejemplo, dieron un salto de gigante entre los sesenta y finales de los setenta. Pero los ochenta han sido años de relativo estancamiento. De ahí una sensación de fracaso que, examinado el asunto en bloque, no halla refrendo alguno en los hechos. Todas estas observaciones son, a su modo, razonables. Como no pasan, sin embargo, de razonables, o si prefieren, de probables, merece la pena volver provisionalmente a cero y examinar el asunto con ojos nuevos. Ello nos traslada al segundo de los modelos. Lo bautizaré sobre la marcha: «modelo analítico número dos». NIETZSCHE SE HACE DEMÓCRATA El modelo analítico número dos proviene, ya lo anticipé, de la historia de las ideas y no de la sociología. Consiste en explorar el origen remoto de las ideas posmodernas y sacar a continuación las conclusiones pertinentes. El modelo número dos no es incompatible con el sociológico: más bien lo generaliza y reformula desde dentro, sugiriendo, al hilo de una genealogía filosófica, un itinerario paralelo de naturaleza moral y psicológica. La genealogía filosófica está muy documentada y no ofrece dificultad alguna: nos remite a Nietzsche. Casi todas las consignas que he incluido en el cuaderno de bitácora posmoderno –el relativismo cognitivo, la impugnación de la realidad como un artificio metafísico y la resistencia que aquélla opone a la libre expansión del hombre– constituyen de hecho temas nietzschianos. Los filósofos posmodernos han rizado y escarolado y amanerado el mensaje de Nietzsche, pero no han añadido nada revolucionariamente nuevo. Nietzsche nos previene, famosamente, contra «el ascetismo» de la moral y de la ciencia; y en la misma línea nos invita, también famosamente, a rehusar «lo fáctico», el factum brutum, y disponer alegremente de la realidad como de una materia no menos plástica y dócil al apetito o los instintos del hombre emancipado que una obra de arte o una sinfonía. Hasta ahora, o mejor dicho, de momento, Nietzsche. A continuación el modelo número dos añade una constatación tal vez sorprendente: la de que la persona, según es concebida por los posmodernos, recuerda irresistiblemente a Dios. No al Dios domesticado, al Dios socialdemócrata y biedermeier que ahora nos propone una Iglesia vacilante e insegura de sí misma; o al Dios de los deístas, o al Dios constreñido por el principio de razón suficiente de Leibniz, sino al Dios pletórico de la tradición agustiniana, la que inspiró a Lutero y Calvino y los jansenistas. Ese Dios no se halla sujeto a la moral ni al Bien; como dice Calvino, y antes había escrito Duns Scoto, Dios no quiere lo bueno sino que algo es bueno porque Dios lo quiere. Se trata, pues, de un Dios-sin-ley: no se guía por leyes sino que las determina en el trance mismo de desear esto o lo de más allá. Es incognoscible e impredecible, y sólo está limitado, si acaso, por el principio de contradicción. El hombre posmoderno es, pues, Dios. No Cristo, que es Dios humanado, sino Dios Padre. ¿Cómo se relaciona la deificación del hombre por los posmodernos con la raíz nietzschiana de su pensamiento? El nexo es de nuevo transparente desde una perspectiva histórico-filosófica: el hombre posmoderno es primo hermano del superhombre, el Übermensch nietzschiano, el cual surge, precisamente, como un sustituto de Dios. El superhombre nietzschiano es el reverso, la otra cara, de la muerte de Dios. Nietzsche mata a Dios en nombre del hombre, pero no para instalarse en la posición aséptica del agnóstico sino para colocar al hombre en el lugar vacante que ha dejado Dios. El vacío que deja Dios al irse provoca una succión gigantesca y simultáneamente levanta al hombre de su condición subordinada. El hombre arma su tenderete donde antes estaba Dios. O más nietzschianamente, mata a Dios con el fin de deificarse él a continuación. Grotescamente, el hombre emancipado de Nietzsche hereda los atributos formidables de Dios. La tergiversación inaudita, el cambiazo, metafísicamente escandaloso, exige, desde el punto de vista psicológico, una mera inversión. Un toque, un golpe de mano. La posibilidad estaba ya prevista en Lutero, conforme recuerda Blumenberg en Die Legimität der Neuzeit. En una de sus tesis de 1517, dirigida contra Duns Scoto y Gabriel Biel, escribe Lutero: «En virtud de su naturaleza, el hombre no puede desear que Dios sea Dios; al contrario, la esencia de su volición sólo puede consistir en ser Dios él mismo y no permitir que Dios sea Dios». No es preciso ser creyente para encontrar sentido a estas cosas. En la medida que el hombre ha imaginado a Dios, es forzoso que la teología, esto es, la sistematización de Dios, recoja y asuma propiedades psicológicamente profundas del hombre. La rebelión contra Dios, su muerte y la asunción de su cetro se prestan a obvias interpretaciones en clave freudiana. O mejor, a interpretaciones en una clave freudiana revisada. Freud asoció a la religión con el superego: la voz de Dios es la voz de la ley moral, es la voz implacable del Padre. Pero esta interpretación es en esencia kantiana, y en definitiva posteológica. El Dios del cristianismo teocéntrico se ajusta a comportamientos que lo aproximan infinitamente más al id, al núcleo de nuestra personalidad que está regido por el principio del placer y que desconoce y declara no vigente la realidad. La deificación del hombre en el sentido de Nietzsche supondría, pues, la derogación del ego, disciplinado por el principio de la realidad, y la entronización del id. En Nietzsche, el proceso reviste vuelos y solemnidades wagnerianas. En nuestro caso, el marco resulta más prosaico: es la sociedad democrática, presidida por el doctor Spock y sus amigos, la que, al deificar al hombre en un contexto secularizado, ha hinchado al id hasta darle la hechura y el volumen de un zepelín. O en otras palabras: el id, clandestino antes, ha salido a la superficie y adquirido rango oficial. Se pasea en berlina por mitad de la calle, saludando orondo a izquierda y derecha. Fin del argumento y fin del modelo número dos. Una consecuencia inmediata del modelo, es que el síndrome posmoderno queda elevado a algo más que una patología disidente. Si lo que argumenta el modelo es cierto, el posmodernismo, hijo sorpresa de la democracia y de la secularización, constituiría la expresión, el remate florido y extremoso y a veces pintoresco, de un estado de ánimo indagable, en proporciones diversas, a todo lo largo y lo ancho del cuerpo social. Tal es, en mi opinión, el caso, y tal se comprueba al desviar mirada de las militancias posmodernas en sentido estricto y examinar el paisaje que se abre a su alrededor. Les voy a poner tres ejemplos –respectivamente extraídos de la cultura, la ideología de la clase «dominante» y la política «normal»– de una disposición general del espíritu, un talante o un humor que, si no posmodernos, sí están comunicados con las mismas capas freáticas en que bebe el posmodernismo. El primer ejemplo se refiere al arte. Reparen no más en el ascenso, meteórico desde los sesenta, de la figura de Marcel Duchamp y en el éxito arrollador de sus múltiples o readymades. El readymade –un botellero, una taza de urinario, una rueda de bicicleta– es un objeto de uso diario que ha sido elevado a la condición de obra de arte por el solo expediente de decidir, o decretar, que se trata, en efecto, de una obra de arte. El artista señala una cosa cualquiera, y este gesto se convierte, instantáneamente, en un acto creador. ¿Cómo es esto posible, o mejor, en qué contexto cultural es esto posible? Operan aquí dos factores. Primero, un factor libertario: la recusación del oficio –la disciplina– en el arte. Segundo, un factor democrático: la idea de que la expresión plástica es accesible a cualquier ciudadano. Ambos factores entran en alianza y dan ocasión al inusitado panorama actual. En nombre del libertarismo, se desecha el oficio y se suprime la diferencia entre «buen» y «mal» arte. En nombre de la democracia, se aprovecha esta abolición para declarar que la expresión artística está al alcance del vecino del quinto. El resultado es una suerte de gran celebración pentecostal en la que cada hombre, invadido por la acción indomable del Espíritu, inaugura el mundo y la verdad con la facilidad sobrenatural de un demiurgo. Donald Judd, el artista minimal, ha condensado la situación en un lema admirablemente breve: «If someone calls it art, it’s art» («Si alguien lo llama arte, es que es arte»). Apollinaire había profetizado que Duchamp reconciliaría el arte con la gente. Cabe preguntarse hasta qué punto había previsto el camino sorprendente por el que iba a verificarse esta reconciliación. El segundo ejemplo nos pone en contacto con la ideología liberal. El liberalismo no es un charco: es un océano. En su dimensión institucional, está vinculado a aquellas técnicas constitucionales –división de poderes, libertad de prensa, etc.– cuyo fin es poner límites a la autoridad del soberano. En su vertiente moral, descansa sobre el concepto de autonomía individual: el individuo es la única realidad socialmente sustantiva, y esa realidad quedará trunca o sin fructificar mientras el individuo no sea autónomo. Ser un liberal genuino exige, por tanto, que se valore máximamente la autonomía individual. Ahora bien ¿cuándo, o en base a qué, es autónomo un individuo? Nadie ignora que a esta pregunta se han dado contestaciones extravagantemente dispares. Una de ellas, cuyo origen se remonta a Hobbes, ha cobrado especial momento durante las últimas dos décadas. Tiene el encanto de la simplicidad y reza así: ser autónomo significa no estar impedido de hacer lo que uno quiere hacer. El único tope admisible a nuestra autonomía son las deseconomías externas que para los demás puedan derivarse de nuestra conducta. Y aquí paz y después gloria. Esta toma de posición es la que caracteriza al anarquismo libertario. Buchanan, en las espléndidas páginas introductorias a The Limits of Liberty, hace a propósito del anarquismo libertario una observación crucial. Luego de hablar un rato sobre los resultados que se desprenderían de una interacción social no sujeta a ningún tipo de regla, se interroga: «¿Qué significan “buenos” y “malos” resultados aquí? La contestación es simple, aunque de importancia enorme. Es “bueno” lo que “tiende a emerger” de las decisiones libres de los agentes involucrados. Es imposible a un observador externo establecer criterios de “bondad” independientes del proceso (o sea, la libre elección: la apostilla es mía) a través del cual se han alcanzado dichos resultados». En otras palabras: algo es bueno porque lo elegimos libremente. O si prefieren, es nuestra voluntad de hacer algo lo que provoca que ese algo sea bueno. Buchanan critica el modelo libertario por risueño o poco realista. Si a Buchanan le hubiera interesado la teología, se habría sentido intrigado por el paralelo entre el anarquismo libertario y la definición calvinista del bien que mencioné antes: es bueno lo que Dios quiere. En este caso, es bueno… lo que el hombre deificado quiere. Echemos un vistazo, por último, a la «política normal». La concepción del Estado como un mero suministrador de servicios o un garante a secas de los derechos sociales, ofrece también concomitancias con algunos reflejos posmodernos. Con la noción, quiero decir, de que resultaría vejatorio o perversamente melancólico llamar la atención sobre el hecho de que la realidad exterior no es indeterminadamente dúctil y que una de las cosas que la definen es, precisamente, la naturaleza limitada de los recursos. La relación lógica entre todos estos contenciosos es, de acuerdo, muy complicada. La santificación del Estado redistribuidor integra más un alifafe de la izquierda que de la derecha, y así, a sobrehaz, se da de manos con el ethos «neoliberal»2. Pero existen por bajo parentescos o afinidades subterráneos sobre los que el modelo número dos tiene el mérito, a mi ver indiscutible, de arrojar alguna luz. Considérese, verbigracia, la glorificación neoliberal del hombre como un agente permanentemente movilizado en pos de las decisiones que le dicta su soberanísima voluntad: retrospectivamente, volvemos a encontrar la misma estampa antropológico-moral en el hombre emancipado de la sociedad comunista según la soñó Marx. O reparen, a la inversa, en la hostilidad ritual de muchos liberales a cualquier clase de aproximación malthusianista a los problemas ecológicos. La idea de que el ascenso material del hombre en la tierra, es decir, la expansión indefinida de sus potencias, no sea tal vez conciliable con su supervivencia a largo plazo, es rechazada de antemano con una vehemencia desconcertante. En ocasiones, los argumentos son convincentes. En otras, resulta difícil eludir la sospecha de que lo que en verdad se está rebatiendo es el recordatorio de que somos irremediablemente finitos, y por lo mismo, otra cosa que Dios. Radicalmente otra cosa, incluso, que una imagen de Dios. Conviene no malinterpretar el modelo número dos, o erigirlo en lo que no pretende ser. Primero, su propósito no es normativo sino descriptivo. Aventura el origen de ciertos vórtices sociales; no toma pie de este diagnóstico para propugnar una solución concreta. Segundo, no aspira a fundar las bases de una teoría social comprehensiva. Una teoría social comprehensiva nos diría qué le ocurre a la sociedad en general, y probablemente, qué le ocurrirá mañana o pasado mañana. Pero la sociedad posmoderna es compleja, esto es, resulta ser, además de posmoderna, otras muchas cosas a la vez. Sobre la fuerza relativa de los componentes diversos de la sociedad, añejos unos y nuevos otros; sobre la capacidad de la sociedad para generar anticuerpos; sobre la índole funcional o no de fórmulas ya ensayadas, no se pronuncia el modelo número dos. El modelo número dos surge de la intriga que despierta un ornitorrinco: el posmodernismo. E intenta explicárselo como algo que es más que una moda o un sarampión. Nos hemos alejado harto de Sokal. O si bien se mira, no nos hemos alejado demasiado de él.

____________________

Fuente original: http://www.revistadelibros.es/articulo_completo.php?art=3528