Como es habitual he pasado parte del pasado trimestre haciendo presentaciones a clientes acerca de la visión de mercado en el horizonte visible. En esta ocasión he elegido comenzar cada presentación con la imagen de una mariposa monarca. Esta imagen trataba de introducir un concepto a la audiencia: el de sistema complejo adaptativo (con feedback positivo). La mariposa monarca me permitía traer a la sala el archiconocido relato de cómo el aleteo de una mariposa en Brasil podía desencadenar un tornado en Texas. Lorenz entendió que había determinado tipo de sistemas (el clima y su predicción a medio plazo) en los que una pequeña variación de los datos de entrada en el modelo provocaban resultados finales diametralmente opuestos. A este tipo de sistemas se les denomina sistemas adaptativos complejos. Ejemplos aceptados de ilustres miembros adscritos a esta categoría son los colonias de hormigas, el cerebro, el clima (¡por supuesto!) o el mercado de valores.
Algunas de las características que necesitan estos sistemas son, por ejemplo, múltiples agentes tomando decisiones de manera repetida; la tendencia a la autoorganización dentro del grupo y el desarrollo de una notable capacidad de adaptación. Una notable complejidad (expresada en forma de relaciones no lineales al decidir), la comunicación entre agentes o a nivel sistema, o la tendencia a cooperar a partir de la especialización serían otros de los elementos que describen bien estos sistemas.
¡Y ahí nos movemos! Éste es nuestro terreno de juego. El terreno de juego en el nos toca hacer pronósticos (forecasts). ¿Qué va a ocurrir en la Bolsa? ¿Y con el precio del aluminio? ¿Y con el cruce de la libra y el dólar estadounidense? Expresado así, es desde luego un terreno complejo el de hacer pronósticos. Bueno, el de hacer pronósticos, no lo es. Lo es el terreno de acertar. Todos entendemos que no es fácil acertar sistemáticamente. Y el porqué fallamos parece derivarse de las particulares condiciones de aquello que tratamos de pronosticar: el comportamiento de un sistema adaptativo complejo.
Es en este punto donde quiero introducir una figura seguramente conocida sobre todo por los que investigan el ámbito de la toma de decisiones: Philip E. Tetlock. Me llamó la atención un artículo en El País que recuperaba a su vez buena parte de los argumentos contenidos en un libro del reputado psicólogo: Superforecasting: the art and science of prediction (elaborado junto a Dan Gardner). Algunas de las conclusiones de ese libro recuperan un pensamiento en evolución que se inicia con Isaiah Berlin y su concepción de dos arquetípicos grupos de personas a la hora de decidir: los zorros y los erizos. Nomenclatura que tiene su origen en un fragmento de la obra del poeta griego Arquíloco:
‘Muchas cosas sabe la zorra, pero el erizo sabe una sóla, y grande’
¿Eres erizo? Entonces es probable que tiendas a tener una visión central, sistematizada, de la vida, una visión ‘ordenada’ y reglada, casi racionalista, para lo que acontece. ¿Eres zorro? Es posible que tu visión tenga múltiples enfoques, que estos sean difusos y que concibas la realidad como algo de compleja diversidad. En el mundo hay erizos, zorros e híbridos. Isaiah Berlin considera que Platón, Hegel, Dante, Dostoievski, Nietzsche o Proust fueron erizos. Y zorros: Aristóteles, Shakespeare, Moliere, Goethe o Balzac.
Un ‘erizo’ es un magnífico conocedor de una realidad vertical y aplica su conocimiento a otras situaciones. Un ‘zorro’ tiene un conocimiento transversal de muchos temas pero sin alcanzar una profundidad elevada en todos ellos. En los experimentos de Tetlock el ‘zorro’ actúa de forma adaptativa: yerra, corrige, actúa de nuevo. Sin necesariamente acertar. Este ‘zorro’ parece más dispuesto a un proceso iterativo (¿Bayesiano?) que el ‘erizo’. Y además acierta más el ‘zorro’ que el ‘erizo’.
Los expertos (súper-conocedores de una materia, erizos), en promedio, producen pronósticos de peor calidad que una predicción aleatoria. Sí; hablamos del famoso mono lanzando dardos que acierta más que los analistas. He señalado en negrita ‘en promedio’ de forma deliberada, ya que, como se ha empeñado en recordarnos Tetlock, estos resultados en relación a los pronósticos fallidos no conducen necesariamente a un nihilismo forzoso y al abandono de cualquier esfuerzo por pronosticar. Al experto le pierde su escaso conocimiento de otras áreas. Cierta falta de capacidad para relacionar conceptos y corregir su postura (estilo cognitivo). Y sobre todo, el exceso de confianza (overconfidence). Sobre este concepto quizá merece la pena releer la Parte III del libro de Kahneman ‘Thinking, Fast and Slow‘.
El inquietante resultado de los experimentos sugiere que no son pocos los problemas en los que cuanto más se sabe, más renombre se tiene y mayor autoconfianza se exhibe, menos se acierta. Esto es así en los casos en los que un experto se enfrenta a situaciones de mayor complejidad del sistema. O cuando más alejado se encuentra el horizonte sobre el que decidir. Es fácil decir qué tiempo hará mañana, pero… ¿y a cinco años vista?
Hemos dicho que no al nihilismo forzoso. Esto es así porque también se demuestra que se puede aspirar a estar más cerca de los ‘súperpronosticadores‘. Ser súperpronosticador no es ni sencillo, ni frecuente. Y aún así en uno de los anexos del libro de Tetlock se nos dejan Diez Mandamientos para aspirar a mejorar nuestras capacidades de predicción para sistemas adaptativos complejos. Podríamos decir que un principio básico para mejorar la capacidad de predicción pasa por ¡ser más zorro! Claro. Quizá elementos clave podrían ser los siguientes: