DE LAS BOLSAS DE VALORES A LAS EPIDEMIAS (NOTA 1)

 

Ricardo Mansilla Corona  (NOTA 2)

Agradecemos a los doctores Enrique Ruelas y Ricardo Mansillas, coordinadores del libro, así como al Dr. Javier Rosado Muñoz y al autor del artículo la autorización para su publicación.

Las teorías existentes acerca del comportamiento de los precios son notablemente inadecuadas. Son de tan poco valor para el profesional de las finanzas que yo no me siento muy familiar con ellas. El hecho de que yo pueda arreglármela sin ellas habla por sí solo.”
GEORGE  SOROS.

Vivimos sin duda una época extraordinaria y controvertida. El actual proceso de globalización, el cual inobjetablemente no es el primero a que se somete la humanidad,(NOTA 3) con toda su carga de éxitos, contradicciones y tragedias ha cambiado nuestra percepción del mundo, nuestro modo de vida y nuestras costumbres. Respecto al acceso a la información, el avance ha sido meteórico. Conectados a la red global, desde la comodidad de nuestros hogares, en cuestión de minutos podemos tener acceso a muchísima más información que en largas jornadas de búsqueda en la mejor de las bibliotecas del mundo. Si la humanidad cambió drásticamente después de la invención de Guttemberg, la Internet ha dado un nuevo golpe de timón a la nave de nuestra civilización.
Otro sector al cual las nuevas tecnologías –y nos referimos aquí tanto a las del transporte como a las de la información– han dado un nuevo sello distintivo es el comercio. Las distancias se han colapsado y, dejando de lado por el momento ciertas limitaciones económicas, podríamos cenar salmón noruego y vino francés sin que constituya como en otra época un manjar de monarcas. No sería justo dejar de señalar aquí la otra cara de la moneda, la que nos muestra a grandes masas de seres humanos que no reciben los beneficios de este proceso, sino que sufren sus implementaciones mediáticas. Nos beneficiamos además con tal naturalidad de la microelectrónica elaborada en algunos países asiáticos  que los más jóvenes entre nosotros creen que siempre ha sido así.
El artífice de todos estos cambios ha sido la computadora digital. Desde las primeras máquinas diseñadas durante la Segunda Guerra Mundial hasta la invención del microprocesador, la humanidad ha recorrido un largo y exitoso camino. De la misma forma que los primeros vidrios de Zacharias Jensen(NOTA 4) modificaron la concepción de la biología, las computadoras digitales abrieron el espectro de la investigación científica, permitiendo acercarnos de manera más precisa a muchos fenómenos que, por su carácter no-lineal, sólo habían sido susceptibles de estudiarse de manera aproximada.(NOTA 5).
Por supuesto, esta revolución no ha hecho a un lado a la economía y en particular a las finanzas. En este último campo, la gigantesca acumulación de datos provenientes de los mercados ha permitido un minucioso examen del comportamiento de los mismos, lo cual era completamente imposible antes de la aparición de las modernas computadoras con su enorme capacidad de almacenamiento de datos y rápido procesamiento de la información. Bajo la lupa de toda esta evidencia empírica ha sido posible detectar ciertos fenómenos difíciles de explicar a la luz de las teorías económicas actualmente reconocidas. En particular, el concepto de equilibrio, como paradigma de las teorías económicas en boga, se ve en serios aprietos frente a las constantes fluctuaciones de los precios de los valores en los mercados financieros. Tales fluctuaciones repercuten en toda la actividad vital de una nación en la actualidad. Si bien las finanzas eran hasta hace pocas décadas el coto privado de una elite, ahora forman parte de las vivencias y angustias existenciales de grandes masas de personas. En los noticiarios de todo el mundo se le concede igual importancia que al estado del tiempo, y las tormentas financieras son analizadas con la misma minuciosidad que los fenómenos meteorológicos.
Estas fluctuaciones financieras pueden afectar la capacidad de maniobra de los gobiernos frente a acontecimientos súbitos, como puede ser la propagación de una enfermedad epidémica en una población. Por su carácter repentino, estos últimos fenómenos nos obligan a un esfuerzo económico enorme e inmediato para lograr su control. Resulta, por lo tanto, del máximo interés su estudio a la luz de los avatares producidos por las cambiantes circunstancias de la economía actual.
En este capítulo pretendemos enlazar estos ambos aspectos, tan importantes para un sistema de salud, mostrando su elevada complejidad y las consecuencias de su eventual interacción.
Las actuales doctrinas económicas han hecho un notable esfuerzo en la matematización de sus resultados. Esta tendencia, que tiene su origen en la muy citada y poco leída obra Eléments d’economie politique pure, que el economista francés León Walras publicó en 1874, ha llevado a la construcción de un universo en el cual agentes económicos perfectos intercambian sus mercancías en mercados perfectamente competitivos que siempre tienden al equilibrio. A pesar de esto, la coincidencia entre teoría y práctica ha sido poco evidente. En la tradición vernácula de los sectores académicos es bien conocido el chiste que afirma que los economistas escriben dos tipos de artículos científicos: los del primer tipo son trabajos donde exponen sus ideas y predicciones; los del segundo tipo son trabajos donde explican por qué estas ideas y predicciones no se cumplieron.
Habida cuenta de la gran cantidad de datos disponibles de los mercados, así como de las discrepancias entre teorías económicas y evidencia empírica, el reto intelectual de comprender los fenómenos económicos ha traspasado los límites de esta comunidad académica, atrayendo a especialistas de otras áreas, en particular y de manera destacada a los físicos.
No obstante, es necesario señalar que tales intentos no son tan modernos. El 29 de marzo de 1900 puede ser considerado, con toda justicia, el nacimiento de las matemáticas financieras. Ese día, un joven llamado Louis Jean-Baptiste Alphonse Bachelier, nacido en Le Havre, el 11 de marzo de 1870, defendió su tesis de doctorado en matemáticas en la Facultad de Ciencias de la Academia de París. El título de esta tesis fue muy elocuente: La Teoría de la Especulación. El director del trabajo de Bachelier fue Henri Poincarè, uno de los más grandes físico-matemáticos franceses de todos los tiempos, precursor de la teoría de los sistemas dinámicos caóticos entre otros indiscutibles méritos. Describir las contribuciones a la física y las matemáticas de Poincarè rebasa sin duda los márgenes de este capítulo.
Después de algunos aislados intentos a lo largo de la primera mitad del siglo XX, con el advenimiento de las computadoras digitales, se inicia una nueva época en la investigación de los fenómenos económicos por parte de físicos, matemáticos y especialistas en otras ramas del saber humano.
En el año 1984 se creó el Instituto de Santa Fe. Es con toda justicia la más famosa institución dedicada al estudio de los sistemas complejos. En los anhelos de sus fundadores estaba la creación de un centro dedicado al estudio de los sistemas complejos que incluía desde el origen de la vida hasta los sistemas sociales. G. Cowan, su fundador, creyó que entre los sistemas complejos que demandaban una urgente investigación, se encontraba  la economía. Por esos años, la economía neoclásica, que es la “corriente principal” en las doctrinas económicas actuales, había alcanzado ya un elevado grado de formalización matemática. Como hemos dicho antes, la coincidencia entre teoría y práctica ha sido poco evidente. Había, pues, razones para intentar un nuevo enfoque de los problemas económicos.
Por tal motivo, se organizó un grupo de conferencias dedicadas a la economía. La primera de ellas se realizó en agosto de 1986 bajo el título “Las finanzas internacionales como un sistema complejo”. La segunda conferencia se celebró en septiembre de 1987 con el título “La economía como un sistema complejo evolutivo”. En esta ocasión, dos premios Nobel aparecían entre los invitados al evento. Uno era Kenneth J. Arrow, laureado con el premio Nobel de Economía en 1972 (de acuerdo con el Comité Nobel “por sus contribuciones fundamentales a la teoría del equilibrio general económico y a la teoría del bienestar”). El trabajo de Arrow era descendiente directo del esfuerzo iniciado por León Walras un siglo antes. El otro laureado era el premio Nobel de física de 1977 Philip W. Anderson. Este físico compartió el galardón ese año con Sir Nevill F. Mott y John Hasbrouck van Vleck. En la ceremonia de entrega del premio, el Comité Nobel dijo otorgar la condecoración “por sus investigaciones teóricas sobre la estructura electrónica de los sistemas magnéticos y desordenados”. No es casual que las ideas de Anderson sobre los vidrios de spin sean la piedra angular en la actual construcción de modelos multiagentes de mercados financieros. La última conferencia se celebró en febrero de 1991 bajo el título “Wall Street y la teoría económica: predicción y reconocimiento de patrones”. En esta ocasión, y como consecuencia de la repercusión de las dos anteriores, entre los invitados se encontraban prominentes figuras de Wall Street representando a empresas tan importantes como Salomon Brothers, Goldman Sachs, Tudor Investment, Kidder Peabody y Bear Stearns.
Lamentablemente el resultado de estas reuniones no fue el esperado. Tal vez la descripción más exacta ellas sea una conversación de sordos entre las dos comunidades académicas y profesionales.
¿Cuál fue y sigue siendo el punto central de conflicto entre ambas comunidades? Sin duda alguna es la aceptación o no de la hipótesis de mercado eficiente (HME). Esta es con mucho la suposición más estudiada y menos creída de toda la teoría económica. Si bien existen varias versiones de la misma, todas ellas básicamente afirman que los precios de las mercancías reflejan la información relevante disponible en los mercados para su formación. Una de estas versiones sostiene que los precios siguen una caminata aleatoria.(NOTA 6) Siempre he sentido una fuerte tentación a creer que la aceptación de la HME tiene como justificación primaria la simplificación del uso de la teoría de las probabilidades en el estudio de los mercados de capitales. Si los precios siguen una caminata aleatoria, sus diferencias consecutivas siguen una distribución normal. Esta última distribución ha sido muy estudiada, y se conoce un gran conjunto de resultados teóricos alrededor de ella. Para muchos instrumentos teóricos(NOTA 7) la suposición de la normalidad simplifica enormemente los cálculos.(NOTA 8) Deberíamos decir aquí, en defensa de L. Bachelier, que el exiguo número de datos que utilizó en sus cálculos y la ausencia de computadoras digitales en la época en que los desarrolló, le indujeron sin duda a aventurar la hipótesis de que las diferencias de los precios en los mercados seguían una distribución normal.
Por supuesto, hay bastante evidencia de que esto es falso. La primera de ellas es que la función de distribución de las diferencias de precios tiene “colas” más gruesas que la normal. Si las diferencias de precios siguieran una distribución normal, la probabilidad del crash de octubre de 1987 sería del orden de 10-35. En otras palabras, grandes cambios en los valores de los precios son mucho más probables que lo que una distribución normal predice. Esto puede apreciarse con facilidad en la figura 1. En ella aparecen tres curvas. La parábola representa el logaritmo de la función de distribución normal. La curva construida con círculos representa la distribución empírica. Como puede verse es mucho mayor la probabilidad de ocurrencia de un cambio de precios grandes en la distribución real que en la distribución normal. Por otra parte, si las diferencias de precios tienen una distribución normal, entonces la  volatilidad, que no es más que la desviación estándar de las mismas debe ser proporcional a la raíz cuadrada del intervalo de tiempo utilizado para calcularla.(NOTA 9) En otras palabras, debe cumplirse la siguiente relación:

FIGURA 1. Distribución empírica y teórica IPC 1999

Si representáramos en escala logarítmica ambas magnitudes (σ y t ) deberíamos ver una recta, de pendiente 1/2, que representa el comportamiento teórico y una gráfica muy cercana a la misma, representando el comportamiento empírico. Como puede verse en las figuras 2a, 2b, 2c y 2d, existe una divergencia entre los valores empíricos y los teóricos tanto para índices financieros y rendimientos de bonos como para tipos de cambio.
Los resultados anteriores hacen razonable abandonar la hipótesis de la normalidad de las diferencias de precios. Pero esto pone en tela de juicio, desde el punto de vista teórico, la HME y otros supuestos básicos de la teoría establecida, tales como la racionalidad de los agentes económicos. Por lo tanto, surgen de manera natural un grupo de preguntas:

  1. ¿Cuál es la auténtica función de distribución de los precios en los mercados?
  2. ¿Existe alguna posibilidad de predicción de los grandes cambios en los precios de los activos financieros? Más precisamente, ¿son previsibles los crashes?
  3. ¿Cómo modelar el comportamiento real de los agentes económicos, incorporando una actuación más humana, matizada por dudas, falta de información, etcétera?

FIGURA 2a. Logaritmo del número de días vs. logaritmo de la desviación estándar para el Dow Jones (1995-1999)



FIGURA 2b. Logaritmo del número de días vs. logaritmo de la desviación estándar para el bono de 5 años de la Reserva Federal (1995-1999)



FIGURA 2c. Logaritmo del número de días vs. logaritmo de la desviación estándar para el tipo de cambio marco alemán vs. dólar(2000-2002)



FIGURA 2d. Logaritmo del número de días vs. logaritmo de la desviación estándar para el tipo de cambio libra esterlina vs. dólar (2000-2002)

Para la primera pregunta existen ya algunas respuestas preliminares importantes. R. Mantenga y E. Stanley propusieron(NOTA 10) un nuevo mecanismo para la explicación del comportamiento de las diferencias de precios en los mercados: los vuelos de Levy truncados,(NOTA 11) que designaremos en lo sucesivo VLT. Con esta nueva distribución, Mantenga y Stanley conservaban las buenas propiedades de las distribuciones de tipo Levy, evitando que la varianza fueran infinita. En otro trabajo de Stanley y Mantenga(NOTA 12) se demuestra que el centro de la distribución de las diferencias de precios de muchos activos financieros se ajusta muy bien a un VLT. A partir de una determinada diferencia de precios (tanto a la izquierda como a la derecha de la distribución) la distribución empírica se comporta como 1/d***, donde el exponente a ≈ 3.
Han aparecido algunos trabajos donde se estudia la posibilidad de suavizar el corte abrupto hecho en las colas. Por ejemplo, I. Koronen(NOTA 13) propuso ponerle colas que decayeran muy rápidamente (de forma exponencial en su trabajo) a una distribución de Levy truncada.
Para la segunda pregunta se han encontrado ciertos resultados interesantes. Uno de ellos está relacionado con la física de los terremotos. Se ha logrado establecer que cada gran terremoto es antecedido por ciertos movimientos telúricos menores conocidos como precursores. Existe una magnitud que posee información relevante acerca de los precursores y que ha sido muy bien estudiada. Nos referimos al índice cumulativo de Benioff, que no es más que la raíz cuadrada de la energía disipada por un sismo.(NOTA 14) Si fuese posible identificar los parámetros de la distribución de Benioff a partir de valores experimentales de movimientos telúricos, se podría tener un valor aproximado del momento tc en que ocurrirá el terremoto. Obviamente, esto, en general, no ha sido posible.
¿Cómo se enlaza lo anterior con el comportamiento de los mercados? Junto a los crashes, existen otros comportamientos de las series temporales de los precios conocidos como burbujas, que no son más que subidas sostenidas de los precios durante largos intervalos de tiempo. Las burbujas suelen formarse por un proceso de auto-reforzamiento en las opiniones de los agentes. Si estos han  previsto que los precios van a subir, aumentan las compras y por tanto se incrementan los precios de los activos financieros. Este clima tiende a deteriorarse cuando noticias exógenas a los mercados o apreciaciones de los propios agentes provocan cautela o decisiones en la dirección contraria. Como bien decía Keynes todas las caídas del mercado están sobrevaluadas por el pánico de los inversionistas.(NOTA 15) En este escenario los crashes se producen cuando los agentes en grupo comienzan a vender, derrumbando los precios.
Teniendo en mente las ideas anteriores, dos equipos de investigadores,(NOTA 16), (NOTA 17) propusieron de manera simultánea un modelo similar para la explicación del comportamiento de los índices financieros antes de los crashes, así como el pronóstico del momento de ocurrencia de los mismos. De ambos grupos, sin duda alguna el formado por A. Johansen y D. Sornette ha realizado el trabajo más relevante y sostenido en esta temática. En referencia al crash de NASDAQ del 14 de abril del año 2000 en particular, hicieron una excelente predicción de la fecha en que ocurriría la brusca caída de los valores tecnológicos. (NOTA 18)
En lo que respecta a este tema, existe otra prometedora línea de investigación que estudia la complejidad algorítmica de ciertas series simbólicas binarias(NOTA 19) generadas a partir de las series temporales de los precios.(NOTA 20), (NOTA 21), (NOTA 22) Si bien aún no se tienen resultados concluyentes, se ha obtenido evidencia de que la complejidad algorítmica de las series temporales de los precios aumenta antes de la ocurrencia de los crashes.
En lo que se refiere a la tercera pregunta, existe un amplio espectro de investigaciones que va desde la utilización de los vidrios de spin hasta estudios con grupos humanos sometidos a condiciones similares a las que tienen los inversionistas en los mercados. Como resultado de estas investigaciones ha quedado claro que la racionalidad de los agentes económicos en el momento de la toma de decisiones es, en general, objetable debido fundamentalmente al incompleto acceso a la información. En ocasiones este hecho se ve agravado además por una asimetría en la adquisición de la misma. Tales investigaciones están siendo cada vez más aceptadas por la comunidad de economistas tradicionales. Baste decir que en los últimos años se han entregado al menos dos premios Nobel relacionados con la temática.
Para concluir con la primera parte de este capítulo, quisiéramos resaltar la elevada complejidad de los fenómenos bajo estudio, cuya completa comprensión y modelación no ha sido aún alcanzada. Este es un hecho de la más elevada importancia práctica para el buen gobierno de una nación y, en particular, para un sistema de salud.
Pasaremos al segundo tópico central de este capítulo. Las epidemias son, por su inesperada aparición y descontrolado crecimiento, fenómenos que obligan a cualquier sistema de salud a un esfuerzo inusitado y súbito. Su pronóstico y control es, por lo tanto, un asunto de la más alta importancia para cualquiera de estos sistemas. No es de extrañar entonces que desde épocas remotas se desarrollaran intentos por describir su comportamiento. (NOTA 23)
Los modelos matemáticos dedicados a la descripción de los fenómenos epidémicos se dividen en dos grandes grupos: deterministas y estocásticos.(NOTA 24) Para dar más claridad a la exposición nos referiremos aquí solo a los deterministas, aunque buena parte de nuestras aseveraciones resultan también válidas para los estocásticos.
Existe dentro de los modelos deterministas una nueva división entre continuos y discretos. Los continuos son modelos descritos por sistemas de ecuaciones diferenciales, tanto parciales como ordinarias, mientras que los discretos suponen que el tiempo toma sólo valores discretos (días, meses, generaciones, etcétera).
Dentro del conjunto de los modelos continuos, la suposición fundamental que determina la utilización de uno u otro tipo de ellos (ecuaciones ordinarias o en derivadas parciales) es el grado de mezcla que los diferentes grupos poblaciones (susceptibles, infectados, etc.) tienen dentro de la comunidad de habitantes. Si los grupos anteriores están perfectamente bien mezclados, esto es, si la densidad de cada uno de ellos dentro de la población no dependen de la localidad geográfica, entonces se utilizan modelos construidos a partir de sistemas de ecuaciones diferenciales ordinarias. Si los diferentes grupos de habitantes no están bien mezclados, la herramienta adecuada son los sistemas de ecuaciones diferenciales en derivadas parciales. La idea original que sugirió el uso de este  tipo de ecuaciones proviene de la física, pues cuando los grupos poblacionales no están bien mezclados, la propagación de la epidemia sigue un proceso similar a la difusión del calor en un material conductor.
Es bien conocido que el mecanismo que genera los dos escenarios anteriores (mezcla perfecta o proceso difusivo) es la longitud del camino medio recorrido por los habitantes. Para ser más preciso, si el desplazamiento promedio de los miembros de la población es pequeño, en relación con las dimensiones del espacio geográfico donde se desarrolla el proceso epidémico, la herramienta adecuada para describir la propagación de la enfermedad es la de ecuaciones en derivadas parciales. Por otra parte, si el desplazamiento promedio de los miembros de la población es similar a las dimensiones del espacio geográfico donde se desarrolla el proceso epidémico, entonces deben usarse ecuaciones ordinarias para describirlo. Básicamente es esta magnitud, la longitud del camino medio recorrido, la que produce la mezcla entre infectados y susceptibles, propagando la epidemia. Por último y no menos importante, entre las hipótesis necesarias para la deducción de estas ecuaciones se encuentra la suposición de que los miembros de la población se mueven aleatoriamente. Como discutiremos más adelante, esta suposición es falsa para conglomerados humanos.
Sin embargo, en muchas situaciones reales, el movimiento de los miembros de la población no se ajusta a ninguno de los dos escenarios discutidos anteriormente. Para una ciudad como el Distrito Federal, por ejemplo, esto es completamente obvio. Por lo tanto, ninguno de los modelos anteriores se ajusta exactamente a la situación real. Por otra parte, la hipótesis de la aleatoriedad del movimiento de los miembros de la población tampoco es cierta. Buena parte de los habitantes tienen rutinas diarias (escuelas, trabajos, etc.) que cumplen estrictamente. Así, las suposiciones fundamentales para la correcta utilización de los modelos anteriores quedan en la realidad incumplidas.
Por fortuna la enorme capacidad actual de las computadoras digitales ha permitido desarrollar modelos más realistas basados en otras técnicas, en particular en los autómatas celulares.(NOTA 25) Los trabajos precursores en la utilización de estos modelos para la descripción de los procesos epidémicos aparecieron a principios de la década de los años noventa del siglo pasado.(NOTA 26), (NOTA 27), (NOTA 28) No obstante en ninguno de ellos se eliminaba la aleatoriedad del movimiento de los miembros de la población.
En trabajos posteriores (NOTA 29) se ha demostrado que esta hipótesis puede ser eliminada, al menos para las enfermedades infecciosas por contacto. Además el modelo construido en ellos posee una regla de movimiento determinista que describe perfectamente las particularidades del desplazamiento espacial de los individuos en una población. Más aún, como veremos más adelante, para ciertos casos extremos de la longitud del camino medio recorrido por los habitantes, se obtienen comportamientos susceptibles de ser descritos por sistemas de ecuaciones ordinarias o en derivadas parciales. En conclusión, este modelo generaliza a todos los anteriores que se ocupan de enfermedades infecciosas por contacto y brinda una posibilidad realista de ejecución en situaciones concretas.

FIGURA 3


FIGURA 4



Pasaremos a continuación a una descripción detallada del mismo. Este modelo está compuesto por dos reglas de autómata, una de movimiento y otra de infección. La primera describe el desplazamiento espacial de los miembros de la población. Es decir, describe la traslación diaria de los individuos, considerando la periodicidad de sus movimientos de ida y regreso a sus hogares. Una representación esquemática de la misma puede verse en la Figura 3. La segunda regla describe el proceso de contagio por contacto. En ella, un individuo infectado contagia con una cierta probabilidad a sus vecinos más cercanos. Esta probabilidad representa la morbilidad de la enfermedad bajo estudio. Una representación esquemática de esto puede verse en figura 4.
La conjunción de estas dos reglas permite describir el proceso infeccioso. Entre los parámetros que se pueden ajustar en el modelo se encuentra la longitud del camino medio recorrido por los miembros de la población. Para valores grandes del mismo los resultados se ajustan con sistemas de ecuaciones diferenciales ordinarias. Una simulación computacional de esta situación puede verse en la secuencia de Figuras 5, 6 y 7. Para valores pequeños del mismo el comportamiento del proceso infeccioso producido por el modelo puede ser descrito por ecuaciones diferenciales en derivadas parciales. Una simulación computacional de esta situación puede verse en la secuencia de Figuras 8, 9 y 10.
Sin embargo, las situaciones más interesantes ocurren cuando la longitud del camino medio recorrido por los miembros de la población no es tan pequeña para que el proceso pueda ser descrito por ecuaciones diferenciales en derivadas parciales, ni tan grande como para que los modelos en ecuaciones diferenciales ordinarias sean adecuados. En estos casos, si agregamos que la enfermedad tiene una duración determinada (como la gripa, por ejemplo) y que los habitantes no son inmunes ante ella, se puede demostrar que la serie temporal de los enfermos tiene comportamiento caótico, para algunos valores de los parámetros. Tal vez esta sea una posible explicación de la endemicidad de algunas enfermedades.

FIGURA 5

FIGURA  6

FIGURA 7

FIGURA 8

FIGURA 9

FIGURA 10


En lo que se refiere al desplazamiento espacial, estos casos intermedios son, como hemos discutido con anterioridad, los más comunes. Por lo tanto, la evolución diaria de algunas enfermedades contagiosas por contacto pueden tener un comportamiento caótico. Al menos existe evidencia real de este comportamiento en epidemias de gripa en Dinamarca. Tal situación hace extremadamente difícil su predicción y, por tanto, la ejecución de medidas para su control. Si agregamos a lo anterior que la puesta en práctica de estas medidas por parte de las autoridades sanitarias puede estar condicionada a situaciones económicas inciertas como las descritas en la primera parte de este capítulo, resulta clara la importancia de un adecuado manejo de los recursos financieros dedicados al sistema de salud.
En conclusión, la tarea de la planificación financiera de los recursos de un sistema de salud en las condiciones del mundo actual es un fenómeno de elevada complejidad. En ella intervienen de manera relevante las fluctuaciones de los mercados y su correspondiente influencia en la ejecución de tareas de emergencia para un sistema de salud. Tal y como hemos descrito más arriba, ambos aspectos pueden tener una elevada complejidad. Las teorías actualmente admitidas para su estudio son incompletas y en ocasiones poco satisfactorias. Se impone, pues, desarrollar una visión que esté a la altura del alto nivel de la complejidad de los fenómenos en cuestión. Los paradigmas de la teoría de lo sistemas complejos son sin duda una prometedora herramienta para su solución.


 


(NOTA 1) Del libro: Las ciencias de la complejidad y la innovación médica, Coordinadores: Enrique Ruelas y Ricardo Mansilla, México, Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, Universidad Nacional Autónoma de México, Secretaria de Salud, Plaza y Valdés, S.A. de C.V., 2005
(al texto)
(NOTA 2) Obtuvo su doctorado en matemáticas en la Universidad de la Habana, Cuba en 1997, además de una maestría en ciencias  económicas en la Universidad de Carleston, Canadá,  en 1988. Realizó una estancia posdoctoral en el Instituto de Física de la UNAM, entre 1988 y 2000. Actualmente es el coordinador del Programa de Ciencia y Tecnología del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades de la UNAM. Sus intereses científicos se relacionan con la estructura del ADN, complejidad de las series de tiempo financiero y la modelación computacional como fenómenos sociales.
(al texto)
(NOTA 3) Los viajes de navegación de finales del siglo XV y sus consecuencias posteriores fueron sin duda un intento globalizador.
(al texto)
(NOTA 4) No es cierto que Leeuwenhoek haya inventado el primer microscopio. Zacharias Jansen había construido al menos uno de estos instrumentos en 1595.
(al texto)
(NOTA 5) Existe un excelente libro sobre este tema que recomendamos al lector: H. R. Pagels (1991), Los sueños de la razón. Barcelona: Editorial Gedisa.
(al texto)
(NOTA 6) Muchas personas han hecho una ilustre carrera académica suponiendo esto.
(al texto)
(NOTA 7) En particular para la fórmula de Black y Scholes.
(al texto)
(NOTA 8) El trabajo de Blach y Scholes fue generalizado por el laureado premio Nobel de Economía R. Merton. Un excelente estudio de esta teoría sin hacer uso de la hipótesis de normalidad puede verse en: S.I. Boyarchenko y S. Z. Levendorsky (2002), “Non-gaussian Merton-Black-Scholes theory”. World Scientific.
(al texto)
(NOTA 9) Un estudio detallado de este tema puede encontrarse en E. E. Peters (1994), Fractal markets analysis. New York: John Wiley & Sons.
(al texto)
(NOTA 10) R. N. Mantegna y H. E. Stanley (1994), “Stochastic process with ultraslow convergence to a gaussian: The truncated Levy flight”. Physical Review Letters, 73(22): 2946-2949.
(al texto)
(NOTA 11) Se denomina vuelos de Levy a una caminata aleatoria donde los “pasos” son dados con longitudes tomadas de una función de distribución de tipo Levy. En las caminatas aleatorias, de las que hemos hablado con anterioridad en este capítulo, los “pasos” son dados con longitudes tomadas de una distribución normal.
(al texto)
(NOTA 12) R. N. Mantegna y H. E. Stanley (1995), “Scaling behavior in the dynamics of an economic index”. Nature, 376: 46-49.
(al texto)
(NOTA 13) I. Koronen (1995), “Analytic approach to the problem of convergence of truncated Levy flight towards the guassian stochastic process”. Physical Review E., 52: 1197-1199.
(al texto)
(NOTA 14) El comportamiento de este índice con respecto al tiempo antes de la ocurrencia de un sismo de gran magnitud se expresa con la siguiente ecuación:
ε(t) = A ‒ B(tc ‒ t)m[1 + C cos(ωln(tc ‒ t) + ϕ)]
donde A, B, C, ϕ y m son constantes, el número ω es la frecuencia de las oscilaciones y tc es el valor crítico del tiempo, es decir, el instante cuando ocurrirá el sismo.
(al texto)
(NOTA 15) Los inversionistas son la especie más asustadiza del planeta.
(al texto)
(NOTA 16) D. Sornette, A. Johansen y J. P. Bouchaud (1996). “Stock markets crashes, precursors and replicas”. Journal of Physics I France, 6: 167-175. Una versión preliminar de este trabajo apareció en el servidor del Laboratorio Nacional de Los Álamos el 6 de octubre de 1995.
(al texto)
(NOTA 17) J. A. Feigenbaum y P. G. O. Freund (1995). “Discrete scaling in stock markets before crashes”. Este trabajo apareció en el servidor del Laboratorio Nacional de Los Álamos el 6 de septiembre de 1995.
(al texto)
(NOTA 18) A. Johansen y D. Sornette (2000), “The NASDAQ crash of April 2000: yet another example of log-periodicity in a speculative bubble ending in a crash”. Euro Physics Journal B, 17: 319-328. Este artículo apareció en el servidor del Laboratorio Nacional de Los Álamos el 17 de abril de 2000.
(al texto)
(NOTA 19) La idea de traducir una serie temporal de precios en una serie binaria no es muy novedosa. Existe un conocido test para decidir si una serie de precios se parece a una caminata aleatoria llamado test de Cowles y Jones. Al lector interesado lo remitimos a: A. Cowles y H. Jones (1937), “Some a posteriori probabilities in stock market actions”. Econometrica, 5.
(al texto)
(NOTA 20) R. Mansilla (2000), “Algorithmic complexity in minority game”. Physical Review E, 62 (4): 4553-4557.
(al texto)
(NOTA 21) R. Mansilla (2000), “From naïve to sophisticated behavior in multiagents-based financial market models”. Physica A, 248: 478-488.
(al texto)
(NOTA 22) R. Mansilla (2001), “Algorithmic complexity in real financial markets”. Physica A, 301: 483-492. Una versión preliminar del artículo anterior apareció publicado en el servidor del Laboratorio Nacional de Los Álamos el 24 de abril de 2001 (http://arxiv.org/abs/cond-mat/0104472).
(al texto)
(NOTA 23) Si bien el primer intento de comprensión de un fenómeno epidemiológico se inicia con Hipócrates, 400 años antes de Cristo, la primera formulación matemática de un suceso de este tipo es debida a D. Bernoulli en 1760 a propósito de una epidemia de viruela.
(al texto)
(NOTA 24) Se denomina determinista a un modelo en el cual su historia futura queda totalmente determinada por la situación actual. La mayoría de los modelos deterministas se escriben en término de ecuaciones diferenciales, aunque existen también formulaciones discretas de los mismos.
(al texto)
(NOTA 25) Los autómatas celulares son modelos dinámicos computacionales donde tanto el tiempo como el espacio son discretos. Podemos imaginárnoslos como un tablero infinito de ajedrez donde cada casilla se encuentra en uno de varios estados posibles, que evolucionan a lo largo del tiempo en dependencia de los estados de sus casillas circundantes. Una introducción, exageradamente pródiga a los mismos, la constituye la obra: S. Wolfram (2002), A new kind of science. Wolfram Media Inc.
(al texto)
(NOTA 26) N. Boccara y K. Cheong (1992), “Automata network SIR models for the spread of infectious disease of moving individuals” Journal of Physics A, 25.
(al texto)
(NOTA 27) N. Boccara y K. Cheong (1993), “Critical behavior of a probabilistic automata network SIS model for the spread of an infectious disease in a population of moving individuals”. Journal of Physics A, 26.
(al texto)
(NOTA 28) N. Boccara, K. Cheong y Oram, M. 1994. “A probabilistic automata network epidemic model with births and deaths exhibiting cyclic behavior”. Journal of Physics A, 27.
(al texto)
(NOTA 29) R. Mansilla y J. L. Gutierrez (2001), “Deterministic site exchange celular automata models for the spread of diseases in human settlements”. Complex Systems, 13.
(al texto)

Fecha de publicación abril 2007