Sistemas complejos


CONTRIBUCIÓN DE LA FÍSICA DE LOS SISTEMAS COMPLEJOS AL ESTUDIO DE FENÓMENOS SOCIALES (NOTA 1)

Dr. Octavio Miramontes(NOTA 2)

[Agradecemos a los doctores Enrique Ruelas y Ricardo Mansillas, coordinadores del libro, así como al Dr. Javier Rosado Muñoz y al autor del artículo la autorización para su publicación.]

El estudio de los fenómenos sociales es hoy en día un tema de interés para la física, concretamente para la física de los fenómenos complejos. A pesar de la naturaleza de estos fenómenos, tradicionalmente reservados a otras disciplinas como la psicología, la sociología, la historia, la economía, etc. también la física tiene mucho que decir hoy al respecto, a tal punto de que existen subdisciplinas tales como la econofísica y la sociofísica. Pero los sistemas complejos no solamente se interesan por los fenómenos sociales de la naturaleza humana, sino también por las sociedades de otros seres vivos, desde los primates hasta las bacterias e inclusive de plantas. No puede dejar de mencionarse el hecho de que también las sociedades artificiales son potenciales sujetos de estudio: los robots, las criaturas digitales en un computador o el ciberespacio e incluso las posibles sociedades extraterrestres, si éstas se encuentran algún día. ¿Cómo puede ser esto posible? La ciencia de los sistemas complejos se interesa por el fenómeno social como una propiedad emergente de un colectivo de individuos en interacción sin importar demasiado los detalles materiales de tales individuos. Por ello el estudio de los fenómenos sociales resulta ser, como lo es en sí el estudio de la complejidad, una ciencia profundamente interdisciplinaria.

Correlaciones de largo alcance en el genoma humano (NOTA 1)

Dr. Ricardo Mansilla
Dr. Nelson del Castillo
(NOTA 2)

[Agradecemos a los doctores Enrique Ruelas Barajas, Ricardo Mansilla, Javier Rosado,  coordinadores del libro, así como al autor del artículo la autorización para su publicación.]

Sin duda alguna, el descubrimiento del código genético es una de las conquistas científicas más notables alcanzadas por nuestra civilización. Solamente transcurrieron 53 años desde el seminal trabajo de J. Watson y F. Crick(NOTA 3) hasta el extraordinario logro intelectual de la secuenciación del genoma humano.(NOTA 4) No obstante, en ese breve lapso, nuestra cultura logró una comprensión primordial de la molécula que rige los aspectos fundamentales de la replicación de buena parte de los seres vivos. El alcance del conocimiento acumulado nos coloca en una encrucijada donde se avizoran extraordinarios progresos en muchas ramas de la medicina, las ciencias forenses, la antropología, la fabricación de fármacos, etc. En contraparte, estos logros extraordinarios tienen una cara opuesta relacionada con dilemas esenciales para nuestra especie: la clonación de seres vivos, la manipulación genética de alimentos y el uso perverso del pronóstico de enfermedades degenerativas, los cuales ponen a la humanidad ante disyuntivas de alcances éticos, jurídicos y filosóficos nunca antes vistos.

En opinión del físico de origen ruso G. Garnov, el trabajo de J. Watson y F. Crick, “incorporó la biología al conjunto de las ciencias exactas”,(NOTA 5) y dio inicio a una etapa de acumulación de datos genéticos que ha culminado con la completa secuenciación de muchos genomas, en particular el del ser humano y el del chimpancé. A partir de esto hemos comprendido, en principio, lo que sería el hardware de la molécula de la vida. No obstante, sólo se ha logrado alcanzar una mínima comprensión de la manera como funciona el software de la misma. Si bien los procesos moleculares de edición y trascripción se conocen muy bien, la compleja maquinaria del metabolismo celular, constituida por una intrincada red de reacciones funcionales, está lejos de ser bien comprendida. Además, se desconoce buena parte de las funciones del genoma de los organismos eucariotes. Se puede citar como ejemplo, en particular, el caso del genoma humano del cual sólo el 5%, aproximadamente, codifica para la producción de proteínas o participa en otros procesos de regulación, mientras que las funciones del 95% restante, si las tienen, no son conocidas. Más aún, es bien sabido que los cromosomas humanos son muy diferentes, uno de otro, en cuanto a tamaño, densidad de genes y características estructurales.(NOTA 6)

Otro aspecto importante en el estudio de la molécula de la vida es el relativo a la interacción de sus características estructurales y funcionales, así como al de su historia evolutiva. Desde sus versiones primigenias hasta los actuales genomas, las mutaciones han influido en la composición de su estructura. Estas últimas han tenido que rivalizar con las funciones de las secuencias que afectan. Si bien algunas de ellas se han incorporado de manera definitiva a la secuencia de los nucleótidos, otras han ocasionado la muerte de los organismos en los cuales han aparecido. En cierto sentido, la evolución de la molécula de ADN es resultado de la historia de la interacción entre las mutaciones que ha sufrido y la adaptación de los organismos de los que forma parte.
Es importante mencionar que, una vez que fueron secuenciados los primeros sectores de algunos genomas, se iniciaron estudios sobre la estructura de los mismos. Estos trabajos fueron básicamente de carácter estadístico,(NOTA 7) y se enfocaron en especial a la investigación de las propiedades elementales de las secuencias, tales como la frecuencia de aparición de los nucleótidos y de ciertos dímeros, en particular el contenido de citosina y guanina.
El conocimiento de la estructura cromosómica en los organismos eucariotes estimuló la investigación de correlaciones entre nucleótidos separados a diferentes distancias en una misma cadena. Dicho estudio se emprendió para entender la complicada estructura espacial de varios niveles de solenoides en los que se encuentra empaquetado el ADN en los cromosomas, lo que hace que nucleótidos separados a distancias grandes sobre la cadena lineal puedan estar próximos en la estructura cromosómica. En otras palabras, se planteó que debían existir correlaciones entre diferentes nucleótidos situados a grandes distancias. Por lo mismo, como veremos más adelante, se supuso que cabría esperar un comportamiento cuasi periódico en la estructura de las secuencias genéticas.
La primera referencia(NOTA 8) que apareció en la literatura especializada, en torno a las correlaciones de largo alcance en el ADN se abocó a describir éstas a partir de las funciones de autocorrelación de los diferentes nucleótidos, considerando la secuencia de los mismos como un texto; habida cuenta de que se trata de una cadena de símbolos (A , C , G , T ) y se pretende obtener una medida numérica de la correlación.
En la literatura se ha reportado que existen al menos siete maneras diferentes de codificar las cadenas de nucleótidos,(NOTA 9) conforme a la fortaleza del enlace entre los mismos (dos o tres puentes de hidrógeno, ver figura 1), el tipo de las bases (purina o pirimidina), etc. Por ejemplo, si elegimos la siguiente codificación:

A, T → 1
C, G → 2

se obtiene una cadena de nucleótidos como la que sigue:

---AGCGCGATAGCTATATCGGATGCGATAGCGATAGCGAT----

que se convierte en la siguiente cadena de números:

-----12222211122111111222211222211122211122211-----

Así, la función de autocorrelación de la cadena anterior se define de la siguiente manera:

donde Pαβ es la probabilidad de encontrar el símbolo α separado del símbolo β a una distancia d, y  es la probabilidad de hallar el símbolo α en la cadena  y Є{1,2} .


Figura 1. Vista esquemática de una porción de la molécula de ADN. La estructura dentro del cuadro es un nucleótido compuesto por un grupo fosfato, un azúcar y una de las cuatro posibles bases: Adenina, Citosina, Guanina y Timina. En la parte superior aparece una descripción más precisa de los nucleótidos, donde se aprecian los puentes de hidrógeno que forman los "peldaños" de la doble hélice del ADN. Nótese que la Adenosina y la Guanina son moléculas más grandes que la Citosina y la Timina, los números 3' y 5' representan los carbonos 3 y 5 de los anillos de Desoxyribosa.

Si nucleótidos separados a gran distancia en la cadena lineal debían tener afinidad electroquímica para garantizar el empaquetamiento del ADN en la estructura cromosómica, cabría esperar un comportamiento cuasi periódico de la función anterior como se muestra en la figura 2. Entonces valores altos de esta función indicarían una correlación fuerte a la distancia correspondiente; mas, como se sabe, en realidad ocurre algo diferente.
Para asombro de todos, la propiedad que ofrecieron los primeros estudios de este tipo(NOTA 10) fue que la función de autocorrelación parecía seguir una ley de potencias:

Como veremos más adelante, esto es apenas una primera aproximación, pero de cualquier manera generó una serie de trabajos que proponían analogías, algunas muy aventuradas y otras muy fructíferas entre el comportamiento de las secuencias de nucleótidos y otros fenómenos físicos, tales como la transmisión de datos, computación al borde del caos, invarianza de escala en las estructuras, etc. Discutiremos a continuación con cierto detalle las más relevantes para esta exposición.
Como hemos dicho antes, se tenía un conocimiento aceptable del hardware del ADN, pero su software era prácticamente desconocido. Esta analogía iba mucho más allá, pues en la molécula de ADN se encuentra codificada la información que genera todas las estructuras de los seres vivos. La maquinaria molecular “calcula” las proteínas a partir de los inputs encriptados en la secuencia de ADN. Por ende, el intento de usar conceptos tomados de la teoría de la computación estaba razonablemente justificado.


Figura 2. Aspecto esperado de la función de autocorrelación para una secuencia genética, habida cuenta de que el ADN se encuentra empaquetado en los cromosomas en una estructura de varios niveles de solenoide, por lo que se supuso que era de esperar que nucleótidos cercanos entre sí en esa estructura estuviesen separados a gran distancia sobre la cadena lineal. En consecuencia, debían de existir correlaciones de largo alcance entre nucleótidos; pero, como se sabe, no sucede así entre los mismos a diferentes distancias, entonces podría codificarse la secuencia de nucleótidos en una secuencia numérica.

En este sentido fue muy influyente el trabajo de C. Langton,(NOTA 11) el cual mostró cómo ciertas estructuras computacionales, llamadas autómatas celulares, tenían transiciones de fase similares en su comportamiento a las de algunos fenómenos físicos. En dichas transiciones se observó invarianza de escala en algunas de sus propiedades. En su caso, emergían procesos de cómputo basados en la cooperación de diferentes células del autómata. Langton utilizó la función de información mutua para medir la correlación entre las células participantes.
El concepto de función de información mutua apareció por primera vez en el notable trabajo original de Claude Shannon.(NOTA 12) Más tarde, sus resultados fueron generalizados por varios matemáticos soviéticos a los alfabetos abstractos, lo que culminó en el trabajo de R. L. Dobrushin.(NOTA 13) La idea original era medir la incertidumbre promedio entre diferentes puntos de un canal de comunicación, pero, como ocurre con frecuencia, con las ideas brillantes se introdujo en otros campos de investigación. Se define como sigue:
Sea  , donde ai Є{0,1}. Llamamos función de información mutua de la cadena x a:

donde Pα'β (d) y Pα tienen el mismo sentido que para la función de autocorrelación definida con anterioridad. Conviene aclarar aquí, que la función de información mutua es más sensible que la de autocorrelación,(NOTA 14)es decir, logra detectar correlaciones aun cuando la función de autocorrelación no las detecta.
Langton mostró la interesante propiedad según la cual los valores de la función de información mutua eran más altos para determinados niveles de la entropía de Boltzman-Shannon:

Este último hecho revistió la mayor importancia, pues como se sabe,(NOTA 15) el almacenamiento de información disminuye la entropía mientras que su transmisión la aumenta. Si un sistema computa, debe realizar ambos procesos y en consecuencia tiene que ocurrir un balance entre los dos mecanismos antagónicos. El trabajo de Langton mostró que esto ocurría exactamente en la transición de fases del sistema.(NOTA 16)
Por tanto, el comportamiento de la función de autocorrelación de las secuencias de ADN, como una ley de potencia, parecía ser el rastro de los procesos de cómputo que la molécula realizaba.
Lo anterior enfrentó a los investigadores con la inevitable pregunta: ¿cuál mecanismo daba lugar a este comportamiento? Más precisamente, ¿cuáles características de la historia evolutiva del ADN eran responsables de la conducta observada en la función de autocorrelación de las secuencias de nucleótidos?
En lo que atañe a este tema fue muy relevante el trabajo de A. Lindenmayer,(NOTA 17)quien buscó crear un marco teórico para explicar el desarrollo de tejidos celulares a partir de la interacción local de éstas. Su enfoque tenía mucho en común con ciertos aspectos de la teoría de la computación, en particular con los lenguajes libres de contexto. Si bien su trabajo no tenía la intención de describir el proceso de mutaciones en las secuencias de ADN, brindó, sin duda, una referencia teórica adecuada para la construcción de modelos posteriores.
W. Li(NOTA 18) fue uno de los que los desarrolló en un estudio que proponía modelos muy generales cuya finalidad consistía en describir el surgimiento de estructuras con espectro espacial de tipo  . No obstante, como se expone más adelante, algunos casos particulares sugerían una posible explicación para las correlaciones de largo alcance en el ADN.
El concepto fundamental de su trabajo se refiere a los sistemas de expansión-modificación, que se exponen enseguida brevemente.
Denotemos con Ω el conjunto de todas las cadenas binarias infinitas. Esto es, si   x Є Ω, entonces  , donde ai Є{0,1}. Sea ahora  una aplicación estocástica definida como sigue:
Si x Є Ω,  , entonces cada dígito binario de x evoluciona por medio de  en la siguiente manera:(NOTA 19)

Nótese que si x Є Ω, entonces  :(x) Є Ω. El mecanismo anterior amplía la longitud de la cadena en cada posición con probabilidad 1 — p, y la modifica con probabilidad  p. El proceso de expansión tiende a aumentar la correlación entre los dígitos binarios, mientras que el de mutación de un dígito binario en otro tiende a destruirla.
Al hacer algunas aproximaciones bastantes audaces en el trabajo de W. Li podía mostrarse que, en efecto, la función de autocorrelación se comportaba como una ley de potencias, esto es:

además, este estudioso encontró una relación analítica entre el exponente ε y la probabilidad de mutación p antes descrita:

donde d0 es la distancia más probable a la que dos elementos de la cadena simbólica se separan, k corresponde al factor de dilatación promedio de toda la cadena y   viene a ser valor propio dominante de la matriz de transición de estados de la distancia d1 a la distancia d2 en un sistema de Lindenmayer libre de contexto (ver referencia 14). En este sentido el trabajo de W. Li es un digno heredero de la formulación original de A. Lindenmayer.
La relación entre el exponente teórico calculado con la ecuación anterior y el exponente empírico obtenido de las simulaciones era relativamente buena en lo que respecta a valores pequeños de la probabilidad de mutación p, pero divergía notablemente para valores grandes (ver figura 4 de la referencia 15). Esto constituía una limitación importante de la aproximación obtenida.
¿Qué relación tenía todo esto con la evolución del ADN? A lo largo de su historia, desde las moléculas primigenias hasta las actuales, las mutaciones han afectado la estructura de las cadenas de nucleótidos. De todos los tipos de mutaciones reportados en la literatura, solamente las puntuales (esto es, cambio de un nucleótido por otro) y las inserciones (introducción en algún punto de la cadena de una secuencia de nucleótidos) tenían la capacidad de generar correlaciones de largo alcance con las características observadas en las secuencias reales de ADN. En este aspecto, el modelo de W. Li, antes descrito, captaba los ingredientes básicos de esta dinámica mutacional.
Como ya hemos dicho, el ansatz de que la función de autocorrelación era una ley de potencias no resultaba completamente satisfactorio, como tampoco para la función de información mutua. La razón básica era que tanto para valores muy pequeños como para los muy grandes de la distancia d, el comportamiento de la función real, esto es, calculada a partir de los datos y de la aproximación teórica, divergía.
Se sugirieron diversas hipótesis para explicar este fenómeno. En lo que respecta a los valores grandes de d el argumento favorito fue la finitud de los datos.(NOTA 20) No obstante, años más tarde, cuando ya existían genomas completamente secuenciados, se siguió observando esta divergencia entre los valores reales de la función y su aproximación teórica. Vale abundar que dicha divergencia era además estadísticamente consistente y robusta,(NOTA 21) tanto para las cadenas en las zonas codificadoras como en las no codificadoras del ADN. Por tanto, debía existir una explicación a este hecho. La más razonable(NOTA 22) era que el comportamiento de la función de autocorrelación o de información mutua fuera del tipo:



Es decir, que en vez de una sola ley de potencias, la suma de ellas, entre las cuales debía de haber un término predominante.
Años más tarde se logró hacer una demostración completa de esta hipótesis.(NOTA 23) A partir de la regla de expansión-modificación antes mencionada, que, como hemos dicho, captaba los ingredientes básicos de la dinámica mutacional del ADN, se obtuvo analíticamente una expresión para la función de autocorrelación como suma de leyes de potencia, la expresión analítica de sus exponentes, la expresión analítica de la expansión promedio de la cadena k en término de la probabilidad p de mutación y una expresión analítica asintótica de la distancia más probable de expansión. Esto último permitió obtener una expresión analítica del término predominante en la sumatoria de leyes de potencia. El acuerdo entre estos resultados teóricos y los resultantes de las simulaciones de sistemas de expansión-modificación es notable.(NOTA 24)
Por otra parte, algunos trabajos realizados sobre secuencias reales(NOTA 25) mostraban también un acuerdo importante entre la predicción teórica y los resultados obtenidos de manera empírica.
Todo el análisis anterior sólo centraba su atención en la incidencia de los dos tipos de mutaciones (que afectan la replicación de las secuencias simbólicas) que podían tener influencia en la formación de correlaciones de largo alcance en las mismas. No obstante, la molécula de ADN está compuesta por cuatro tipos de nucleótidos y su evolución se ha visto condicionada por presiones selectivas. De manera natural surgió la siguiente pregunta: ¿qué ocurre si los modelos antes expuestos se generalizan a alfabetos de cuatro letras y se toman en cuenta las restricciones selectivas?
El intento de extender estos modelos a alfabetos de cuatro letras conllevó dificultades técnicas intratables y, hasta donde sabe el autor de estas líneas, el problema aún no ha sido resuelto. En lo que respecta a la introducción de las restricciones selectivas era necesario precisar un criterio de adaptación de las cadenas simbólicas. Se puede demostrar(NOTA 26) que el vector P de las frecuencias de aparición de los diferentes dímeros, caracteriza a las secuencias de ciertas partes del ADN humano. Más aún, permite discriminar entre secuencias codificadoras y no codificadoras. Utilizando este vector como medida de adaptación de las secuencias de ADN, se desarrolló un modelo de simulación computacional(NOTA 27) que tenía en cuenta tanto la dinámica mutacional como las restricciones selectivas. Pasaremos a continuación a describirlo brevemente:
A partir de una población de cadenas compuestas por cuatro símbolos (A, C, G, T), cuya composición inicial era aleatoria se realizaron en torno a ellas todos los tipos de mutaciones con las frecuencias y características reportadas en la literatura. Las restricciones selectivas se simularon por medio de una adaptación de un algoritmo genético, el cual permitía la reproducción de estas cadenas en dependencia de su propio ajuste a la restricción selectiva representada por el vector P. Este proceso se repetía iterativamente.


Figura 3. Forma típica de la función de información mutua de cualquiera de los cromosomas humanos. El gráfico aparece en escala logarítmica, lo que permite observar varias pendientes. Implica la existencia de varios exponentes en la función. Compárese la parte final de esta figura con la parte final de la figura 1 del trabajo S. V. Buldyrev et al, “Long-range correlation properties of coding and noncoding DNA sequences: GenBank analysis”, Phys. Rev. E, 51, pags. 5084-5091, 1995. Para construir la función de información mutua, aquí representada utilizó el cromosoma 4 con más de 30,000,000 de pares de bases. Por tanto, la suposición de que ese comportamiento se debe a la finitud de los datos es insostenible.

Se calculó para la población de cadenas resultantes la función de información mutua (figura 3); los resultados obtenidos fueron muy similares a los que se obtienen en cadenas reales. Más aún, la composición de las cadenas en esta población varió ampliamente. Esto permitió arribar a dos conclusiones importantes:
a. La formación de correlaciones de largo alcance podía generarse bajo la presencia de un filtro selectivo basado en la estructura de dímeros.
b. Cadenas de composición muy diferentes en cuanto a su densidad de nucleótidos podían tener funciones de información mutua similares.
Cuando se realizó todo este trabajo teórico aún no se había secuenciado completamente el genoma humano, tarea que como se sabe se concluyó en el año 2001. Una vez que la secuencia del ADN humano estuvo disponible se inició el trabajo de calcular la función de información mutua de los diferentes cromosomas humanos,(NOTA 28) una tarea que ha requerido un extraordinario esfuerzo de cómputo. Los resultados se muestran en la figura 4.


Figura 4. Función de información mutua de los primeros 22 cromosomas humanos más el X y el Y. Obsérvese en primer lugar que todos tienen la misma forma y que sólo varía la intensidad de la correlación. Por otra parte, a pesar de que el gráfico no está en escala logarítmica se observan diferentes pendientes, lo que sugiere la existencia de más de un exponente.

Resulta en primer lugar notable el hecho de que todas las funciones de información mutua de los diferentes cromosomas tengan la misma forma. Para hacerlo más explícito, supongamos que tenemos una novela, en la cual en cada capítulo ocurre (como es de esperar) un suceso diferente. Tomemos ahora la sucesión de letras de cada capítulo y calculémosle la función de autocorrelación o la función de información mutua. ¿No sería muy sorprendente que todas ellas fueran iguales?
Lo anterior sugiere que la correlación entre las bases tiene los mismos patrones a pesar de las diferencias marcadas en las funciones, tamaño y estructura de los distintos cromosomas. Este hecho sugiere un mecanismo único de evolución estructural y refuerza la afirmación hecha en el inciso b) anterior. Otro aspecto interesante son las diferentes pendientes en diversos lugares de las curvas. Esto se observa con claridad a pesar de que la figura 4 no está en escala logarítmica, lo cual implica la existencia de más de un exponente como sugieren los modelos antes descritos.
Si las características anteriores dependieran de la evolución genética deberíamos de esperar que en organismos menos desarrollados que el ser humano hubiese diferencias perceptibles. El chimpancé es nuestro más cercano pariente evolutivo. En fecha reciente quedó completamente secuenciado su genoma(NOTA 29)y se ha iniciado el trabajo de calcular la función de información mutua de todos los cromosomas del mismo. Los resultados se muestran en la figura 5.


Figura 5. Función de información mutua de los primeros 23 cromosomas del chimpancé más el X y el Y. Nótese que existen algunas diferencias en los valores de la función para distancias comprendidas entre 2 y 50. A partir de aquí, la caída de estas funciones es más rápida que en el ser humano.


Figura 6. Comparación de las funciones de información mutua de los cromosomas del chimpancé y del ser humano. La figura superior muestra los resultados correspondientes al chimpancé y la figura inferior al ser humano. Nótese que a distancia 21 el ser humano tiene un pico que no aparece en el chimpancé.

En la figura 6 se muestra una comparación de las funciones de información mutua del chimpancé y del ser humano para distancias entre 2 y 25. Nótese que las posiciones de los “picos” en ambas especies están desplazadas. Esto puede ser explicado por la incidencia de la actividad mutacional. Resulta sin duda un reto enorme entender cómo la interacción de las restricciones selectivas y de la dinámica mutacional han producido estos resultados. Las dinámicas de expansión- modificación, así como los modelos computacionales antes descritos son buenos candidatos para ello.
Los años venideros nos auguran grandes hallazgos en la comprensión del funcionamiento de la maquinaria molecular. Esto no puede ocurrir al margen del entendimiento de la historia evolutiva del ADN, la cual es básicamente la síntesis de dos procesos antagónicos, a saber, la dinámica mutacional y las presiones selectivas. La comprensión de esa síntesis precisa del trabajo de grupos interdisciplinarios, formados en particular por físicos, computólogos y biólogos.


Referencias bibliográficas

(NOTA 1) Del libro: Las ciencias de la complejidad y la innovación médica, Ensayos y Modelos. Coordinadores: Enrique Ruelas Barajas, Ricardo Mansilla, Javier Rosado. México, Secretaría de Salud e Instituto de Física del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, Universidad Nacional Autónoma de México, Grama Editora, S.A., 2006
(al texto)
(NOTA 2) Dr. Ricardo Mansilla. doctor en matemáticas por la Universidad de la Habana, Cuba, 1997. Maestro en Ciencias Económicas por la Universidad de Carleston, Canadá, 1998. Estancia posdoctoral en el Instituto de Física de la UNAM entre 1998 y 2000. actualmente se desempeña como coordinador del Programa de Ciencia y Tecnología del Centro de Investigaciones Interdesciplinarias en Ciencias y Humanidades de la UNAM. lleva a cabo investigaciones relacionadas con la estructura del ADN, complejidad de las series de tiempo financieras y modelación computacional de fenómenos sociales.
(al texto)
(NOTA 3) Watson J D, Crick FH. Nature 1953;171:737-738.
(al texto)
(NOTA 4) International Human Genome Sequencing Consortium, Nature 2001; 409:860-921.
(al texto)
(NOTA 5) Casi inmediatamente después de la publicación en Nature del trabajo de Watson y Crick, G. Gamov (1904-1968) les envió una carta a ambos en la cual se podía leer: “But I’m very excited by your article in May 30 Nature and I think that bring Biology over into the group of exact sciences………..This would open a very exciting possibility of theoretical research based on combinatorics and the theory of numbers……What do you think?”.
(al texto)
(NOTA 6) Este hecho será relevante en la discusión posterior.
(al texto)
(NOTA 7) Sueoka N. A statistical analysis of the deoxyribonucleic acid distribution in density gradient centrifugation. PNAS 1959;45:1480-1490. Sueoka N et al. Heterogeneity in deoxyribonucleic acid II: dependence of the density of deoxyribonucleic acids on guanine-cytosine contents. Nature 1959;183:1429-1433. Rolfe R, Mendelson M. The relative homogeneity of microbial DNA. PNAS 1959;45:1039-1043.
(al texto)
(NOTA 8) Tavare S, Giddings BW. Some statistical aspects of the primary structure of nucleotide sequences. En Mathematical Methods for DNA sequences, editor: M. S. Waterman, Boca Raton: CRC Press, 1989.
(al texto)
(NOTA 9) Borsnik B et al. Analysis of apparent 1/f spectrum in DNA sequences. Europhys. Lett. 1993;23:389-394. Peng CK et al. Mosaic organization of DNA nucleotide. Phys. Rev. E 1994;49:1685-1689. Buldyrev SV et al. Long-range correlation properties of coding and noncoding DNA sequences: GenBank analysis. Phys. Rev. E 1995;51:5084--5091.
(al texto)
(NOTA 10) Li W, Kaneko K. Long-range correlation and partial 1/f spectrum in a noncoding DNA sequence. Europhys. Lett. 1992;17:655-660. Li W, Kaneko K. DNA correlations. Nature 1992;360:635-636. Peng CK et al. Long-range correlations in nucleotide sequences. Nature 1992;356:168-170. Peng CK et al. Finite size effects on long-range correlation: implications for analyzing DNA sequences. Phys. Rev. E 1993;47:3730-3733. Chatzidimitrou-Dreismann CA, Larhamar D. Long-range correlation in DNA. Nature 1993;361:212-213. Chatzidimitrou-Dreismann CA, Larhamar D. Biological origin of long-range correlation and compositional variations in DNA . Nucl. Ac. Res. 1993;21: 5167-5170. Borsnik B et al. Analysis of apparent 1/f spectrum in DNA sequences. Europhys. Lett. 1993;23:389-394. Karlin S, Brendel V. Patchiness and correlations in DNA sequences. Science 1993;259:677-680. Buldyrev SV et al. Long-range correlation properties of coding and noncoding DNA sequences: GenBank analysis, Phys. Rev. E 1995;51:5084-5091.
(al texto)
(NOTA 11) Langton C. Computation at the edge of chaos: phase transition and emergent computation. Phys. D 1990;42:12-37.
(al texto)
(NOTA 12)  Shannon C. A mathematical theory of communication. Bell Syst. Tech. J. 1948; 27:379-423.
(al texto)
(NOTA 13) Dobrushin RL. General formulation of Shannon’s main theorem in Information Theory. Usp. Mat. Nauk 1959;14:1-104. La traducción al inglés de este trabajo puede encontrarse en Am. Math. Soc. Trans., 1959;33: 323-438.
(al texto)
(NOTA 14) Li W. Mutual information function versus correlation function. J. Stat. Phys. 1990;60:823-837.
(al texto)
(NOTA 15) Gatlin LL. Information theory and the living systems. Columbia Univ. Press, 1972.
(al texto)
(NOTA 16) Un atisbo de estas ideas fue esbozado por el Premio Nobel de 1965, J. Monod. En uno de sus cuadernos de notas aparece esta frase: “From the point of view of the theory of information, the works of Shakespeare, with the same number of letters and signs aligned at random by a monkey, would have the same value. It is this lack of definition of the value of information that makes it difficult to use in biology. What could be considered as "objective" in the Shakespearean information that would distinguish it from the monkey's information? Essentially the transmissibility. The value of influence, therefore of evolution.”
(al texto)
(NOTA 17) Lindenmayer A. Mathematical models for cellular interaction in development I. Filaments with one-sided inputs. J. Theoret. Biol. 1968;18:280-299.
(al texto)
(NOTA 18) Li W. Expansion-modification systems: a model for spatial 1/f spectra”, Phys. Rev. A, 1991;43:5240-5260.
(al texto)
(NOTA 19) En el trabajo de W. Li antes citado se estudian modelos más generales. Como hemos dicho antes, para los efectos del tema que nos ocupa, el arriba referido es suficiente.
(al texto)
(NOTA 20) Las probabilidades que forman parte de la función de información mutua o de la función de autocorrelación deben ser calculadas a partir de secuencias finitas. Para distancias muy grandes, la cantidad de datos disponibles disminuye, asimismo, por el Teorema del Límite Central (o su caso particular, la Ley de los Grandes Números) la exactitud de las mismas no resulta satisfactoria.
(al texto)
(NOTA 21) Ver, por ejemplo, la figura 1 de: Buldyrev SV et al. Long-range correlation properties of coding and non coding DNA secuences: GenBank analysis. Phys. rev. E 1995 (51): 5084-5091.
(al texto)
(NOTA 22) Que por cierto fue sugerida en Li W. Expansion-modification systems: a model for spatial 1/f spectra”, Phys. Rev. A 1991;43:5240-5260.
(al texto)
(NOTA 23) Mansilla R, Cocho G. Multiscaling in expansion-modification systems: an explanation for long range correlation in DNA. Comp. Syst. 2000;12:207-240.
(al texto)
(NOTA 24) Ver, por ejemplo, la figura 4 de Mansilla R, Cocho G. Multiscaling in expansion-modification systems: an explanation for long range correlation in DNA”, Comp. Syst. 2000;12:207-240.
(al texto)
(NOTA 25) Chatzidimitriou-Dreismann CA, Larhamar D. Long-range correlation in DNA. Nature 1993;361:212-213.
(al texto)
(NOTA 26) Mansilla R et al. Energetical regularities of introns in HUMHBB. Annual Meeting of the Society for Mathematical Biology, Oaxtepec, Mayo 27-31, 1995.
(al texto)
(NOTA 27) Mansilla R, Mateo-Reig R. On the mathematical modeling of intronics sectors of DNA molecule. Int. J. of Bif. and Ch. 1995;5:1235-1241.
(al texto)
(NOTA 28) Mansilla R et al. Long-range correlations in the whole human genome, http://arxiv.org/abs/q-bio.GN/0402043, 2003
(al texto)
(NOTA 29) Nature, 437, pags. 47-109, 2005.
(al texto)

DINÁMICA DE LOS SISTEMAS COMPLEJOS

Sergio Moriello
Esta dirección de correo electrónico está protegida contra spambots. Usted necesita tener Javascript activado para poder verla.

El concepto de sistema es una abstracción que simplifica la realidad y que remite a un conjunto de elementos o partes que interaccionan dinámicamente entre sí (y con el entorno que lo rodea), que tiene una cierta permanencia dentro del espacio-tiempo y que intenta alcanzar un objetivo concreto. Para describir adecuadamente su comportamiento, es necesario conocer su organización: la disposición de sus elementos componentes (la parte más  espacial-estática-estructural) y las interacciones o relaciones que se establecen entre ellos (la parte más temporal-dinámica-funcional) [Moriello, 2005, p. 122]. Si bien –por razones de análisis se las separa artificial y abstractamente, estas dos “dimensiones” coexisten y son complementarias. Se trata de una totalidad integrada, un sólo y único proceso complejo, aunque cada situación y contexto particular puede favorecer la expresión dinámica predominante de una de ellas sobre la otra.


DE LAS BOLSAS DE VALORES A LAS EPIDEMIAS (NOTA 1)

 

Ricardo Mansilla Corona  (NOTA 2)

Agradecemos a los doctores Enrique Ruelas y Ricardo Mansillas, coordinadores del libro, así como al Dr. Javier Rosado Muñoz y al autor del artículo la autorización para su publicación.

Las teorías existentes acerca del comportamiento de los precios son notablemente inadecuadas. Son de tan poco valor para el profesional de las finanzas que yo no me siento muy familiar con ellas. El hecho de que yo pueda arreglármela sin ellas habla por sí solo.”
GEORGE  SOROS.

Vivimos sin duda una época extraordinaria y controvertida. El actual proceso de globalización, el cual inobjetablemente no es el primero a que se somete la humanidad,(NOTA 3) con toda su carga de éxitos, contradicciones y tragedias ha cambiado nuestra percepción del mundo, nuestro modo de vida y nuestras costumbres. Respecto al acceso a la información, el avance ha sido meteórico. Conectados a la red global, desde la comodidad de nuestros hogares, en cuestión de minutos podemos tener acceso a muchísima más información que en largas jornadas de búsqueda en la mejor de las bibliotecas del mundo. Si la humanidad cambió drásticamente después de la invención de Guttemberg, la Internet ha dado un nuevo golpe de timón a la nave de nuestra civilización.
Otro sector al cual las nuevas tecnologías –y nos referimos aquí tanto a las del transporte como a las de la información– han dado un nuevo sello distintivo es el comercio. Las distancias se han colapsado y, dejando de lado por el momento ciertas limitaciones económicas, podríamos cenar salmón noruego y vino francés sin que constituya como en otra época un manjar de monarcas. No sería justo dejar de señalar aquí la otra cara de la moneda, la que nos muestra a grandes masas de seres humanos que no reciben los beneficios de este proceso, sino que sufren sus implementaciones mediáticas. Nos beneficiamos además con tal naturalidad de la microelectrónica elaborada en algunos países asiáticos  que los más jóvenes entre nosotros creen que siempre ha sido así.
El artífice de todos estos cambios ha sido la computadora digital. Desde las primeras máquinas diseñadas durante la Segunda Guerra Mundial hasta la invención del microprocesador, la humanidad ha recorrido un largo y exitoso camino. De la misma forma que los primeros vidrios de Zacharias Jensen(NOTA 4) modificaron la concepción de la biología, las computadoras digitales abrieron el espectro de la investigación científica, permitiendo acercarnos de manera más precisa a muchos fenómenos que, por su carácter no-lineal, sólo habían sido susceptibles de estudiarse de manera aproximada.(NOTA 5).
Por supuesto, esta revolución no ha hecho a un lado a la economía y en particular a las finanzas. En este último campo, la gigantesca acumulación de datos provenientes de los mercados ha permitido un minucioso examen del comportamiento de los mismos, lo cual era completamente imposible antes de la aparición de las modernas computadoras con su enorme capacidad de almacenamiento de datos y rápido procesamiento de la información. Bajo la lupa de toda esta evidencia empírica ha sido posible detectar ciertos fenómenos difíciles de explicar a la luz de las teorías económicas actualmente reconocidas. En particular, el concepto de equilibrio, como paradigma de las teorías económicas en boga, se ve en serios aprietos frente a las constantes fluctuaciones de los precios de los valores en los mercados financieros. Tales fluctuaciones repercuten en toda la actividad vital de una nación en la actualidad. Si bien las finanzas eran hasta hace pocas décadas el coto privado de una elite, ahora forman parte de las vivencias y angustias existenciales de grandes masas de personas. En los noticiarios de todo el mundo se le concede igual importancia que al estado del tiempo, y las tormentas financieras son analizadas con la misma minuciosidad que los fenómenos meteorológicos.
Estas fluctuaciones financieras pueden afectar la capacidad de maniobra de los gobiernos frente a acontecimientos súbitos, como puede ser la propagación de una enfermedad epidémica en una población. Por su carácter repentino, estos últimos fenómenos nos obligan a un esfuerzo económico enorme e inmediato para lograr su control. Resulta, por lo tanto, del máximo interés su estudio a la luz de los avatares producidos por las cambiantes circunstancias de la economía actual.
En este capítulo pretendemos enlazar estos ambos aspectos, tan importantes para un sistema de salud, mostrando su elevada complejidad y las consecuencias de su eventual interacción.
Las actuales doctrinas económicas han hecho un notable esfuerzo en la matematización de sus resultados. Esta tendencia, que tiene su origen en la muy citada y poco leída obra Eléments d’economie politique pure, que el economista francés León Walras publicó en 1874, ha llevado a la construcción de un universo en el cual agentes económicos perfectos intercambian sus mercancías en mercados perfectamente competitivos que siempre tienden al equilibrio. A pesar de esto, la coincidencia entre teoría y práctica ha sido poco evidente. En la tradición vernácula de los sectores académicos es bien conocido el chiste que afirma que los economistas escriben dos tipos de artículos científicos: los del primer tipo son trabajos donde exponen sus ideas y predicciones; los del segundo tipo son trabajos donde explican por qué estas ideas y predicciones no se cumplieron.
Habida cuenta de la gran cantidad de datos disponibles de los mercados, así como de las discrepancias entre teorías económicas y evidencia empírica, el reto intelectual de comprender los fenómenos económicos ha traspasado los límites de esta comunidad académica, atrayendo a especialistas de otras áreas, en particular y de manera destacada a los físicos.
No obstante, es necesario señalar que tales intentos no son tan modernos. El 29 de marzo de 1900 puede ser considerado, con toda justicia, el nacimiento de las matemáticas financieras. Ese día, un joven llamado Louis Jean-Baptiste Alphonse Bachelier, nacido en Le Havre, el 11 de marzo de 1870, defendió su tesis de doctorado en matemáticas en la Facultad de Ciencias de la Academia de París. El título de esta tesis fue muy elocuente: La Teoría de la Especulación. El director del trabajo de Bachelier fue Henri Poincarè, uno de los más grandes físico-matemáticos franceses de todos los tiempos, precursor de la teoría de los sistemas dinámicos caóticos entre otros indiscutibles méritos. Describir las contribuciones a la física y las matemáticas de Poincarè rebasa sin duda los márgenes de este capítulo.
Después de algunos aislados intentos a lo largo de la primera mitad del siglo XX, con el advenimiento de las computadoras digitales, se inicia una nueva época en la investigación de los fenómenos económicos por parte de físicos, matemáticos y especialistas en otras ramas del saber humano.
En el año 1984 se creó el Instituto de Santa Fe. Es con toda justicia la más famosa institución dedicada al estudio de los sistemas complejos. En los anhelos de sus fundadores estaba la creación de un centro dedicado al estudio de los sistemas complejos que incluía desde el origen de la vida hasta los sistemas sociales. G. Cowan, su fundador, creyó que entre los sistemas complejos que demandaban una urgente investigación, se encontraba  la economía. Por esos años, la economía neoclásica, que es la “corriente principal” en las doctrinas económicas actuales, había alcanzado ya un elevado grado de formalización matemática. Como hemos dicho antes, la coincidencia entre teoría y práctica ha sido poco evidente. Había, pues, razones para intentar un nuevo enfoque de los problemas económicos.
Por tal motivo, se organizó un grupo de conferencias dedicadas a la economía. La primera de ellas se realizó en agosto de 1986 bajo el título “Las finanzas internacionales como un sistema complejo”. La segunda conferencia se celebró en septiembre de 1987 con el título “La economía como un sistema complejo evolutivo”. En esta ocasión, dos premios Nobel aparecían entre los invitados al evento. Uno era Kenneth J. Arrow, laureado con el premio Nobel de Economía en 1972 (de acuerdo con el Comité Nobel “por sus contribuciones fundamentales a la teoría del equilibrio general económico y a la teoría del bienestar”). El trabajo de Arrow era descendiente directo del esfuerzo iniciado por León Walras un siglo antes. El otro laureado era el premio Nobel de física de 1977 Philip W. Anderson. Este físico compartió el galardón ese año con Sir Nevill F. Mott y John Hasbrouck van Vleck. En la ceremonia de entrega del premio, el Comité Nobel dijo otorgar la condecoración “por sus investigaciones teóricas sobre la estructura electrónica de los sistemas magnéticos y desordenados”. No es casual que las ideas de Anderson sobre los vidrios de spin sean la piedra angular en la actual construcción de modelos multiagentes de mercados financieros. La última conferencia se celebró en febrero de 1991 bajo el título “Wall Street y la teoría económica: predicción y reconocimiento de patrones”. En esta ocasión, y como consecuencia de la repercusión de las dos anteriores, entre los invitados se encontraban prominentes figuras de Wall Street representando a empresas tan importantes como Salomon Brothers, Goldman Sachs, Tudor Investment, Kidder Peabody y Bear Stearns.
Lamentablemente el resultado de estas reuniones no fue el esperado. Tal vez la descripción más exacta ellas sea una conversación de sordos entre las dos comunidades académicas y profesionales.
¿Cuál fue y sigue siendo el punto central de conflicto entre ambas comunidades? Sin duda alguna es la aceptación o no de la hipótesis de mercado eficiente (HME). Esta es con mucho la suposición más estudiada y menos creída de toda la teoría económica. Si bien existen varias versiones de la misma, todas ellas básicamente afirman que los precios de las mercancías reflejan la información relevante disponible en los mercados para su formación. Una de estas versiones sostiene que los precios siguen una caminata aleatoria.(NOTA 6) Siempre he sentido una fuerte tentación a creer que la aceptación de la HME tiene como justificación primaria la simplificación del uso de la teoría de las probabilidades en el estudio de los mercados de capitales. Si los precios siguen una caminata aleatoria, sus diferencias consecutivas siguen una distribución normal. Esta última distribución ha sido muy estudiada, y se conoce un gran conjunto de resultados teóricos alrededor de ella. Para muchos instrumentos teóricos(NOTA 7) la suposición de la normalidad simplifica enormemente los cálculos.(NOTA 8) Deberíamos decir aquí, en defensa de L. Bachelier, que el exiguo número de datos que utilizó en sus cálculos y la ausencia de computadoras digitales en la época en que los desarrolló, le indujeron sin duda a aventurar la hipótesis de que las diferencias de los precios en los mercados seguían una distribución normal.
Por supuesto, hay bastante evidencia de que esto es falso. La primera de ellas es que la función de distribución de las diferencias de precios tiene “colas” más gruesas que la normal. Si las diferencias de precios siguieran una distribución normal, la probabilidad del crash de octubre de 1987 sería del orden de 10-35. En otras palabras, grandes cambios en los valores de los precios son mucho más probables que lo que una distribución normal predice. Esto puede apreciarse con facilidad en la figura 1. En ella aparecen tres curvas. La parábola representa el logaritmo de la función de distribución normal. La curva construida con círculos representa la distribución empírica. Como puede verse es mucho mayor la probabilidad de ocurrencia de un cambio de precios grandes en la distribución real que en la distribución normal. Por otra parte, si las diferencias de precios tienen una distribución normal, entonces la  volatilidad, que no es más que la desviación estándar de las mismas debe ser proporcional a la raíz cuadrada del intervalo de tiempo utilizado para calcularla.(NOTA 9) En otras palabras, debe cumplirse la siguiente relación:

FIGURA 1. Distribución empírica y teórica IPC 1999

Si representáramos en escala logarítmica ambas magnitudes (σ y t ) deberíamos ver una recta, de pendiente 1/2, que representa el comportamiento teórico y una gráfica muy cercana a la misma, representando el comportamiento empírico. Como puede verse en las figuras 2a, 2b, 2c y 2d, existe una divergencia entre los valores empíricos y los teóricos tanto para índices financieros y rendimientos de bonos como para tipos de cambio.
Los resultados anteriores hacen razonable abandonar la hipótesis de la normalidad de las diferencias de precios. Pero esto pone en tela de juicio, desde el punto de vista teórico, la HME y otros supuestos básicos de la teoría establecida, tales como la racionalidad de los agentes económicos. Por lo tanto, surgen de manera natural un grupo de preguntas:

  1. ¿Cuál es la auténtica función de distribución de los precios en los mercados?
  2. ¿Existe alguna posibilidad de predicción de los grandes cambios en los precios de los activos financieros? Más precisamente, ¿son previsibles los crashes?
  3. ¿Cómo modelar el comportamiento real de los agentes económicos, incorporando una actuación más humana, matizada por dudas, falta de información, etcétera?

FIGURA 2a. Logaritmo del número de días vs. logaritmo de la desviación estándar para el Dow Jones (1995-1999)



FIGURA 2b. Logaritmo del número de días vs. logaritmo de la desviación estándar para el bono de 5 años de la Reserva Federal (1995-1999)



FIGURA 2c. Logaritmo del número de días vs. logaritmo de la desviación estándar para el tipo de cambio marco alemán vs. dólar(2000-2002)



FIGURA 2d. Logaritmo del número de días vs. logaritmo de la desviación estándar para el tipo de cambio libra esterlina vs. dólar (2000-2002)

Para la primera pregunta existen ya algunas respuestas preliminares importantes. R. Mantenga y E. Stanley propusieron(NOTA 10) un nuevo mecanismo para la explicación del comportamiento de las diferencias de precios en los mercados: los vuelos de Levy truncados,(NOTA 11) que designaremos en lo sucesivo VLT. Con esta nueva distribución, Mantenga y Stanley conservaban las buenas propiedades de las distribuciones de tipo Levy, evitando que la varianza fueran infinita. En otro trabajo de Stanley y Mantenga(NOTA 12) se demuestra que el centro de la distribución de las diferencias de precios de muchos activos financieros se ajusta muy bien a un VLT. A partir de una determinada diferencia de precios (tanto a la izquierda como a la derecha de la distribución) la distribución empírica se comporta como 1/d***, donde el exponente a ≈ 3.
Han aparecido algunos trabajos donde se estudia la posibilidad de suavizar el corte abrupto hecho en las colas. Por ejemplo, I. Koronen(NOTA 13) propuso ponerle colas que decayeran muy rápidamente (de forma exponencial en su trabajo) a una distribución de Levy truncada.
Para la segunda pregunta se han encontrado ciertos resultados interesantes. Uno de ellos está relacionado con la física de los terremotos. Se ha logrado establecer que cada gran terremoto es antecedido por ciertos movimientos telúricos menores conocidos como precursores. Existe una magnitud que posee información relevante acerca de los precursores y que ha sido muy bien estudiada. Nos referimos al índice cumulativo de Benioff, que no es más que la raíz cuadrada de la energía disipada por un sismo.(NOTA 14) Si fuese posible identificar los parámetros de la distribución de Benioff a partir de valores experimentales de movimientos telúricos, se podría tener un valor aproximado del momento tc en que ocurrirá el terremoto. Obviamente, esto, en general, no ha sido posible.
¿Cómo se enlaza lo anterior con el comportamiento de los mercados? Junto a los crashes, existen otros comportamientos de las series temporales de los precios conocidos como burbujas, que no son más que subidas sostenidas de los precios durante largos intervalos de tiempo. Las burbujas suelen formarse por un proceso de auto-reforzamiento en las opiniones de los agentes. Si estos han  previsto que los precios van a subir, aumentan las compras y por tanto se incrementan los precios de los activos financieros. Este clima tiende a deteriorarse cuando noticias exógenas a los mercados o apreciaciones de los propios agentes provocan cautela o decisiones en la dirección contraria. Como bien decía Keynes todas las caídas del mercado están sobrevaluadas por el pánico de los inversionistas.(NOTA 15) En este escenario los crashes se producen cuando los agentes en grupo comienzan a vender, derrumbando los precios.
Teniendo en mente las ideas anteriores, dos equipos de investigadores,(NOTA 16), (NOTA 17) propusieron de manera simultánea un modelo similar para la explicación del comportamiento de los índices financieros antes de los crashes, así como el pronóstico del momento de ocurrencia de los mismos. De ambos grupos, sin duda alguna el formado por A. Johansen y D. Sornette ha realizado el trabajo más relevante y sostenido en esta temática. En referencia al crash de NASDAQ del 14 de abril del año 2000 en particular, hicieron una excelente predicción de la fecha en que ocurriría la brusca caída de los valores tecnológicos. (NOTA 18)
En lo que respecta a este tema, existe otra prometedora línea de investigación que estudia la complejidad algorítmica de ciertas series simbólicas binarias(NOTA 19) generadas a partir de las series temporales de los precios.(NOTA 20), (NOTA 21), (NOTA 22) Si bien aún no se tienen resultados concluyentes, se ha obtenido evidencia de que la complejidad algorítmica de las series temporales de los precios aumenta antes de la ocurrencia de los crashes.
En lo que se refiere a la tercera pregunta, existe un amplio espectro de investigaciones que va desde la utilización de los vidrios de spin hasta estudios con grupos humanos sometidos a condiciones similares a las que tienen los inversionistas en los mercados. Como resultado de estas investigaciones ha quedado claro que la racionalidad de los agentes económicos en el momento de la toma de decisiones es, en general, objetable debido fundamentalmente al incompleto acceso a la información. En ocasiones este hecho se ve agravado además por una asimetría en la adquisición de la misma. Tales investigaciones están siendo cada vez más aceptadas por la comunidad de economistas tradicionales. Baste decir que en los últimos años se han entregado al menos dos premios Nobel relacionados con la temática.
Para concluir con la primera parte de este capítulo, quisiéramos resaltar la elevada complejidad de los fenómenos bajo estudio, cuya completa comprensión y modelación no ha sido aún alcanzada. Este es un hecho de la más elevada importancia práctica para el buen gobierno de una nación y, en particular, para un sistema de salud.
Pasaremos al segundo tópico central de este capítulo. Las epidemias son, por su inesperada aparición y descontrolado crecimiento, fenómenos que obligan a cualquier sistema de salud a un esfuerzo inusitado y súbito. Su pronóstico y control es, por lo tanto, un asunto de la más alta importancia para cualquiera de estos sistemas. No es de extrañar entonces que desde épocas remotas se desarrollaran intentos por describir su comportamiento. (NOTA 23)
Los modelos matemáticos dedicados a la descripción de los fenómenos epidémicos se dividen en dos grandes grupos: deterministas y estocásticos.(NOTA 24) Para dar más claridad a la exposición nos referiremos aquí solo a los deterministas, aunque buena parte de nuestras aseveraciones resultan también válidas para los estocásticos.
Existe dentro de los modelos deterministas una nueva división entre continuos y discretos. Los continuos son modelos descritos por sistemas de ecuaciones diferenciales, tanto parciales como ordinarias, mientras que los discretos suponen que el tiempo toma sólo valores discretos (días, meses, generaciones, etcétera).
Dentro del conjunto de los modelos continuos, la suposición fundamental que determina la utilización de uno u otro tipo de ellos (ecuaciones ordinarias o en derivadas parciales) es el grado de mezcla que los diferentes grupos poblaciones (susceptibles, infectados, etc.) tienen dentro de la comunidad de habitantes. Si los grupos anteriores están perfectamente bien mezclados, esto es, si la densidad de cada uno de ellos dentro de la población no dependen de la localidad geográfica, entonces se utilizan modelos construidos a partir de sistemas de ecuaciones diferenciales ordinarias. Si los diferentes grupos de habitantes no están bien mezclados, la herramienta adecuada son los sistemas de ecuaciones diferenciales en derivadas parciales. La idea original que sugirió el uso de este  tipo de ecuaciones proviene de la física, pues cuando los grupos poblacionales no están bien mezclados, la propagación de la epidemia sigue un proceso similar a la difusión del calor en un material conductor.
Es bien conocido que el mecanismo que genera los dos escenarios anteriores (mezcla perfecta o proceso difusivo) es la longitud del camino medio recorrido por los habitantes. Para ser más preciso, si el desplazamiento promedio de los miembros de la población es pequeño, en relación con las dimensiones del espacio geográfico donde se desarrolla el proceso epidémico, la herramienta adecuada para describir la propagación de la enfermedad es la de ecuaciones en derivadas parciales. Por otra parte, si el desplazamiento promedio de los miembros de la población es similar a las dimensiones del espacio geográfico donde se desarrolla el proceso epidémico, entonces deben usarse ecuaciones ordinarias para describirlo. Básicamente es esta magnitud, la longitud del camino medio recorrido, la que produce la mezcla entre infectados y susceptibles, propagando la epidemia. Por último y no menos importante, entre las hipótesis necesarias para la deducción de estas ecuaciones se encuentra la suposición de que los miembros de la población se mueven aleatoriamente. Como discutiremos más adelante, esta suposición es falsa para conglomerados humanos.
Sin embargo, en muchas situaciones reales, el movimiento de los miembros de la población no se ajusta a ninguno de los dos escenarios discutidos anteriormente. Para una ciudad como el Distrito Federal, por ejemplo, esto es completamente obvio. Por lo tanto, ninguno de los modelos anteriores se ajusta exactamente a la situación real. Por otra parte, la hipótesis de la aleatoriedad del movimiento de los miembros de la población tampoco es cierta. Buena parte de los habitantes tienen rutinas diarias (escuelas, trabajos, etc.) que cumplen estrictamente. Así, las suposiciones fundamentales para la correcta utilización de los modelos anteriores quedan en la realidad incumplidas.
Por fortuna la enorme capacidad actual de las computadoras digitales ha permitido desarrollar modelos más realistas basados en otras técnicas, en particular en los autómatas celulares.(NOTA 25) Los trabajos precursores en la utilización de estos modelos para la descripción de los procesos epidémicos aparecieron a principios de la década de los años noventa del siglo pasado.(NOTA 26), (NOTA 27), (NOTA 28) No obstante en ninguno de ellos se eliminaba la aleatoriedad del movimiento de los miembros de la población.
En trabajos posteriores (NOTA 29) se ha demostrado que esta hipótesis puede ser eliminada, al menos para las enfermedades infecciosas por contacto. Además el modelo construido en ellos posee una regla de movimiento determinista que describe perfectamente las particularidades del desplazamiento espacial de los individuos en una población. Más aún, como veremos más adelante, para ciertos casos extremos de la longitud del camino medio recorrido por los habitantes, se obtienen comportamientos susceptibles de ser descritos por sistemas de ecuaciones ordinarias o en derivadas parciales. En conclusión, este modelo generaliza a todos los anteriores que se ocupan de enfermedades infecciosas por contacto y brinda una posibilidad realista de ejecución en situaciones concretas.

FIGURA 3


FIGURA 4



Pasaremos a continuación a una descripción detallada del mismo. Este modelo está compuesto por dos reglas de autómata, una de movimiento y otra de infección. La primera describe el desplazamiento espacial de los miembros de la población. Es decir, describe la traslación diaria de los individuos, considerando la periodicidad de sus movimientos de ida y regreso a sus hogares. Una representación esquemática de la misma puede verse en la Figura 3. La segunda regla describe el proceso de contagio por contacto. En ella, un individuo infectado contagia con una cierta probabilidad a sus vecinos más cercanos. Esta probabilidad representa la morbilidad de la enfermedad bajo estudio. Una representación esquemática de esto puede verse en figura 4.
La conjunción de estas dos reglas permite describir el proceso infeccioso. Entre los parámetros que se pueden ajustar en el modelo se encuentra la longitud del camino medio recorrido por los miembros de la población. Para valores grandes del mismo los resultados se ajustan con sistemas de ecuaciones diferenciales ordinarias. Una simulación computacional de esta situación puede verse en la secuencia de Figuras 5, 6 y 7. Para valores pequeños del mismo el comportamiento del proceso infeccioso producido por el modelo puede ser descrito por ecuaciones diferenciales en derivadas parciales. Una simulación computacional de esta situación puede verse en la secuencia de Figuras 8, 9 y 10.
Sin embargo, las situaciones más interesantes ocurren cuando la longitud del camino medio recorrido por los miembros de la población no es tan pequeña para que el proceso pueda ser descrito por ecuaciones diferenciales en derivadas parciales, ni tan grande como para que los modelos en ecuaciones diferenciales ordinarias sean adecuados. En estos casos, si agregamos que la enfermedad tiene una duración determinada (como la gripa, por ejemplo) y que los habitantes no son inmunes ante ella, se puede demostrar que la serie temporal de los enfermos tiene comportamiento caótico, para algunos valores de los parámetros. Tal vez esta sea una posible explicación de la endemicidad de algunas enfermedades.

FIGURA 5

FIGURA  6

FIGURA 7

FIGURA 8

FIGURA 9

FIGURA 10


En lo que se refiere al desplazamiento espacial, estos casos intermedios son, como hemos discutido con anterioridad, los más comunes. Por lo tanto, la evolución diaria de algunas enfermedades contagiosas por contacto pueden tener un comportamiento caótico. Al menos existe evidencia real de este comportamiento en epidemias de gripa en Dinamarca. Tal situación hace extremadamente difícil su predicción y, por tanto, la ejecución de medidas para su control. Si agregamos a lo anterior que la puesta en práctica de estas medidas por parte de las autoridades sanitarias puede estar condicionada a situaciones económicas inciertas como las descritas en la primera parte de este capítulo, resulta clara la importancia de un adecuado manejo de los recursos financieros dedicados al sistema de salud.
En conclusión, la tarea de la planificación financiera de los recursos de un sistema de salud en las condiciones del mundo actual es un fenómeno de elevada complejidad. En ella intervienen de manera relevante las fluctuaciones de los mercados y su correspondiente influencia en la ejecución de tareas de emergencia para un sistema de salud. Tal y como hemos descrito más arriba, ambos aspectos pueden tener una elevada complejidad. Las teorías actualmente admitidas para su estudio son incompletas y en ocasiones poco satisfactorias. Se impone, pues, desarrollar una visión que esté a la altura del alto nivel de la complejidad de los fenómenos en cuestión. Los paradigmas de la teoría de lo sistemas complejos son sin duda una prometedora herramienta para su solución.


 


(NOTA 1) Del libro: Las ciencias de la complejidad y la innovación médica, Coordinadores: Enrique Ruelas y Ricardo Mansilla, México, Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, Universidad Nacional Autónoma de México, Secretaria de Salud, Plaza y Valdés, S.A. de C.V., 2005
(al texto)
(NOTA 2) Obtuvo su doctorado en matemáticas en la Universidad de la Habana, Cuba en 1997, además de una maestría en ciencias  económicas en la Universidad de Carleston, Canadá,  en 1988. Realizó una estancia posdoctoral en el Instituto de Física de la UNAM, entre 1988 y 2000. Actualmente es el coordinador del Programa de Ciencia y Tecnología del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades de la UNAM. Sus intereses científicos se relacionan con la estructura del ADN, complejidad de las series de tiempo financiero y la modelación computacional como fenómenos sociales.
(al texto)
(NOTA 3) Los viajes de navegación de finales del siglo XV y sus consecuencias posteriores fueron sin duda un intento globalizador.
(al texto)
(NOTA 4) No es cierto que Leeuwenhoek haya inventado el primer microscopio. Zacharias Jansen había construido al menos uno de estos instrumentos en 1595.
(al texto)
(NOTA 5) Existe un excelente libro sobre este tema que recomendamos al lector: H. R. Pagels (1991), Los sueños de la razón. Barcelona: Editorial Gedisa.
(al texto)
(NOTA 6) Muchas personas han hecho una ilustre carrera académica suponiendo esto.
(al texto)
(NOTA 7) En particular para la fórmula de Black y Scholes.
(al texto)
(NOTA 8) El trabajo de Blach y Scholes fue generalizado por el laureado premio Nobel de Economía R. Merton. Un excelente estudio de esta teoría sin hacer uso de la hipótesis de normalidad puede verse en: S.I. Boyarchenko y S. Z. Levendorsky (2002), “Non-gaussian Merton-Black-Scholes theory”. World Scientific.
(al texto)
(NOTA 9) Un estudio detallado de este tema puede encontrarse en E. E. Peters (1994), Fractal markets analysis. New York: John Wiley & Sons.
(al texto)
(NOTA 10) R. N. Mantegna y H. E. Stanley (1994), “Stochastic process with ultraslow convergence to a gaussian: The truncated Levy flight”. Physical Review Letters, 73(22): 2946-2949.
(al texto)
(NOTA 11) Se denomina vuelos de Levy a una caminata aleatoria donde los “pasos” son dados con longitudes tomadas de una función de distribución de tipo Levy. En las caminatas aleatorias, de las que hemos hablado con anterioridad en este capítulo, los “pasos” son dados con longitudes tomadas de una distribución normal.
(al texto)
(NOTA 12) R. N. Mantegna y H. E. Stanley (1995), “Scaling behavior in the dynamics of an economic index”. Nature, 376: 46-49.
(al texto)
(NOTA 13) I. Koronen (1995), “Analytic approach to the problem of convergence of truncated Levy flight towards the guassian stochastic process”. Physical Review E., 52: 1197-1199.
(al texto)
(NOTA 14) El comportamiento de este índice con respecto al tiempo antes de la ocurrencia de un sismo de gran magnitud se expresa con la siguiente ecuación:
ε(t) = A ‒ B(tc ‒ t)m[1 + C cos(ωln(tc ‒ t) + ϕ)]
donde A, B, C, ϕ y m son constantes, el número ω es la frecuencia de las oscilaciones y tc es el valor crítico del tiempo, es decir, el instante cuando ocurrirá el sismo.
(al texto)
(NOTA 15) Los inversionistas son la especie más asustadiza del planeta.
(al texto)
(NOTA 16) D. Sornette, A. Johansen y J. P. Bouchaud (1996). “Stock markets crashes, precursors and replicas”. Journal of Physics I France, 6: 167-175. Una versión preliminar de este trabajo apareció en el servidor del Laboratorio Nacional de Los Álamos el 6 de octubre de 1995.
(al texto)
(NOTA 17) J. A. Feigenbaum y P. G. O. Freund (1995). “Discrete scaling in stock markets before crashes”. Este trabajo apareció en el servidor del Laboratorio Nacional de Los Álamos el 6 de septiembre de 1995.
(al texto)
(NOTA 18) A. Johansen y D. Sornette (2000), “The NASDAQ crash of April 2000: yet another example of log-periodicity in a speculative bubble ending in a crash”. Euro Physics Journal B, 17: 319-328. Este artículo apareció en el servidor del Laboratorio Nacional de Los Álamos el 17 de abril de 2000.
(al texto)
(NOTA 19) La idea de traducir una serie temporal de precios en una serie binaria no es muy novedosa. Existe un conocido test para decidir si una serie de precios se parece a una caminata aleatoria llamado test de Cowles y Jones. Al lector interesado lo remitimos a: A. Cowles y H. Jones (1937), “Some a posteriori probabilities in stock market actions”. Econometrica, 5.
(al texto)
(NOTA 20) R. Mansilla (2000), “Algorithmic complexity in minority game”. Physical Review E, 62 (4): 4553-4557.
(al texto)
(NOTA 21) R. Mansilla (2000), “From naïve to sophisticated behavior in multiagents-based financial market models”. Physica A, 248: 478-488.
(al texto)
(NOTA 22) R. Mansilla (2001), “Algorithmic complexity in real financial markets”. Physica A, 301: 483-492. Una versión preliminar del artículo anterior apareció publicado en el servidor del Laboratorio Nacional de Los Álamos el 24 de abril de 2001 (http://arxiv.org/abs/cond-mat/0104472).
(al texto)
(NOTA 23) Si bien el primer intento de comprensión de un fenómeno epidemiológico se inicia con Hipócrates, 400 años antes de Cristo, la primera formulación matemática de un suceso de este tipo es debida a D. Bernoulli en 1760 a propósito de una epidemia de viruela.
(al texto)
(NOTA 24) Se denomina determinista a un modelo en el cual su historia futura queda totalmente determinada por la situación actual. La mayoría de los modelos deterministas se escriben en término de ecuaciones diferenciales, aunque existen también formulaciones discretas de los mismos.
(al texto)
(NOTA 25) Los autómatas celulares son modelos dinámicos computacionales donde tanto el tiempo como el espacio son discretos. Podemos imaginárnoslos como un tablero infinito de ajedrez donde cada casilla se encuentra en uno de varios estados posibles, que evolucionan a lo largo del tiempo en dependencia de los estados de sus casillas circundantes. Una introducción, exageradamente pródiga a los mismos, la constituye la obra: S. Wolfram (2002), A new kind of science. Wolfram Media Inc.
(al texto)
(NOTA 26) N. Boccara y K. Cheong (1992), “Automata network SIR models for the spread of infectious disease of moving individuals” Journal of Physics A, 25.
(al texto)
(NOTA 27) N. Boccara y K. Cheong (1993), “Critical behavior of a probabilistic automata network SIS model for the spread of an infectious disease in a population of moving individuals”. Journal of Physics A, 26.
(al texto)
(NOTA 28) N. Boccara, K. Cheong y Oram, M. 1994. “A probabilistic automata network epidemic model with births and deaths exhibiting cyclic behavior”. Journal of Physics A, 27.
(al texto)
(NOTA 29) R. Mansilla y J. L. Gutierrez (2001), “Deterministic site exchange celular automata models for the spread of diseases in human settlements”. Complex Systems, 13.
(al texto)

Fecha de publicación abril 2007

GESI    (Grupo de Estudio de Sistemas Integrados)

El mundo real es una complejidad organizada que demanda una visión sistémica

Diversas disciplinas pueden llegar a modelizarse a partir de la noción de sistema

Charles François

El mundo real no es un inmenso agregado de fenómenos sencillos y lineales, sino un conjunto de organismos y entidades complejas interrelacionadas. Es una complejidad organizada que demanda una visión sistémica para ser abordada, así como una metodología ordenada para su estudio. La noción de sistema sirve para el estudio de las situaciones complejas que generalmente se perciben a primera vista como situaciones complicadas, confusas o enmarañadas. Una serie de disciplinas en las que aparecen sistemas complejos pueden llegar a modelizarse a partir de la noción de sistema. Por Charles François.