CAOS Y COMPLEJIDAD (NOTA 1)

José Luis Mateos (NOTA 2)

[Agradecemos a los doctores Enrique Ruelas y Ricardo Mansillas, coordinadores del libro, así como al Dr. Javier Rosado Muñoz y al autor del artículo la autorización para su publicación.]

En este capítulo presentaremos una breve introducción a algunos aspectos fundamentales de la teoría del caos y de la teoría de sistemas complejos. El capítulo se divide en cinco secciones y está basado en una serie de conferencias impartidas en la Secretaria de Salud en el Seminario Taller “Innovación del Sistema de Salud mediante las herramientas de la Teoría del Caos y los Sistemas Complejos”, organizado de mayo a julio de 2002 en la Subsecretaria de Innovación y Calidad por el doctor Enrique Ruelas Barajas y coordinado por el doctor Javier Rosado Muñoz.

 

 

Fenómenos no-lineales y sistemas complejos

La ciencia moderna parte del principio reduccionista que consiste en dividir el sistema de estudio en partes más simples y pequeñas que son más fáciles de estudiar. Esta manera de enfrentar el enorme reto de entender la naturaleza ha resultado muy exitosa y es un punto de partida natural. Usando el esquema reduccionista, hemos podido entender, por ejemplo, la estructura de la materia con base en arreglos de elementos más simples como los átomos y las moléculas. Dichos átomos, sabemos ahora, están formados por protones, neutrones, electrones y otras partículas elementales. A su vez, los protones y los neutrones en los núcleos de los átomos están formados por partículas aún más elementales: los quarks. El conocimiento detallado de la estructura atómica ha permitido entender en detalle, usando la mecánica cuántica, las propiedades de los sólidos, los líquidos, los gases y los plasmas. A partir de este conocimiento hemos sido capaces de modificar la estructura de la materia para producir energía nuclear, desarrollar dispositivos semiconductores y muchas aplicaciones más que han forjado al mundo moderno como lo conocemos hoy.
Sin embargo, existe una aparente paradoja. Todo el mundo material está formado de los mismos átomos, sea un trozo de metal o una célula viva. La pregunta que surge entonces es: ¿cómo es posible diferenciar la estructura simple de un metal de la complejidad que encontramos en la célula, si ambos sistemas están compuestos por los mismos átomos?. Obviamente la respuesta no puede surgir de la física atómica, ni del esquema reduccionista. Por el contrario, para entender la complejidad que emerge en un sistema complejo, como el de la célula, es necesario tener en mente un nuevo marco conceptual. Este marco tiene varios elementos que son esenciales para entender el surgimiento de propiedades emergentes. En primer lugar es fundamental que el sistema sea no-lineal, es decir, que no debe entenderse meramente como la suma de partes más simples. El todo es más que la suma de las partes. En segundo lugar, es necesario que el sistema se encuentre fuera de equilibrio termodinámico, es decir, que sea un sistema abierto que interactúa con el exterior. Ambas condiciones pueden dar lugar a fenómenos emergentes como la formación de patrones, sincronización, o la vida misma. Por el contrario, en los sistemas que están en equilibrio termodinámico, la situación es mucho más simple y es, naturalmente, mejor entendida. En estos sistemas no tenemos propiedades emergentes.
Para entender mejor esto, pongamos un ejemplo. Imaginemos un huevo de gallina en dos condiciones diferentes: en primer lugar, colocamos el huevo en una caja cerrada que lo aísla completamente del mundo exterior e impide el flujo de calor hacia el interior. En este caso, después de un cierto tiempo, la complejidad estructural implícita en el huevo se ira degradando y observaremos una transformación a un sistema más desordenado. Es decir, la segunda ley de la termodinámica hará que el sistema transite de una estructura ordenada a una más desordenada. Ahora bien, si colocamos al huevo de gallina en una caja abierta que permite el flujo de calor y lo calentamos, después de cierto tiempo observaremos una transformación sorprendente: veremos cómo surge un sistema mucha más complejo, en este caso un ser vivo que puede caminar, ver, sentir, etc. La pregunta es: ¿de dónde surge esta complejidad, si lo único que tuve que hacer es calentar al sistema?, Bien, la respuesta no la tenemos todavía, pero lo que resulta claro es que se trata de un sistema altamente no-lineal y que, al ser un sistema abierto, está fuera de equilibrio termodinámico.
Estas dos condiciones del sistema, su carácter de no-linealidad y encontrarse fuera de equilibrio, aun cuando son necesarias para tener propiedades emergentes en un sistema complejo, son insuficientes. Se necesitan además otras propiedades que caracterizan a los sistemas complejos. Estos sistemas generalmente tienen un gran numero de variables o elementos que interactúan entre sí. Puede tratarse de elementos simples que interactúan en forma no-lineal, ya sea localmente o en forma global. Además del tipo de interacción entre los elementos del sistema, es importante la arquitectura o la geometría de la red de interacciones. El punto central aquí es que el sistema complejo adquiere, de alguna forma, propiedades emergentes a través de la interacción de sus partes. La pregunta entonces es: ¿podemos entender cómo surgen las propiedades emergentes a partir de la interacción (acoplamiento) de los elementos del sistema? La respuesta estará al alcance de la mano en la medida en que entendamos mejor la dinámica de los sistemas no-lineales con muchos grados de libertad. Lo que sí podemos decir con certeza es que las interacciones locales son suficientes para producir propiedades emergentes globales.
Ilustremos este aspecto de los sistemas complejos con algunos ejemplos. Imaginemos un banco de peces en el mar. A lo lejos observamos una estructura amorfa que se desplaza lentamente y que cambia de forma constantemente, a veces se alarga y a ratos se compacta adquiriendo formas caprichosas. Nos preguntamos si se trata de algún nuevo animal marino. Al acercarnos a esta extraña criatura nos percatamos, para nuestra sorpresa, que se trata no de una criatura sino de cientos o miles de peces. Cada uno de estos peces es un elemento de nuestro sistema complejo, en este caso del banco de peces. Estos individuos interaccionan entre si de manera local, es decir, cada pez interactúa solamente con los peces que se encuentran en su vecindad. Sin embargo, esta interacción local es suficiente para abarcar todo el sistema. Incluso, el banco de peces puede adquirir formas o estructuras altamente ordenadas: por ejemplo, un enorme vórtice en el cual los peces giran alrededor de un hueco, formando una especie de dona. Otro ejemplo similar a este, y más fácil de observar, es el de una parvada de aves surcando el cielo. Naturalmente, podemos mencionar muchos otros ejemplos en los cuales los individuos se aglomeran formando estructuras complejas que adquieren propiedades insospechadas. Los individuos pueden ser células individuales que forman estructuras complejas (órganos) que realizan funciones específicas: por ejemplo, las células cardiacas que se sincronizan para hacer latir al corazón, o bien, las neuronas que entretejen la compleja red que caracteriza al cerebro humano. En otra escala, podemos pensar en los individuos como personas que al interrelacionarse forman el tejido de la sociedad humana, con toda su complejidad.
Para entender cómo surgen este tipo de patrones o formas ordenadas a partir de elementos individuales acoplados, se han diseñado diversos modelos con el supuesto de que los elementos individuales interactúan a través de reglas simples. La idea central de estos estudios es descubrir si es posible obtener estructuras complejas a partir únicamente de reglas simples. Un modelo de este tipo consiste en un conjunto de elementos (individuos) que se desplazan libremente y que interactúan con sus vecinos a través de una interacción local que es finita o limitada, es decir, pueden hacerlo únicamente con aquellos individuos que se encuentren dentro de un círculo de un tamaño dado. El modelo tiene únicamente tres reglas simples:

  1. separación, es decir, un individuo tratará de alejarse de otro cuando la distancia entre ellos sea muy pequeña, para evitar así una colisión;
  2. alineación, es decir, un individuo girará para alinearse en la dirección promedio de los individuos en su entorno;
  3. cohesión, es decir, un individuo se moverá hacia la posición promedio de los individuos en su entorno.

Con estas tres reglas, que pueden implementarse fácilmente en una computadora, este modelo permite obtener comportamientos muy similares a los observados en sistemas reales, como los bancos de peces o las parvadas de aves.(NOTA 3)
Otro modelo muy estudiado que ilustra en forma clara el surgimiento de estructuras complejas a partir de reglas simples es el llamado “juego de la vida”. En este modelo se estudia la dinámica de individuos que pueden estar únicamente en dos estados: vivos o muertos. La dinámica transcurre en una red cuadrada en dos dimensiones, de tal manera que cada individuo tiene ocho vecinos cercanos. Dependiendo del estado de sus vecinos, es decir, si están vivos o muertos, el individuo en cuestión estará vivo o muerto un instante de tiempo después. Esta dinámica con unas cuantas reglas simples da lugar a la formación de estructuras muy elaboradas que se propagan por la red bidimensional, como si se tratara de formas vivas, de ahí el nombre del modelo.
El mensaje importante que hay que rescatar de todo esto es que podemos en principio entender las propiedades de autoorganización emergentes a partir de reglas de interacción simples y locales. El reto entonces consiste en determinar cuáles son estas reglas de interacción simples para un sistema dado.
Finalmente, me gustaría hacer aquí una conexión entre la dinámica no-lineal, el caos y los sistemas complejos. En la siguiente sección me referiré al caos con detalle. Hasta hace muy poco tiempo el paradigma en la ciencia consistía en considerar que los sistemas simples (con muy pocas variables) se comportaban de manera simple (ordenada), y que, por otro lado, los sistemas complejos (con muchas variables) se comportaban de forma compleja (desordenada, azarosa). Sin embargo, lo que hemos aprendido recientemente es que los sistemas simples, pero no-lineales, pueden comportarse también de forma caótica. Esto implica que si observamos en un sistema un comportamiento desordenado y complejo, puede tratarse, efectivamente, de un sistema complejo, pero también es posible que se trate de un sistema simple cuya dinámica es caótica. Por otro lado, y en contraposición con la anterior, es posible que un sistema complejo adquiera una dinámica simple, a través del fenómeno no-lineal de sincronización y autoorganización. Más adelante abordaré también este fenómeno en detalle.

Caos

¿Podemos predecir el futuro? Hasta hace relativamente poco tiempo se pensaba que era posible, al menos en principio, predecir el futuro. Sin embargo, esta visión ha cambiado drásticamente debido al reciente desarrollo de la llamada teoría del caos. Con el surgimiento de la mecánica newtoniana, se pudo predecir por primera vez el comportamiento de los cuerpos celestes con una gran precisión. Dadas la posición y la velocidad de un objeto en un instante, es posible, usando las leyes de la mecánica determinista, calcular en dónde se encontrará este objeto en el futuro. De esta manera se calculó en forma exitosa las trayectorias pasadas y futuras de muchos objetos astronómicos. A raíz del éxito de las ciencias físicas, la filosofía de la época comenzó a considerar al universo como una maquinaria determinista en la cual era posible predecir el futuro. Sin embargo, actualmente sabemos que esto no es posible, debido al carácter caótico intrínseco en la dinámica. A pesar de que la mecánica de Newton es una teoría determinista, también es una teoría en donde intervienen fuerzas no-lineales, las cuales producen inestabilidades dinámicas que dan lugar al llamado caos determinista. Pero ¿qué es el caos?
La palabra caos se utiliza en muchos y muy variados contextos y, coloquialmente hablando, es sinónimo de desorden y confusión. Sin embargo, cuando se habla técnicamente de la teoría del caos, nos estamos refiriendo al llamado caos determinista. Por lo tanto, para entender esta idea es necesario comprender mejor la idea de determinismo, lo cual nos lleva al origen mismo de la ciencia moderna.
El determinismo surge en el siglo XVII con la mecánica de Newton, quien encontró que el movimiento de los cuerpos se rige por una ley (la llamada segunda ley) que toma la forma de una ecuación diferencial. Esta ecuación determina el movimiento de un cuerpo para todo tiempo, ya sea hacia el pasado o hacia el futuro, siempre y cuando se conozca la posición y la velocidad en un instante dado, así como las fuerzas que actúan sobre él. La importancia de este descubrimiento es que se trata de una ley universal que se aplica a todos los objetos macroscópicos en el universo, ya sean planetas, estrellas o galaxias enteras. Por lo tanto, se podría, en principio, encontrar la trayectoria de todos los objetos del universo conociendo su condición inicial, así como las fuerzas que actúan entre estos. Esta es la esencia del determinismo y marcó la filosofía dominante en la ciencia hasta principios del siglo XX. En palabras de Pierre Simon de Laplace (1776):

si pudiera imaginar una conciencia lo suficientemente grande para conocer exactamente la posición y la velocidad de todos los objetos del universo en el instante presente, así como todas las fuerzas que actúan entre ellos; entonces, para esta conciencia, no habría nada incierto y el futuro, así como el pasado, estarían ante sus ojos.

Claramente se trata de una cuestión de principio que en la práctica no se cumple por diversas razones. Como mencioné anteriormente, necesitamos no sólo conocer la ecuación que determina el movimiento, sino además encontrar la solución de ésta, es decir, la forma exacta del movimiento. Para aclarar este punto permítaseme dar un ejemplo. Supongamos que tenemos un pequeño planeta que siente la atracción gravitacional de una estrella como el Sol. En este caso, conocemos bien la fuerza y podemos, además, resolver la ecuación de movimiento dada por la segunda ley de Newton. La solución nos da como resultado la órbita elíptica del planeta alrededor de la estrella; esto es lo que se conoce como el problema de dos cuerpos. En este caso la órbita es estable, es decir, si modificamos ligeramente la posición inicial de la órbita, entonces la órbita resultante será prácticamente igual a la original. Supongamos ahora que el planeta siente la atracción gravitacional de dos estrellas en vez de una sola, y que los tres cuerpos están en interacción. Este es el llamado problema de tres cuerpos. En este caso, a pesar de que conocemos las fuerzas que actúan y la ecuación de movimiento, no podemos resolverla y entonces no somos capaces de encontrar en forma exacta la forma de la órbita del planeta. Sin embargo, podemos resolver aproximadamente, con ayuda de una computadora, el problema de tres cuerpos y obtener así la forma de la órbita del planeta en esta danza cósmica. El punto importante aquí es que, para el problema de tres cuerpos, en general, la órbita será sumamente inestable, es decir, si modificamos ligeramente la posición inicial de la órbita, entonces la órbita resultante será muy diferente a la original; además, el movimiento resultante será prácticamente indistinguible de un movimiento errático y aleatorio, a pesar de estar dado por una dinámica determinista. A este tipo de movimiento se le llama caótico y esto nos da un ejemplo del caos determinista.
Una de las características más importantes del movimiento caótico es la enorme sensibilidad (exponencial) ante una pequeña variación en las condiciones iniciales del movimiento, lo cual implica que, en la práctica, sea imposible hacer predicciones después de un cierto tiempo, a pesar de que el movimiento se rige por una ecuación determinista y no existe ninguna influencia externa de tipo aleatorio o estocástico. Todo esto lo sabía muy bien el gran matemático francés Henri Poincarè desde finales del siglo XIX; sin embargo, pasó prácticamente inadvertido durante muchos años. Tiempo después, en 1961, el meteorólogo y matemático Edward N. Lorenz, usando una primitiva computadora electrónica, descubrió accidentalmente el caos al darse cuenta de la sensibilidad exponencial ante condiciones iniciales para un modelo muy simplificado del clima, el cual incluía únicamente tres variables. Esto resultó un tanto irónico, ya que la idea de Lorenz era diseñar un modelo determinista del clima, lo más simple posible, con la finalidad de hacer predicciones de largo alcance. En lugar de predecir el clima con su modelo, Lorenz encontró la semilla de una nueva ciencia: el caos determinista.
(NOTA 4)
El tipo de caos que encontró Lorenz se conoce como caos disipativo, ya que describe una situación en donde existe disipación de calor debido a la fricción. Las trayectorias que surgen de su modelo tienden a concentrarse en una región finita o acotada del espacio. Las tres variables en este modelo, después de un tiempo transitorio, son atraídas hacia lo que se conoce como un atractor extraño o caótico. Imagine un espacio de tres dimensiones en donde cada uno de los ejes representa una de las variables en el modelo de Lorenz. La trayectoria sería entonces la curva que trazaría un punto al moverse en este espacio tridimensional, que después de un tiempo transitorio termina inmerso dentro del atractor extraño. Este tiene una estructura bastante compleja y la dinámica en su interior es caótica, es decir, dos trayectorias que inicialmente se encuentran muy cercanas entre sí, tienden a separarse rápidamente (en forma exponencial), para después volverse a juntar y así sucesivamente.
Otra propiedad importante de un atractor extraño es el hecho de que su dimensión no es entera (por ejemplo, para el atractor de Lorenz la dimensión es d = 2.073). Nos estamos refiriendo aquí a una generalización del concepto de dimensión, lo que se conoce como dimensión fractal. Resulta entonces que los atractores caóticos son objetos fractales (Los fractales son figuras geométricas caracterizadas por el hecho de que su estructura permanece inalterada al cambiar la escala o el tamaño; como ejemplos de fractales en fisiología y medicina podemos mencionar al sistema circulatorio, algunos tumores cancerosos, los ritmos cardiacos, la estructura interna del pulmón, etc.) Si el movimiento no es caótico, entonces el atractor tendrá dimensión entera; por ejemplo, el atractor podría ser un punto con dimensión cero, un ciclo límite con dimensión 1, un atractor en forma de dona de dos dimensiones, etc. Pero si el movimiento es caótico, entonces el atractor tendrá una dimensión fractal no entera. Esto nos permite distinguir a un atractor caótico.
El trabajo de Lorenz permaneció prácticamente desconocido hasta mediados de la década de los setenta, cuando se dio el primer gran impulso al estudio del caos determinista desde muy diversos frentes. En matemáticas surgieron en 1971 los trabajos de D. Ruelle y F. Takens, para tratar de entender el origen de la turbulencia en la dinámica de fluidos, y en 1975 el trabajo de T. Y. Li y J. A. Yorke, quienes acuñaron el término caos. En 1976, Robert M. May publica un artículo clave sobre dinámica no-lineal en ecología y dinámica de poblaciones, y B. Mandelbrot publica la primera edición de su famoso libro sobre la geometría fractal en 1977.
(NOTA 5)
El artículo de M. J. Feigenbaum, acerca de la universidad en mapeos unidimensionales, ve la luz en 1978; y M. C. Mackey y L. Glass publican en 1977 un estudio del caos en fisiología. El número de trabajos creció exponencialmente y en poco tiempo se han publicado centenares de trabajos en las más diversas disciplinas, desde la matemática más rigurosa, hasta aplicaciones en economía.
Todos estos trabajos provocaron un cambio de paradigma en la ciencia. Anteriormente se pensaba que los sistemas simples, es decir, aquellos que pueden ser descritos con muy pocas variables, se comportaban en forma sencilla; a diferencia de los sistemas complejos cuyo comportamiento es difícil de analizar debido a la gran cantidad de variables que los caracterizan. Sin embargo, una de las lecciones de la teoría del caos nos sugiere que, en ocasiones, los sistemas simples no-lineales pueden comportarse en forma muy compleja. Surge entonces la siguiente cuestión: si observamos el comportamiento complicado y errático de un sistema, tenemos que discernir si se trata de un sistema descrito con pocas o con muchas variables, ya que, en ambos casos, podemos obtener el comportamiento observado. Dicho de otro modo, en ocasiones podemos entender la dinámica de los sistemas complejos usando modelos simples que sean no-lineales y caóticos.

Teoría del caos en biología y fisiología

De ahora en adelante me ocuparé en discutir la teoría del caos en biología y fisiología. Uno de los primeros estudios en el que se identificó una dinámica caótica en fisiología, es el trabajo de Glass y Mackey.(NOTA 6) Estos autores estudiaron la variación, como función del tiempo, de la densidad de glóbulos blancos (neutrófilos) en la sangre de un paciente con leucemia granulocítica crónica, y encontraron que esta serie de tiempo se podía modelar cualitativamente usando una ecuación diferencial no-lineal con retraso temporal en el régimen caótico.
Un poco después, en 1981, el grupo de Glass en la Universidad de MacGill en Montreal, estudió el efecto de estimulaciones eléctricas periódicas en células embrionarias de corazón de pollo. La interacción entre el latido espontáneo intrínseco de estas células y la estimulación periódica externa da lugar a una dinámica caótica. El análisis más detallado de estas observaciones hechas por Glass y colaboradores, dio evidencia convincente de que se estaba ante la manifestación de una dinámica caótica en este experimento.
Durante la década de los ochenta, comenzaron a proliferar los estudios acerca de caos en fisiología y medicina. La mayoría de los cuales se basan en el análisis de una o varias variables del sistema en cuestión como función del tiempo. En el caso de la cardiología, la serie de tiempo correspondiente es el electrocardiograma (ECG) y en neurofisiología es el electroencefalograma (EEG).
Antes de discutir ambos casos, voy a describir brevemente el tipo de análisis que suele llevarse a cabo para encontrar si una serie de tiempo dada corresponde a una dinámica caótica determinista o si se trata en cambio de un sistema en presencia de un proceso aleatorio o azaroso. Primeramente podemos hacer un estudio de la serie de tiempo para encontrar el contenido de frecuencias de la señal, es decir, llevar a cabo el análisis lineal de Fourier. Sin embargo, con el no lograríamos distinguir entre una dinámica caótica determinista y un proceso estocástico o aleatorio. Necesitamos, por lo tanto, ir más allá del análisis lineal y recurrir a técnicas no-lineales de factura más reciente.
La idea central consiste en reconstruir el atractor que da lugar a la serie de tiempo, y para lograr esto se utiliza el llamado método de retrasos.
(NOTA 7) En este método se hace discreta la serie de tiempo y se grafica contra la misma serie, pero retrasada un cierto número de pasos temporales. Esto puede dar lugar a un espacio de dos, tres o más dimensiones, según sea necesario, para poder embeber el atractor. Antes de aumentar la dimensionalidad del espacio, se calcula la llamada dimensión de correlación del atractor. Si esta dimensión de correlación continúa aumentando al igual que la dimensión del espacio, entonces seguramente la serie de tiempo estará asociada a un proceso aleatorio. Sin embargo, si la dimensión de correlación se satura y deja de aumentar al incrementarse la dimensionalidad del espacio, entonces la serie de tiempo corresponde a una dinámica caótica.
La literatura al respecto es enorme así como la cantidad de sistemas en biología y fisiología para las cuales existen estudios dinámicos usando técnicas no-lineales. En cronobiología, se puede consultar el libro de Winfree.
(NOTA 8) En fisiología y medicina, los libros de Glass y Mackey y, más recientemente, el libro de Kaplan y Glass resultan ser de gran utilidad, pues en ellos se discute además el concepto de enfermedades dinámicas.
Uno de los sistemas más estudiados, desde el punto de vista de la dinámica no-lineal, es el corazón humano. Usando el electrocardiograma (ECG) como serie de tiempo y las técnicas anteriormente mencionadas, diversos grupos han estudiado la dimensión de correlación en ECG. En particular, Goldberger y colaboradores han encontrado evidencia de posibles atractores extraños analizando el ECG de individuos sanos, y han concluido que el ritmo normal de los latidos del corazón puede ser caótico. Sin embargo, estos autores afirman que el inicio de la fibrilación ventricular y arritmias relacionadas, que son la causa de muerte súbita cardiaca, son usualmente procesos periódicos, no caóticos. Por otro lado, Babloyantz y Destexhe encontraron que la dimensión de correlación de un ECG variaba entre 3.5 y 5.2, lo cual indica que la dinámica está asociada a un atractor extraño de baja dimensionalidad. Sin embargo, cabe mencionar aquí que actualmente no existe un consenso entre los diferentes grupos de investigadores acerca de la existencia del caos en ECG, y que aún no se ha dicho la última palabra al respecto.
Discutamos ahora, para finalizar, la dinámica no-lineal en el cerebro humano. La serie de tiempo que ha sido utilizada en este caso es naturalmente el electroencefalograma (EEG). Babloyantz y Destexhe han analizado series de tiempo para el caso en el que se presenta un ataque epiléptico, encontrando una dimensión de correlación de 2.05 para el atractor correspondiente. Sin embargo, en el caso de actividad cerebral normal, encontraron una dimensión de 4.05. En estudios más recientes se ha encontrado que si se toma una serie de tiempo mucho mayor que la usada anteriormente, el resultado varía considerablemente, obteniéndose en este caso una dimensión de correlación de 5.6. Cabe hacer notar aquí una vez más que estos resultados, que indican que la dinámica asociada a la actividad cerebral es de baja dimensionalidad, no son compartidos por muchos otros grupos interesados en este problema. En particular vale la pena mencionar que el grupo de Glass, después de su análisis, no ha obtenido una dinámica de baja dimensionalidad ni evidencia de determinismo en la actividad normal del EEG. Por otro lado, otros autores han tenido recientemente resultados negativos al analizar el EEG durante un ataque epiléptico, a diferencia de otros trabajos. Vemos pues que, actualmente, la cuestión de la existencia del caos en la actividad cerebral es bastante polémica y que aún nos falta mucho para comenzar a descifrar los misterios del sistema complejo por excelencia: el cerebro humano.

Sincronización

Los ritmos fisiológicos desempeñan un papel central en la vida. Todos estamos familiarizados con el latido de nuestro corazón, el movimiento rítmico de nuestros brazos al caminar, nuestro ciclo diario de sueño y vigilia, y en el caso de las mujeres, el ciclo menstrual. Otros ritmos, igualmente importantes aunque menos obvios, consisten en la liberación de hormonas que regulan el crecimiento y el metabolismo de nuestros cuerpos, la ingesta de alimentos, y muchos otros procesos. Los ritmos interactúan unos con otros, así como con el fluctuante y ruidoso mundo exterior, bajo el control de innumerable sistemas de retroalimentación que proveen el orden necesario para el mantenimiento de la vida. Las alteraciones de estos procesos rítmicos, más allá de los límites normales, o el surgimiento de ritmos anormales, están ligados con el concepto de enfermedad.
La investigación del origen y la dinámica de estos procesos rítmicos, antes exclusividad de médicos y fisiólogos experimentales, es actualmente examinada con detalle por matemáticos y físicos. El análisis matemático de los ritmos fisiológicos muestra que las ecuaciones no-lineales son necesarias para describir los sistemas fisiológicos. En contraste con las lineales, estas ecuaciones sólo en contadas ocasiones admiten una solución analítica. En consecuencia, las simulaciones numéricas son esenciales para hacer un estudio cuantitativo de los sistemas fisiológicos. Un enfoque complementario es el análisis cualitativo de modelos matemáticos simplificados, pero no-lineales, de estos sistemas.
Aun cuando muchas células del cuerpo humano presentan oscilaciones intrínsecas en forma espontánea, la función fisiológica se deriva de la interacción que tienen estas células entre sí y con estímulos externos. Por ejemplo, el ritmo cardiaco es generado en una pequeña región del corazón compuesta de miles de células marcapasos que interaccionan entre sí y se sincronizan para determinarlo. Las células nerviosas que generan locomoción se sincronizan temporalmente dependiendo de la especie y del tipo de paso. Y los ritmos intrínsecos de sueño-vigilia se sincronizan usualmente con los ciclos externos día-noche. En general, las oscilaciones fisiológicas se pueden sincronizar con estímulos externos o internos, por lo cual es importante analizar los efectos de dichos estímulos sobre los ritmos fisiológicos intrínsecos.
(NOTA 9) Sin embargo, aun los modelos teóricos más sencillos revelan una enorme complejidad, que surge de la aplicación de estímulos periódicos en osciladores no-lineales.
Experimentos in vitro en tejido cardiaco y neuronal han esclarecido el efecto de la estimulación periódica en los sistemas biológicos. Los tejidos cardiacos y neuronales son ejemplos de medios excitables, los cuales generan una respuesta o evento, llamado potencial de acción, ante un estímulo lo suficientemente grande. Si queremos generar un segundo potencial de acción después del primero, habremos de esperar un tiempo, llamado periodo refractario, durante el cual el medio excitable no puede responder. Si estimulamos en forma periódica a nuestro medio excitable, podemos obtener ritmos periódicos sincronizados con el estímulo, así como ritmos no-periódicos. La estimulación de algunos sistemas biológicos puede dar lugar a ritmos casi-periódicos, en donde dos ritmos con dos frecuencias diferentes marchan uno a través del otro con poca interacción. Otros ritmos no-periódicos resultan ser caóticos. La identificación de una dinámica caótica en la estimulación periódica de tejidos cardiacos y neuronales es más certera con la ayuda de modelos teóricos deterministas que puedan predecir en forma correcta, cualitativa y cuantitativamente, la dinámica regular e irregular observada experimentalmente.
Los estímulos externos pueden también sincronizar algunos ritmos biológicos. Las plantas y los animales, por ejemplo, tienen un ritmo circadiano en donde algunos procesos clave tienen una periodicidad de 24 horas, la cual usualmente esta dada por el ciclo día-noche de 24 horas. Si removemos la influencia de este ciclo externo, poniendo por ejemplo, al organismo en un ambiente artificial con luminosidad constante, entonces observaremos un ciclo con un período diferente a 24 horas. De aquí podemos concluir que el ciclo día-noche de 24 horas engancha al ritmo intrínseco con ese período. Si hacemos un corrimiento en el tiempo durante el ciclo día-noche, –por ejemplo cuando viajamos en avión a una zona horaria diferente– veremos que ocurre un retraso temporal hasta que nuestros ritmos internos se sincronizan con el nuevo ciclo. Estos fenómenos se han modelado con ayuda de la dinámica no-lineal y la teoría del caos.
Otra circunstancia en donde los ritmos fisiológicos se ven afectados por perturbaciones regulares y periódicas, ocurre en el contexto de algunos dispositivos médicos. Un ventilador mecánico, por ejemplo asiste,  asiste a la respiración de personas que tienen alguna deficiencia respiratoria. Tales dispositivos pueden emplearse de diversas maneras, pero en su versión más simple, la amplitud y el período se ajustan de manera que la respiración se sincronice con el período del ventilador, el cual infla los pulmones en forma regular. En algunos casos el paciente respirará en sincronía con el aparato, pero un cambio minúsculo puede inducir una dinámica caótica fuera de fase.
Estos ejemplos ilustran los efectos de una perturbación externa periódica sobre los ritmos intrínsecos del cuerpo. Pero los ritmos fisiológicos también interaccionan unos con otros y pueden llegar a sincronizarse. Un ejemplo es la sincronización entre el ritmo respiratorio y el ritmo cardiaco que se ha encontrado recientemente en algunas circunstancias; Si bien,  hay otros que hallarse en el libro de Glass y Mackey y en el de Pikovsky y colaboradores.
Además de la sincronización en ritmos fisiológicos, recientemente ha habido interés en estudiar fenómenos colectivos en donde la sincronización tiene un papel esencial.
(NOTA 10) Por ejemplo, fenómenos como la sincronización en el ritmo de los aplausos del público en algunos eventos: uno puede variar la frecuencia del aplauso y sincronizarlo con la frecuencia del aplauso de los vecinos. Lo que resulta fascinante de esto es que la sincronización resultante surge de la autoorganización del sistema, es decir, no existe ninguna persona o director que esté dirigiendo al público para sincronizarlo. ¿Cómo explicar esta espontánea iniciativa? en pocas palabras, podemos decir que se establece simplemente debido al "acoplamiento" entre las personas.
El fenómeno de sincronización de elementos no-lineales es un campo muy nuevo y muy grande la cantidad de temas en donde tiene relevancia y posibles aplicaciones en el sistema de salud. Baste mencionar el caso de la epidemiología, en donde recientemente Rohani y sus colaboradores han estudiado los efectos de la sincronización en las epidemias antes y después de las campañas de vacunación. Seguramente otras aplicaciones serán abordadas por el doctor Octavio Miramontes, en el capítulo sobre sincronización, en el presente volumen.

Caos, ruido y procesos estocásticos

Como vimos anteriormente, las ecuaciones no-lineales deterministas pueden tener una dinámica caótica. Sin embargo, en los sistemas fisiológicos reales, el ruido, las fluctuaciones térmicas u otros procesos estocásticos están siempre presentes. Surge entonces la siguiente pregunta: ¿cómo podemos distinguir entre una dinámica caótica determinista y una dinámica aleatoria a partir de datos experimentales reales? Existen métodos, como los descritos en la sección 2, con los que es posible hacer tal distinción. Pero, en general, es muy difícil llegar a conclusiones claras cuando se trata de mediciones experimentales en las que existe siempre un grado de incertidumbre.
Un análisis cuidadoso muestra que todos los ritmos fisiológicos presentan fluctuaciones. ¿Estos sistemas fisiológicos funcionan adecuadamente a pesar de estas fluctuaciones o, por el contrario, son estas fluctuaciones necesarias para su correcto funcionamiento? Para tratar de contestar a estas preguntas, actualmente se estudian los efectos del ruido en sistemas no-lineales.
Uno de los fenómenos más sorprendentes es la llamada resonancia estocástica. Usualmente se piensa en el ruido como un elemento nocivo que es necesario eliminar con la finalidad de obtener una señal limpia. Esto es cierto en los sistemas lineales, pues, al incrementar el nivel de ruido en el sistema, el cociente señal-ruido disminuye. Por esto que es necesario filtrar todo tipo de ruido o fluctuaciones en el sistema. Sin embargo, para algunos sistemas no-lineales, se ha encontrado que el fenómeno opuesto también tiene lugar; es decir, al aumentar el nivel de ruido, el cociente señal-ruido aumenta en vez de disminuir. Evidentemente para un muy alto nivel de ruido, éste nuevamente comienza a dominar y vuelve a ser nocivo. Entonces para niveles muy bajos o muy altos de ruido el desempeño del sistema es muy pobre, pero existe un ruido intermedio óptimo en el cual el sistema tiene un cociente máximo de señal-ruido. A este fenómeno se le conoce como resonancia estocástica.
La resonancia estocástica se ha encontrado en muchos sistemas físicos y también en sistemas biológicos. Recientemente, el grupo del profesor Frank Moss, en Estados Unidos, ha mostrado la existencia de este fenómeno en algunos animales marinos, como langostinos y peces pala, los cuales utilizan el efecto para detectar mejor a sus presas en presencia del ruido natural. Obviamente, en circunstancias artificiales de laboratorio, en donde el ruido está ausente, estos animales no pueden detectar a sus presas con la misma facilidad. De alguna forma, la naturaleza, a través de millones de años de evolución, ha diseñado organismos que están muy bien adaptados al ruido y a las fluctuaciones del mundo natural.

La economía como un sistema complejo

Como se menciono anteriormente, los sistemas complejos son sistemas con múltiples elementos que se adaptan o reaccionan a patrones que ellos mismos generan. Los elementos pueden ser células en un órgano o en el sistema inmunológico, o bien personas en un sistema económico. Los elementos y los patrones a los cuales responden varían de un contexto a otro, pero los elementos se adaptan al mundo que ellos mismos crean. El sistema se encuentra en un proceso de cambio y ajuste continuos: al reaccionar los elementos, el entorno cambia; al cambiar el entorno, los elementos reaccionan de nueva cuenta. En lugar de tender a un estado estacionario y estable, los sistemas complejos se encuentran en evolución permanente y se desenvuelven y nos sorprenden continuamente.
Estos sistemas surgen en manera natural en la economía. Los agentes económicos, sean bancos, consumidores, compañías o inversionistas, ajustan continuamente sus acciones de acuerdo al entorno que ellos mismos generan. A diferencia de los sistemas físicos, en donde los elementos del sistema reaccionan al entorno en una forma determinada, los elementos en un sistema económico reaccionan en formas imprevistas, pues se trata de agentes humanos. Esta característica añade un nivel más de complejidad al análisis de la economía.
La teoría económica convencional se ha concentrado, usualmente, en estudiar el equilibrio, es decir, patrones estáticos en donde no existen ajustes; sin embargo, recientemente, el interés se ha desplazado al estudio de las propiedades emergentes y al desenvolvimiento de patrones en la economía. Para describir el enfoque de los sistemas complejos en la economía, enlistaré algunas de sus características:

  1. Interacción local y global. Lo que ocurre en la economía está determinado por la interacción de muchos agentes heterogéneos actuando en forma paralela. La acción de un agente dado depende de las acciones anticipadas de un número limitado de otros agentes y del entorno generado por todos los agentes en conjunto.
  2. Ausencia de un control central. No existe una entidad global que controle las interacciones. En cambio, las interacciones surgen de la competencia y la coordinación entre agentes. Las acciones económicas están mediadas por instituciones legales, roles asignados y asociaciones cambiantes.
  3. Organización jerárquica. La economía tiene muchos niveles de organización y de interacción. Las unidades a un nivel dado (acciones, estrategias, productos), sirven como ladrillos fundamentales para construir unidades en el siguiente nivel en la jerarquía. La organización completa es más que jerárquica, con muchos tipos de enlaces (asociaciones, canales de comunicación) entre niveles.
  4. Adaptación constante. Conforme los agentes individuales van acumulando experiencia, los comportamientos, las acciones y las estrategias son revisadas con frecuencia. El sistema se adapta constantemente.
  5. Novedad permanente. Continuamente se crean nichos debido al surgimiento de nuevos mercados, nuevas tecnologías, nuevos comportamientos, nuevas instituciones. El mero acto de llenar un nicho puede crear nuevos nichos. El resultado es un proceso de renovación y novedades continuas.
  6. Dinámica fuera del equilibrio. Dado que continuamente se están creando nuevos nichos y nuevas oportunidades, la economía opera lejos de un equilibrio óptimo. Siempre es posible mejorar y de hecho esto es lo que suele ocurrir.

Para ilustrar con mayor claridad estas ideas, mencionaré como ejemplo un modelo desarrollado por el economista W. Brian Arthur, del Instituto Santa Fe y la Universidad de Stanford en Estados Unidos. Este es el llamado modelo del bar.
Imaginemos que 100 personas deciden independientemente, cada sábado, asistir o no a un bar que ofrece música en vivo. El espacio es limitado y la estancia en el bar resulta agradable cuando no está demasiado lleno. Concretamente, si menos de 60 personas están en el bar, la velada resulta muy placentera, pero si más de 60 personas asisten, entonces la noche se vuelve desagradable. No hay forma de saber de antemano cuántas personas asistirán al bar el próximo sábado, y la cuestión es decidir si asistir o no. La persona se aparecerá en el bar si estima que menos de 60 personas asistirán ese día; por el contrario, si estima que asistirán más de 60 personas, se quedará en casa. Supongamos que no existe comunicación entre los agentes y que la única información de la que se dispone es el número de asistentes al bar en las pasadas semanas. ¿Cómo es la dinámica del número de personas que asisten al bar?
Hagamos notar dos características interesantes de este problema:

  1. Si existiera un modelo obvio que todos los agentes pudieran usar para pronosticar la asistencia al bar, y así decidir, el problema tendría una solución deductiva. Pero éste no es el caso. Dado el número de personas que han asistido al bar en los sábados anteriores, es posible que haya un número muy grande de modelos de pronóstico. Por lo tanto, al no saber qué modelos usarán los otros agentes, una persona dada no podrá decidir si asistir o no al bar. No existe una solución racional deductiva al problema de toma de decisiones. Desde el punto de vista de los agentes, el problema está mal planteado y tendrán que hacer uso de su intuición para decidir.
  2. En forma por demás "diabólica", cualquier decisión que tome la mayoría será equivocada. La razón es la siguiente: si la mayoría cree que pocos irán al bar, entonces se presentarán muchos, y el pronóstico es errado; si la mayoría cree que muchos irán al bar, entonces se quedarán en casa y sólo se presentarán muy pocos, y el pronóstico es nuevamente erróneo. Por lo tanto, una mejor estrategia es pertenecer a la minoría, la cual en el problema del bar obtiene un pronostico correcto.

Algunas preguntas que puede plantearse son: ¿cómo se comportará dinámicamente en el tiempo el número de asistentes al bar? ¿Converge este número a algún valor? ¿Se comporta en forma caótica? ¿Cómo podríamos llegar a hacer predicciones?
Este modelo “simple” ha sido estudiado recientemente por físicos, matemáticos y economistas, con diversas variantes. El punto es que se trata de un modelo que captura la esencia de algunos sistemas económicos, como son la bolsa de valores, en donde tenemos agentes que tienen que tomar decisiones con base en información limitada y en donde las decisiones de los demás agentes determinarán si el pronóstico es correcto. La mejor estrategia en este caso es encontrarse en la minoría. A este tipo de modelos se les ha llamado juegos de minorías en la literatura de un nuevo campo de la física conocido como Econofísica.
(NOTA 11)
Actualmente existe mucha actividad por parte de investigadores en el área de la física de los sistemas complejos, en donde se aplican las herramientas de la física estadística para desarrollar modelos en la economía y las finanzas. Entre otras cosas, se estudia la dinámica de la bolsa de valores a partir de modelos computacionales con agentes. Asimismo, se trata de entender el origen de las crisis financieras (caídas abruptas) en la bolsa para tratar de predecirlas.
(NOTA 12) Otros temas abordados son: retroalimentación positiva y autoorganización en economía, comportamiento tipo manada en la toma de decisiones, propagación de rumores y otros efectos cooperativos, redes complejas jerárquicas aplicadas a la economía, etcétera.
El campo es aún muy joven, pero se encuentra en una etapa de mucha actividad. Sería importante prestar atención a estos nuevos desarrollos, ya que podrían tener gran relevancia para la economía en el área de la salud.

Algunas ideas sobre la innovación del sistema de salud

Finalmente, me gustaría referirme a algunas posibles aplicaciones de la dinámica no-lineal, la teoría del caos y la teoría de los sistemas complejos a las organizaciones y, en particular, al sistema de salud.
Es claro que el sistema de salud en México es una organización muy compleja, formada por muchas y variadas instituciones y personas. Uno podría pensar que es natural aplicar la teoría de los sistemas complejos a estas organizaciones; sin embargo, el reto es enorme. Como he discutido brevemente a lo largo de este capítulo, actualmente existe una gran actividad en el estudio de la complejidad y la teoría del caos, y se han aplicado estas ideas, con mayor o menor éxito, a diversas disciplinas más allá de las ciencias exactas y naturales. Encontramos entonces algunas aplicaciones, por ejemplo, a la economía y las finanzas, y, con menor éxito, a las ciencias sociales. Cabe entonces preguntarse si realmente todas estas ideas y resultados de la dinámica no-lineal de sistemas complejos pueden contribuir en algo al esclarecimiento de los sistemas sociales. Desde mi punto de vista la respuesta es afirmativa. Sin embargo, debemos ser muy cautelosos y escépticos para determinar las limitaciones que tenemos que enfrentar.
Desde mi punto de vista, el panorama es el siguiente: aun cuando se ha hecho avances importantes en el estudio de los sistemas complejos, estamos lejos de caracterizar de manera adecuada la complejidad. De hecho, no tenemos una definición que deje satisfechos a los diferentes grupos que trabajamos en estos temas. Esta es parte de la dificultad que enfrentamos. No contamos con una definición operacional de la complejidad, aunque sabemos reconocerla cuando la vemos. En los sistemas complejos que encontramos en el mundo físico podemos modelar en forma satisfactoria aspectos cualitativos e incluso aspectos cuantitativos; lo que hacemos con ayuda de códigos numéricos en poderosas computadoras. En el ámbito de los sistemas biológicos, sin embargo, nuestro conocimiento es más pobre.
Pero es importante resaltar que aun cuando falta mucho camino por recorrer, ya dimos el primer paso: reconocer el origen de las propiedades emergentes y las propiedades de autoorganización en el intercambio entre la dinámica no-lineal, el caos y el ruido.
Pensemos en el sistema de salud como un conjunto de subsistemas en donde existe una red de interacciones que conectan a estos subsistemas. Los cuales pueden ser hospitales, instituciones, etc.. Esta interacción entre los subsistemas determina una red con una arquitectura o geometría dada, si bien parte de ella ha sido determinada de antemano, en forma jerárquica, por ejemplo, por alguna autoridad. Otra parte de la red ha ido evolucionando, estableciendo nuevas conexiones entre diferentes partes del sistema. Por ejemplo, dos hospitales que anteriormente se encontraban aislados geográficamente, ahora, gracias a una nueva carretera, se encuentran intercomunicados. O bien, dos institutos de investigación en salud, que trabajaban en proyectos de investigación distintos, ahora tienen un tema de investigación común debido al surgimiento de una nueva epidemia que requiere de un trabajo interdisciplinario. lo cual establece un vínculo o enlace entre ambos. Asimismo, los enlaces también pueden romperse con el paso tiempo. De esta forma, lo que tenemos es un sistema con una red compleja de interacciones que evoluciona en el tiempo y que en cada instante tiene una arquitectura muy compleja.
El gran reto es:

  1. determinar la estructura de esta red;
  2. sincronizar esta red para su mejor funcionamiento.

Estos dos puntos involucran el estudio, en primer lugar, de redes complejas, en particular redes de “mundo pequeño”; y, en segundo lugar, de la sincronización de sistemas complejos no-lineales. Considero que son los más relevantes para innovar y mejorar la calidad del sistema de salud en nuestro país.
Otra idea que me gustaría esbozar es la siguiente: uno puede pensar al Sistema de Salud enfrentado con su enemigo natural, que es el sistema de enfermedades. Este último es terriblemente complejo y letal y ha evolucionado a lo largo de  millones de años con la finalidad de sobrevivir en la forma más eficiente posible. Además reúne a su vez un sistema de bacterias, virus, y todo tipo de microorganismos que provocan enfermedades. Este es el sistema a vencer. Constituido por una muy compleja red de interacciones que evoluciona en el tiempo y en el espacio. La única forma de contrarrestar es entendiendo su complejidad para poder prevenir sus efectos, aunque sea parcialmente. Nuestro propio sistema inmunológico es un buen ejemplo: también es un sistema complejo que ha evolucionado para contrarrestar al sistema de enfermedades.
Posiblemente la clave sería diseñar un sistema de salud que imite al sistema inmunológico, pero en gran escala.

 


 

(NOTA 1) Del libro: Las ciencias de la complejidad y la innovación médica, Coordinadores: Enrique Ruelas y Ricardo Mansilla, México, Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, Universidad Nacional Autónoma de México, Secretaria de Salud, Plaza y Valdés, S.A. de C.V., 2005
(al texto)
NOTA 2) Obtuvo su doctorado en física en la UNAM en 1992. Realizó estancia posdoctoral en el Departamento de Física de la Northeastern University, en Boston Massachussets. realizo una estancia posdoctoral en el Centro de Investigación Interdisciplinaria en Sistemas Complejos de la Northeastern University entre 1995 y 1995. actualmente es Investigador del Departamento de Sistemas Complejos del Instituto de Física de la UNAM. Sus intereses científicos se relacionan con la dinámica no-lineal y el caos, ratchets térmicos y redes.
(al texto)
(NOTA 3) S. Johnson (2001), Emergence. The Connected Lives of Ants, Brains, Cities, and Software. New York: Scribner.
(al texto)
(NOTA 4) J. Gleick (1987), Chaos. Making a New Science. New York: Penguin Books.
(al texto)
(NOTA 5) B. Mandelbrot (1983), The Fractal Geometry of Nature. New York: W. H. Freeman and Company.
(al texto)
(NOTA 6) Véase por ejemplo: L. Glass (2001), “Synchronization and Rhythmic Processes in Physiology”. Nature, 410: 277.
(al texto)
(NOTA 7) F. Takens. (1980) “Detecting Strange Attractors in Turbulence”. En: Dynamical Systems and Turbulence, Springer Lectures Notes in Mathematics, 898.
(al texto)
(NOTA 8) A. T. Winfree (2001), The Geometry of Biological Time. New York: Springer.
(al texto)
(NOTA 9) A. Pikovsky, M. Rosenbluth, J. Kurts (2001), Synchronization: a Universal Concept in Nonlinear Sciences. Cambridge: Cambridge University Press.
(al texto)
(NOTA 10) S. Strogatz (2003), SYNC, The Emerging Science of Spontaneous Order. New York: Theia.
(al texto)
(NOTA 11)
R. Mantegna and H. E. Stanley (2000), An Introduction to Econophysics: Correlations and Complexity in Finance. Cambridge: Cambridge University Press.
(al texto)
(NOTA 12) D. Sornette (2003), Why Stock Markets Crash: Critical Events in Complex Financial Systems. Princeton: Princeton University Press.
(al texto)

Fecha de publicación abril 2007