De ciclones y mariposas, por Rafael Mandressi.
Una meditación en torno a la teoría del caos, la irreversibilidad del tiempo y la autoorganización de la vida.
Una mariposa aletea en la selva amazónica y pone en marcha sucesos que terminarán produciendo, algunos días después, un ciclón en el Caribe. Acuñada por el meteorólogo norteamericano Edward Lorenz a comienzos de los años sesenta, la imagen -conocida como «efecto mariposa»- se ha convertido en una suerte de viñeta de la llamada teoría del caos. El «efecto mariposa» ilustra uno de los aspectos fundamentales descriptos por esta teoría: pequeñísimas causas capaces de provocar grandes consecuencias o, para llamarlo por su nombre, el fenómeno de «sensibilidad a las condiciones iniciales». Pero Lorenz no parece haber sido el único a quien la inspiración asistió a la hora de expresar sus ideas. Términos como catástrofes, autoorganización, caos, complejidad, fractales, atractores extraños y otros, que podrían formar parte del arsenal retórico de un telepredicador o encontrarse en los versos de algún poeta más o menos hermético, integran sin embargo el vocabulario de una de las orientaciones más prometedoras de la investigación científica contemporánea. Se trata, para muchos, de un «nuevo paradigma» que la física, la matemática y la biología han dado a luz, y al que últimamente se han acoplado algunas ciencias sociales. A pesar de interpretaciones erróneas y exageradas, de derrapes hacia la mística o la ideología, ese conjunto de teorías de nombre evocador trae consigo un modo genuinamente nuevo de pensar la realidad. Naturalmente, no es posible dar cuenta de manera exhaustiva de las «ciencias del desorden»; lo que sigue es pues un apretado recorrido a través de algunos de sus principales temas.
La ciencia es percibida, tradicionalmente, como una actividad cuyo cometido es descubrir el orden, a menudo oculto, de la naturaleza. En la actualidad, sin embargo, muchos científicos se interesan por el «desorden» bajo todas sus formas, y la propia idea de elaborar una «ciencia del desorden» gana terreno. Parece haber en ello una paradoja: ¿un desorden que es objeto de una «ciencia» sigue siendo realmente un desorden? Si se acepta, en efecto, que la ciencia apunta a revelar el orden oculto de las cosas, el desorden no puede ser otra cosa que una impresión provisoria resultante de nuestra incomprensión, una ilusión que los progresos de la labor científica borrarán poco a poco.
De hecho, durante mucho tiempo ése fue el programa de la ciencia, cuya historia aparecía como una progresión inexorable hacia el saber absoluto. Poco importaba que no se hubiera alcanzado aún la meta, la certeza de su existencia iluminaba el conjunto del proceder. Pero desde hace por lo menos tres décadas, esa fe en un conocimiento perfecto ha perdido algo de su robustez. Hoy se acepta, por ejemplo, que la incapacidad para predecir ciertos comportamientos de algunos sistemas físicos no es el mero fruto de la ignorancia o de la insuficiencia de los instrumentos disponibles.
Viejas entidades antes proscriptas o menospreciadas, como el azar, han vuelto por sus fueros. El «desorden» ya no es visto como una anomalía, una arruga en el mantel del universo, sino como una característica para nada excepcional que se encuentra tanto en los movimientos en el sistema solar como en los cambios climáticos, los ritmos cardíacos o la vida económica.
Orden y desorden
Para calibrar la real magnitud de este cambio de óptica, basta con detenerse un instante en el propio concepto de desorden. Como la misma palabra lo indica, es una noción negativa a la que no se le puede dar un contenido más que refiriéndose, aunque sea implícitamente, a cierta concepción del orden. El orden, a su vez, es el tema de fondo que todas las mitologías, las religiones y las filosofías han intentado resolver, pero siempre dando por sentado que ese orden existe. Todo desorden, por lo tanto, tiende a aparecer como una imperfección, una causa de inquietud. Dicho de otro modo, para el confort psicológico de los seres humanos, no es indiferente que la Naturaleza sea o no ordenada, encierre o no «desorden» o «caos».
Queda claro que el término «desorden» significa aquí algo más profundo e incluso más dramático que un trivial estado de confusión, una disposición de las cosas más o menos irregular. Se trata nada menos que de un Orden que ha sido desgraciada y gravemente perturbado. El desorden se vuelve entonces escandaloso, se presenta como un estado o un proceso particular que no habría debido existir, y remite a un Orden ideal, social o natural, que ha sido escarnecido.
Si se tiene en cuenta que, por ejemplo, la noción de «caos» tiene, en los textos científicos, un sentido técnico muy preciso (los fenómenos «caóticos» son aquellos en los cuales muy pequeñas diferencias en las causas son capaces de provocar grandes diferencias en los efectos), las disquisiciones anteriores sobre el orden y el desorden pueden sonar desproporcionadas, cuando no desubicadas. De hecho, los peores enemigos de la teoría del caos son las especulaciones sobre el Desorden universal que la misma ha desencadenado, gracias a la elección de un nombre tan cargado de referencias culturales. Es cierto, como no se cansan de advertir los científicos, que debe evitarse atribuir al uso que ellos hacen de la palabra caos, así como a los demás «desórdenes» del mismo tipo, un alcance mágico.
No obstante, es imposible separar los campos de manera absoluta. Durante siglos, recuerda el historiador de las ciencias Pierre Thuillier, el proyecto que ha animado el trabajo científico ha sido platónico, lo cual equivale a decir que aun bajo su forma más laica, la ciencia ha estado vinculada a ciertas conjeturas religiosas sobre el orden universal. Platón fue, en efecto, uno de los grandes fundadores de la «religión cósmica», que consistía en venerar el mundo que nos rodea, caracterizado por la organización y la inteligibilidad, como el reflejo de la Razón divina. Ese mundo es consecuencia, según Platón, de la acción del Demiurgo, un ser mítico cuya intervención ha consistido en poner en orden el desorden primordial del universo.
Pero no se trata de cualquier orden: el Demiurgo, dice Platón, es matemático y ha instaurado por doquier el imperio de las formas y de las proporciones geométricas. El mundo no sólo está ordenado, sino que está matemáticamente ordenado. El trabajo de los científicos consistirá, entonces, en encontrar las estructuras racionales que han servido como «modelos» al Demiurgo. Así, desde Platón y pasando por Galileo, Kepler, Newton y Einstein, la ciencia ha valorizado las formas matemáticas que manifestaban mejor las cualidades ideales atribuidas a una Potencia Ordenadora (Dios, la Naturaleza, u otra): pureza, simplicidad, regularidad, armonía, belleza. En otras palabras, cuanto más simple es algo, más bello y más verdadero es.
De este modo, la introducción del «desorden» como objeto de estudio interesante y válido por sí mismo implica un abandono del platonismo, es decir de la creencia en una jerarquía absoluta de las formas matemáticas en cuya cima reinan las formas más simples y armónicas. En la irrupción de las ciencias del desorden anida, en definitiva, un cambio de estética, una mutación de tipo filosófico y cultural, una transformación de la sensibilidad, que va bastante más allá de un mero conjunto de inventos especializados.
El Orden según Newton
Cuando la posteridad elige la caricatura para fijar el recuerdo de ciertos individuos puede ser tremendamente injusta. Sir Isaac Newton ha sufrido ese proceso, y su mayor mérito parece haber sido observar las manzanas cayendo de los árboles. Flaco favor hace esa imagen a quien contribuyó como nadie a la creación de una verdadera catedral científica, llamada mecánica clásica. A través de esa espléndida construcción intelectual, Occidente dispuso, desde el último tercio del siglo XVII, de la visión de un Universo ordenado y predecible.
De acuerdo a la mecánica newtoniana, el mundo es un gigantesco mecanismo regido por «leyes naturales» eternas e inmutables. Esas leyes, que se expresan mediante ecuaciones matemáticas (las ecuaciones del movimiento), determinan que en circunstancias idénticas resulten siempre cosas idénticas, y si las circunstancias cambian ligeramente, el resultado cambiará también en forma proporcionalmente pequeña. Esta última propiedad se verifica fácilmente, por ejemplo, al disparar un proyectil: si se apunta una fracción de milímetro más abajo o más arriba, la diferencia en la trayectoria será igualmente minúscula y no impedirá que el tirador dé en el blanco.
Pero esto no ocurre siempre: en muchos casos, una diferencia pequeña en el punto de partida produce enormes diferencias en los estados posteriores. Dicho de otro modo, una variación ínfima en las condiciones iniciales puede amplificarse dramáticamente a medida que avanza el tiempo. Esta característica, propia de muchos sistemas dinámicos de cualquier naturaleza (físicos, químicos, biológicos, etc.), se llama precisamente sensibilidad a las condiciones iniciales. Se comprende sin dificultad los aprietos en que este hecho pone a la mecánica clásica diseñada por Sir Isaac y otros: el comportamiento futuro de esa clase de sistemas deja de ser predecible, las ecuaciones de Newton ya no son capaces de indicar qué pasará con un sistema semejante en un momento dado. Esos sistemas, sensibles a las condiciones iniciales, presentan lo que se ha llamado un comportamiento caótico.
El Demonio de Laplace
No es necesario ir muy lejos ni pensar en sistemas demasiado complicados para encontrar ejemplos de sensibilidad a las condiciones iniciales. Basta con algo tan sencillo como un cono parado sobre su vértice; por más que se ponga vertical a su eje, terminará cayendo, y el lado sobre el que caiga dependerá de diferencias pequeñísimas que alteran el equilibrio: un ligero soplo de aire, una minúscula mota de polvo. En teoría, es posible predecir de qué lado caerá el cono, pero ello requeriría el conocimiento preciso de todas las fuerzas a las que está sometido en el momento inicial de equilibrio, lo cual es a todas luces imposible puesto que implicaría introducir la totalidad de una inmensa cantidad de parámetros como condiciones iniciales en las ecuaciones del movimiento.
Hay en esto una aparente paradoja: suena contradictorio afirmar, en efecto, que la evolución de un fenómeno es, al mismo tiempo, impredecible y determinista. En todo caso, va en contra de la idea que sostiene que todo lo que esté determinado debe ser predecible, cuya formulación más célebre pertenece a Pierre-Simon de Laplace, matemático, físico y astrónomo francés, que vivió a caballo de los siglos XVIII y XIX.
Laplace trazó en 1814, en su Essai philosophique sur les probabilités, el perfil de una inteligencia sobrehumana «que por un instante conociese todas las fuerzas de que está animada la naturaleza y la situación respectiva de los seres que la componen»; si esta inteligencia, conocida como el Demonio de Laplace, fuese además capaz de someter sus datos al análisis matemático, «abrazaría en la misma fórmula a los movimientos de los más grandes cuerpos del Universo y los del átomo más ligero: nada sería incierto para ella, y el porvenir, como el pasado, estaría presente ante sus ojos».
En ese mismo párrafo, Laplace daba sin nombrarlo una definición sintética del determinismo: debemos considerar, decía, «el estado presente del Universo como el efecto de su estado anterior, y como causa de su estado futuro». En otras palabras, dado el estado de un sistema en un instante preciso, para cada uno de los momentos anteriores o ulteriores hay un único estado de ese sistema compatible con el primero. Sin duda esto se aplica al cono parado sobre su punta: la totalidad de su historia podría ser reconstruida o predicha conociendo todos los datos relativos a un instante cualquiera de esa historia. Pero ese conocimiento es inaccesible, salvo que se sea el Demonio de Laplace, Dios o algún otro sucedáneo, y es sabido que ni bien ingresa a consideración esta hipótesis se acaba la ciencia.
La expresión «caos determinista» con que se designa este tipo de comportamientos de un sistema no hace, en definitiva, sino dar cuenta de esa reconciliación entre lo impredecible y lo determinado. No es un asunto menor, sobre todo si se considera que implica reconocer que hay muchos fenómenos en la naturaleza que son, a la vez, transparentes y opacos para el conocimiento humano. Saber que se ignora no es nuevo ni fundamentalmente inquietante; en cambio, saber que una vez desentrañado un orden sigue existiendo una porción de ignorancia irreductible por siempre jamás y sin que medien en ello propiedades inefables o fuerzas ocultas, tiene un cierto retrogusto trágico.
El tiempo irreversible
«La ciencia moderna se basa en la noción de leyes de la naturaleza. Estamos tan acostumbrados a ella, que ha llegado a ser como una perogrullada, y sin embargo posee implicaciones muy profundas», dice el premio Nobel de química Ilya Prigogine. Una de estas características esenciales, agrega, «es la eliminación del tiempo. Siempre he pensado que en esta eliminación tuvo una influencia importante el elemento teológico. Para Dios todo está dado. La novedad, la elección o la acción espontánea dependen de nuestro punto de vista humano. En los ojos de Dios el presente contiene el futuro y el pasado».
Los «ojos de Dios» o los del Demonio de Laplace asumen, para los seres humanos, la forma de leyes físicas que la mecánica clásica vertió como ecuaciones matemáticas. Una de las curiosidades de estas leyes es que en ellas el tiempo no tiene una dirección definida: tanto da si el tiempo avanza o retrocede, y por lo tanto los procesos resultan perfectamente reversibles.
Obsérvese, en particular, la segunda ley de Newton, donde la fuerza resulta del producto de la masa por la aceleración: F = m x a. La aceleración es, a su vez, velocidad sobre tiempo (v/t), y la velocidad es distancia sobre tiempo (d/t). La aceleración es, en consecuencia, distancia sobre tiempo al cuadrado (d/t²), y la segunda ley de Newton puede escribirse entonces: F = m x d/t².
La variable tiempo (t) se halla pues elevada al cuadrado, lo que significa que cualquiera sea su signo, positivo o negativo, el resultado no varía. Dicho de otro modo, la trayectoria del movimiento es idéntica en una dirección o la otra. Conocidas las condiciones iniciales de un sistema -su estado en un instante cualquiera-, las ecuaciones del movimiento proporcionan una trayectoria única y permiten reconstruir toda su historia y todo su futuro. Es como si se filmara un péndulo de movimiento perpetuo: no se puede saber en qué sentido se pasa la película.
Pero la intuición o la experiencia personal indican otra cosa: el tiempo no es reversible. Algo aparentemente tan trivial como la mezcla de agua con tinta roja lo muestra claramente; de nada sirve seguir revolviendo la mezcla con la esperanza de que el agua y la tinta vuelvan a separarse espontáneamente. El proceso es irreversible. El tiempo tiene una dirección o, como se dice también, una «flecha».
La «flecha del tiempo» fue introducida en física por el segundo principio de la termodinámica, rama de la física que estudia las relaciones entre el calor y otras formas de energía. Los dos principios fundamentales de esta ciencia rigen el conjunto de transformaciones físico-químicas que tienen lugar en un sistema. El primer principio afirma la conservación de la energía total del sistema en el curso de dichas transformaciones. Un ejemplo sencillo: el trabajo que mueve un automóvil más las pérdidas (en forma de calor, por ejemplo) equivalen a la energía química de la combustión de la gasolina liberada en el interior de los cilindros del motor.
El segundo principio, en su versión original, describe la evolución espontánea de un sistema aislado (que no intercambia materia ni energía con el exterior) y establece que en el curso de esa evolución la energía del sistema, si bien permanece constante, se transforma en parte en calor. Éste no puede a su vez transformarse en otra forma de energía, por lo que al cabo de cierto tiempo el sistema llega al equilibrio termodinámico, estado final en el que ninguna transformación de energía es ya posible. Este segundo principio puede ser formulado también a través de una magnitud abstracta, llamada entropía. La entropía, según el segundo principio, sólo puede crecer en el desarrollo de cualquier transformación de energía, de forma que, transcurrido un tiempo suficientemente largo, alcanza un valor máximo que caracteriza el estado de equilibrio termodinámico.
La entropía y la Venus de Milo
El camino que conduce al equilibrio termodinámico o hacia la entropía máxima es un camino hacia la desorganización o el desorden progresivo. Esto puede ser ilustrado recurriendo a un magnífico ejemplo ideado por el físico español Jorge Wagensberg. Sea, dice Wagensberg, una obra de arte, «una delicada escultura despertada del mármol en la antigua Grecia. Tomémosla prestada para una experiencia: le aplicamos una potente carga de dinamita y accionamos el detonador a distancia. Cuando el polvo y los gases se disipan, descubrimos sin sorpresa unos pedruscos apenas reconocibles. Está claro que se trata de la misma materia, pero organizada de otro modo. Se ha desorganizado, diríamos. Sometamos ahora los nobles escombros a idéntica prueba. (Ver aparecer de nuevo la estatua entre las nubecillas de la segunda explosión nos dejaría atónitos.) Ante nosotros (en cambio) unos cascotes aún más pequeños y deformados. La desorganización ha seguido su curso. El proceso es irreversible. Y lo es en una sola dirección, desde el orden hacia el caos, desde la belleza hacia cualquier cosa. Si nos percatamos además de que con ello hemos definido el fluir del tiempo, entonces es hora de espantarse, provisionalmente, en honor del segundo principio de la termodinámica. No sabemos qué es mejor, si no tener tiempo como los mecanicistas o tenerlo en esta dirección».
Puede considerarse también, por ejemplo, un sistema constituido por la superficie del suelo y una piedra situada libremente a cinco metros por encima, se dirá -con razón- que es una configuración muy improbable. Improbable pero no imposible: al lanzar una piedra hacia arriba, existe un punto sobre el suelo en el que la misma va a inmovilizarse antes de volver a caer hacia la tierra. En ese punto, la energía total del sistema es energía potencial; la piedra inicia su caída y a medida que va cayendo, esa energía potencial va transformándose en energía cinética, para terminar en calor cuando se da contra el suelo.
Esa caída de la piedra es un viaje hacia el equilibrio termodinámico, hacia la entropía máxima, pero también hacia un estado cada vez más probable: no hace falta decir que encontrar piedras en el suelo, al costado del camino, es bastante más común que encontrar una libremente suspendida a tres metros por encima de la cabeza. De este modo, si se plantea en términos de probabilidades, los procesos espontáneos que llevan a los sistemas aislados hacia el equilibrio termodinámico consisten en una sucesión de estados cada vez más probables. En el Universo, todo lo que llama la atención es improbable: la vida, la belleza, cualquier estructura organizada, en suma. Desorden y orden corresponden pues, respectivamente, a probabilidad e improbabilidad, o a entropía y su contrario, neguentropía.
Problemas de la irreversibilidad
Si el segundo principio de la termodinámica rigiera absoluta e implacablemente, las perspectivas de futuro del Universo no serían nada alentadoras. Al igual que la piedra suspendida en el aire, el Universo habría empezado en un nivel de entropía muy bajo, correspondiente a un «orden» inicial, para llegar a la muerte térmica al cabo de un tiempo suficientemente largo. No hay modo de saber si esto es cierto o no hasta que llegue el momento fatal, puesto que se ignora si el Universo es un sistema abierto o aislado. Sí es claro, en cambio, que el segundo principio, al hacer referencia a sistemas aislados y en equilibrio, no es compatible con la descripción de los sistemas vivos, abiertos por excelencia.
Si se quieren dejar fluir los más bajos instintos, puede hacerse la prueba de aislar un ser vivo, privándolo del intercambio de materia y energía con su entorno. Por ejemplo, encerrar un pajarito en un cubo de cristal perfectamente hermético. Se comprobará que el segundo principio no perdona: el sistema se dirigirá inexorablemente a su estado de equilibrio termodinámico, es decir a la muerte biológica. Para los seres vivos, dice Jorge Wagensberg, se necesita pues una termodinámica de no equilibrio para sistemas no aislados.
Esa termodinámica tiene en cuenta casos particulares en los que sistemas abiertos pueden alcanzar una situación estable de no equilibrio llamada «estado estacionario». La situación estable es posible porque el sistema, al ser abierto, puede enviar al entorno toda la entropía que en su interior se produce y mantener así su propia entropía constante. En otras palabras, el sistema establece una suerte de pacto con el entorno, se adapta a él y permanece estable en el estado estacionario, sin avanzar hacia el equilibrio termodinámico. Cualquier perturbación fortuita que tienda a desplazarlo del estado estacionario es resistida; el sistema, por así decir, es capaz de «absorber» esas perturbaciones azarosas (llamadas «fluctuaciones»). Las mismas no tienen pues oportunidad de progresar, de amplificarse, y por lo tanto no alteran el comportamiento del sistema.
Hasta aquí, la vida del sistema sigue siendo previsible y tranquila. Pero esto es así siempre y cuando el sistema no se halle demasiado alejado del equilibrio termodinámico. En caso contrario, las cosas cambian radicalmente. Lejos del equilibrio se presentan casos de inestabilidad, en los cuales las fluctuaciones sí pueden resultar decisivas.
Lo que ocurre es que el estado estacionario compatible con las condiciones del entorno deja de ser único, situación que se expresa matemáticamente en las ecuaciones que describen la evolución del sistema: las mismas se vuelven no lineales, es decir que tienen más de una solución. Llevado esto a una gráfica (ver figura), aparecen puntos críticos, llamados bifurcaciones, donde la evolución futura del sistema deja de ser única, depende de una perturbación ínfima (antes irrelevante) y es por ende incierta: varias soluciones son posibles, pero sólo una se convertirá en realidad. ¿Cuál de ellas? Eso lo decide el azar, una «chispa de azar», según la bella expresión del biólogo francés Henri Atlan.
El nombre de «bifurcación» dado a esos puntos críticos expresa bien la situación: se llega a un estado de incertidumbre, donde varias sendas se abren y no es posible saber de antemano cuál de ellas habrá de ser seguida por el sistema. Lo que ocurre en una bifurcación recuerda la situación de sensibilidad a las condiciones iniciales: basta con apartarse una distancia tan débil como se quiera de la bifurcación para ser precipitado en una dinámica que se aleja para siempre de la misma. Es algo así como encontrarse en el ojo de un ciclón: en ese lugar reina la calma, la armonía; pero un mínimo apartamiento significa ser devorado por la turbulencia más feroz.
Se asiste de esta manera a la reconciliación del azar y el determinismo. La descripción de un sistema con bifurcaciones implica, dice Jorge Wagensberg, la coexistencia de ambos: «entre dos bifurcaciones reinan las leyes deterministas, pero en la inmediata vecindad de tales puntos críticos reina el azar. Esta rara colaboración entre azar y determinismo es el nuevo concepto de historia que propone la termodinámica moderna».
Ilya Prigogine ha llamado a este fenómeno «orden por fluctuaciones», noción que se asemeja a la de «criticalidad autoorganizada», propuesta por el físico Per Bak, del Laboratorio Nacional de Brookhaven, en Nueva York.
La hipótesis de Bak es que los sistemas dinámicos evolucionan de modo natural hacia un estado crítico, y una vez que han llegado a él exhiben una propiedad muy característica: una perturbación pequeña puede desencadenar respuestas de diversa magnitud, desde una respuesta pequeña, que no modifica sustancialmente el estado del sistema, hasta una respuesta extrema, que provoque el colapso total del mismo.
Pero Bak propone una analogía visual que ayuda a comprender mejor esta idea. Se tira un pequeño chorro de arena sobre una bandeja circular. El montón crece firmemente hasta que alcanza el límite y de repente, más arena (un solo grano, por ejemplo) puede desencadenar avalanchas de todo tipo, ya sea una avalancha pequeña, intrascendente, avalanchas de mediana entidad, o una tan grande que lleve al montón de arena a derrumbarse por completo. El montón, cuando no recibe más arena adicional, representa el sistema en el estado crítico, donde una ínfima perturbación fortuita puede arrastrarlo hacia un nuevo e imprevisible estado.
El improbable «programa genético»
El segundo principio de la termodinámica no concuerda, como se dijo, con la descripción de sistemas vivos. Éstos no muestran una tendencia al desorden, a la desorganización creciente, sino, por el contrario, a la complejidad y a la organización. La flecha del tiempo irreversible parece en ellos invertida: el estado inicial de un sistema tal como lo describe el segundo principio de la termodinámica resulta ser en los seres vivos el estado final. Menudo problema, al que la biología molecular dio respuesta con el descubrimiento de los mecanismos moleculares de la herencia.
La evolución de los sistemas vivos no está regida, como las apariencias indican, por una causalidad extraña, donde el estado final comanda el proceso antes aun de su propio advenimiento. Se trata, dice entre otros el biólogo francés Jacques Monod (uno de los fundadores de la biología molecular y premio Nobel de medicina en 1965), del desarrollo de un programa, al igual que en las máquinas programadas (una computadora, por ejemplo): el funcionamiento de estas máquinas parece orientado hacia la realización de un estado futuro, pero en realidad está determinado causalmente por un programa preestablecido, que determina la sucesión de estados por los que la máquina debe pasar.
De esta manera, para dar cuenta de la inversión aparente de la flecha del tiempo, la biología molecular toma prestada de la cibernética una metáfora que hará fortuna: el programa genético. A pesar de la contundencia con que se ha instalado en la biología moderna, esta metáfora presenta dificultades teóricas serias. La primera es, naturalmente, la del origen del primer programa, ante la ausencia de programador evidente. La segunda, que deriva de la anterior, reside en el carácter paradójico de un programa que debe programarse a sí mismo, es decir que necesita, para ser leído y ejecutado, conocer los productos de su propia ejecución.
Esta paradoja se aprecia claramente si se piensa que un procedimiento de cálculo en computadora necesita dos tipos de ingredientes, pertenecientes a niveles lógicos diferentes: datos y un programa. El programa es una serie de instrucciones que se aplican a los datos, opera sobre ellos, y ocupa por lo tanto respecto de éstos un nivel lógico superior. Si esa diferencia de niveles lógicos no existiera, una misma información podría funcionar simultáneamente como dato y como programa. Al operar sobre los datos, el programa operaría sobre sí mismo, es decir que se programaría a sí mismo.
El problema que esto supone es el que surgiría si se decide transmitir un mensaje a seres de los cuales se ignora todo, hasta su existencia. Por ejemplo, eventuales «extraterrestres». La dificultad es que se necesitaría comunicar no sólo el contenido del mensaje, sino también el hecho de que se trata de un mensaje, y finalmente las instrucciones para decodificarlo. Comunicar que se comunica no es la tarea más ardua: alcanza con apostar a que el supuesto receptor hará él mismo la suposición de que el objeto físico que le llega es el soporte de un mensaje. Pero con la transmisión de un programa de decodificación las cosas se complican. Escrita bajo la forma de un mensaje explícito, esa información que quiere ser de un nivel lógico superior sería rebajada al rango de simple dato, como el propio mensaje a decodificar, y ello volvería a generar el problema de comunicar su modo de decodificación, y así al infinito. En síntesis, para comprender el modo de decodificación que permitirá comprender el mensaje, es preciso haber comprendido ya el mensaje, lo cual torna superflua la información sobre el modo de decodificación. Superflua, pero no obstante indispensable.
Ésa es la implicación de la metáfora del código genético. Los operadores que realizan la transcripción y la traducción de los ADN en proteínas enzimáticas son ellos mismos proteínas enzimáticas codificadas en el ADN, de tal suerte que para llevar a cabo la traducción hace falta haberla llevado ya a cabo. Así pues, si se toman al pie de la letra las nociones de programa y de código, no se comprende cómo podrían decodificarse las instrucciones del programa. Y sin embargo funciona. Es preciso pues concluir que la existencia individual del ser vivo, y sólo ella, sabe resolver la paradoja. Esa solución tiene un nombre: autoorganización.
La autoorganización
Henri Atlan, autor de una impresionante obra teórica sobre la autoorganización, sostiene que esta teoría permite comprender, precisamente, «la naturaleza lógica de sistemas donde aquello que oficia de programa se modifica incesantemente, de manera no preestablecida, bajo el efecto de factores aleatorios del entorno», dando lugar a un aumento de la complejidad de ese sistema. No otra cosa dice el principio de «orden por fluctuaciones», según el cual bajo ciertas condiciones la materia es capaz, por la intervención de lo aleatorio, de autoorganizarse para dar nacimiento a formas nuevas.
Las investigaciones sobre la autoorganización se han desarrollado, en los últimos veinticinco años, en el seno del archipiélago científico, en esos pasajes donde se navega entre físico-química, biología y cibernética. La necesidad de dar respuesta a problemas como los planteados por el segundo principio de la termodinámica y por la noción de programa genético apuraron la consolidación de un concepto cuyos insumos principales fueron elaborados, en lo esencial, en Estados Unidos en la segunda posguerra: teoría matemática de la comunicación, teoría general de sistemas, cibernética.
En una formulación lo más sintética posible, el fenómeno de autoorganización puede describirse como sigue: al verse afectado por perturbaciones aleatorias, un sistema con una estructura o una organización dada, modifica su estructura, se reorganiza. Literalmente, el sistema se organiza a sí mismo, en respuesta a la intervención de un factor azaroso. Una característica fundamental del proceso es que al término del mismo se ha producido un aumento de la complejidad del sistema. En otras palabras, su nueva estructura es más compleja que la inicial. Naturalmente, a falta de una definición de complejidad, todo esto puede no querer decir gran cosa. Afortunadamente, hay definiciones disponibles, entre las cuales una de las más acabadas pertenece, una vez más, a Henri Atlan .
La autoorganización es, en definitiva, un modelo que explica el pasaje de lo local a lo global, cuando ese pasaje implica un aumento de complejidad y produce la emergencia de algo nuevo. En el nivel de organización más global emergen propiedades nuevas en relación con el nivel más elemental. Se trata, por ejemplo, de propiedades biológicas de las células vivas, nuevas respecto de las propiedades químicas de las moléculas, o propiedades psicológicas de la mente humana, nuevas respecto de las propiedades fisiológicas del cerebro.
De la interacción local de los componentes individuales de un sistema emerge algún tipo de propiedad global, algo que no se podría haber previsto a partir de lo que se sabía de las partes componentes. A su vez, la propiedad global, ese comportamiento emergente, vuelve a influir en el comportamiento de los componentes individuales que la produjeron. Orden surgiendo de un sistema dinámico complejo, propiedades globales fluyendo del comportamiento general de los individuos.
No hay comentarios:
Publicar un comentario