De ciclones y mariposas
Una mariposa aletea en
la selva amazónica y pone en marcha sucesos que terminarán
produciendo, algunos días después, un ciclón
en el Caribe. Acuñada por el meteorólogo norteamericano
Edward Lorenz a comienzos de los años sesenta, la imagen
-conocida como «efecto mariposa»- se ha convertido
en una suerte de viñeta de la llamada teoría del
caos. El «efecto mariposa» ilustra uno de los aspectos
fundamentales descriptos por esta teoría: pequeñísimas
causas capaces de provocar grandes consecuencias o, para llamarlo
por su nombre, el fenómeno de «sensibilidad a las
condiciones iniciales». Pero Lorenz no parece haber sido
el único a quien la inspiración asistió
a la hora de expresar sus ideas. Términos como catástrofes,
autoorganización, caos,
complejidad, fractales, atractores extraños y otros, que
podrían formar parte del arsenal retórico de un
telepredicador o encontrarse en los versos de algún poeta
más o menos hermético, integran sin embargo el
vocabulario de una de las orientaciones más prometedoras
de la investigación científica contemporánea.
Se trata, para muchos, de un «nuevo paradigma» que
la física, la matemática y la biología han
dado a luz, y al que últimamente se han acoplado algunas
ciencias sociales. A pesar de interpretaciones erróneas
y exageradas, de derrapes hacia la mística o la ideología,
ese conjunto de teorías de nombre evocador trae consigo
un modo genuinamente nuevo de pensar la realidad. Naturalmente,
no es posible dar cuenta de manera exhaustiva de las «ciencias
del desorden»; lo que sigue es pues un apretado recorrido
a través de algunos de sus principales temas.
La ciencia
es percibida, tradicionalmente, como una actividad cuyo cometido
es descubrir el orden, a menudo oculto, de la naturaleza. En
la actualidad, sin embargo, muchos científicos se interesan
por el «desorden» bajo
todas sus formas, y la propia idea de elaborar una «ciencia
del desorden» gana terreno. Parece haber en ello una paradoja:
¿un desorden que es objeto de una «ciencia»
sigue siendo realmente un desorden? Si se acepta, en efecto,
que la ciencia apunta a revelar el orden oculto de las cosas,
el desorden no puede ser otra cosa que una impresión provisoria
resultante de nuestra incomprensión, una ilusión
que los progresos de la labor científica borrarán
poco a poco.
De hecho, durante mucho tiempo ése fue el programa de
la ciencia, cuya historia aparecía como una progresión
inexorable hacia el saber absoluto. Poco importaba que no se
hubiera alcanzado aún la meta, la certeza de su existencia
iluminaba el conjunto del proceder. Pero desde hace por lo menos
tres décadas, esa fe en un conocimiento perfecto ha perdido
algo de su robustez. Hoy se acepta, por ejemplo, que la incapacidad
para predecir ciertos comportamientos de algunos sistemas físicos
no es el mero fruto de la ignorancia o de la insuficiencia de
los instrumentos disponibles.
Viejas entidades antes proscriptas o menospreciadas, como el
azar, han vuelto por sus fueros. El «desorden» ya
no es visto como una anomalía, una arruga en el mantel
del universo, sino como una característica para nada excepcional
que se encuentra tanto en los movimientos en el sistema solar
como en los cambios climáticos, los ritmos cardíacos
o la vida económica.
Orden y desorden
Para calibrar la real magnitud de este cambio de óptica,
basta con detenerse un instante en el propio concepto de desorden.
Como la misma palabra lo indica, es una noción negativa
a la que no se le puede dar un contenido más que refiriéndose,
aunque sea implícitamente, a cierta concepción
del orden.
El orden, a su vez, es el tema de fondo que todas las mitologías,
las religiones y las filosofías han intentado resolver,
pero siempre dando por sentado que ese orden existe. Todo desorden,
por lo tanto, tiende a aparecer como una imperfección,
una causa de inquietud. Dicho de otro modo, para el confort psicológico
de los seres humanos, no es indiferente que la Naturaleza sea
o no ordenada, encierre o no «desorden» o «caos».
Queda claro que el término «desorden» significa
aquí algo más profundo e incluso más dramático
que un trivial estado de confusión, una disposición
de las cosas más o menos irregular. Se trata nada menos
que de un Orden que ha sido desgraciada y gravemente perturbado.
El desorden se vuelve entonces escandaloso, se presenta como
un estado o un proceso particular que no habría debido
existir, y remite a
un Orden ideal, social o natural, que ha sido escarnecido.
Si se tiene en cuenta que, por ejemplo, la noción de «caos»
tiene, en los textos científicos, un sentido técnico
muy preciso (los fenómenos «caóticos»
son aquellos en los cuales muy pequeñas diferencias en
las causas son capaces de provocar grandes diferencias en los
efectos), las disquisiciones anteriores sobre el orden y el desorden
pueden sonar desproporcionadas, cuando no desubicadas.
De hecho, los peores enemigos de la teoría del caos son
las especulaciones sobre el Desorden universal que la misma ha
desencadenado, gracias a la elección de un nombre tan
cargado de referencias culturales. Es cierto, como no se cansan
de advertir los científicos, que debe evitarse atribuir
al uso que ellos hacen de la palabra caos, así como a
los demás «desórdenes» del mismo tipo,
un alcance mágico.
No obstante, es imposible separar los campos de manera absoluta.
Durante siglos, recuerda el historiador de las ciencias Pierre
Thuillier, el proyecto que ha animado el trabajo científico
ha sido platónico, lo cual equivale a
decir que aun bajo su forma más laica, la ciencia ha
estado vinculada a ciertas conjeturas religiosas sobre el
orden universal. Platón fue, en efecto, uno de los grandes
fundadores de la «religión cósmica»,
que consistía en venerar el mundo que nos rodea, caracterizado
por la organización y la inteligibilidad, como el reflejo
de la
Razón divina. Ese mundo es consecuencia, según
Platón,
de la acción del Demiurgo, un ser mítico cuya intervención
ha consistido en poner en orden el desorden primordial del universo.
Pero no se trata de cualquier orden: el Demiurgo, dice Platón,
es matemático y ha instaurado por doquier el
imperio de las formas y de las proporciones geométricas.
El mundo no sólo está ordenado, sino que está
matemáticamente ordenado. El trabajo de los científicos
consistirá, entonces, en encontrar las estructuras racionales
que han servido como «modelos» al Demiurgo. Así,
desde Platón y pasando por Galileo, Kepler, Newton y Einstein,
la ciencia ha valorizado las formas matemáticas que manifestaban
mejor las cualidades ideales atribuidas a una Potencia Ordenadora
(Dios, la Naturaleza, u otra): pureza, simplicidad, regularidad,
armonía, belleza. En otras palabras, cuanto más
simple es algo, más bello y más verdadero es.
De este modo, la introducción del «desorden»
como objeto de estudio interesante y válido por sí
mismo implica un abandono del platonismo, es decir de la creencia
en una jerarquía absoluta de las formas matemáticas
en cuya cima reinan las formas más simples y armónicas.
En la irrupción de las ciencias del desorden anida, en
definitiva, un cambio de estética, una mutación
de tipo filosófico y cultural, una transformación
de la sensibilidad, que va bastante más allá de
un mero conjunto de inventos especializados.
El Orden según Newton
Cuando la posteridad elige la caricatura para fijar el recuerdo
de ciertos individuos puede ser tremendamente injusta.
Sir Isaac Newton ha sufrido ese proceso, y su mayor mérito
parece haber sido observar las manzanas cayendo de los árboles.
Flaco favor hace esa imagen a quien contribuyó como nadie
a la creación de una verdadera catedral científica,
llamada mecánica clásica. A través de esa
espléndida construcción intelectual, Occidente
dispuso, desde el último tercio del siglo XVII, de la
visión de un Universo ordenado y predecible.
De acuerdo a la mecánica newtoniana, el mundo es un gigantesco
mecanismo regido por «leyes naturales» eternas
e inmutables. Esas leyes, que se expresan mediante ecuaciones
matemáticas (las ecuaciones del movimiento), determinan
que en circunstancias idénticas resulten siempre cosas
idénticas, y si las circunstancias cambian ligeramente,
el resultado cambiará también en forma proporcionalmente
pequeña. Esta última propiedad se verifica fácilmente,
por ejemplo, al disparar un proyectil: si se apunta una fracción
de milímetro más abajo o más arriba, la
diferencia en la trayectoria será igualmente minúscula
y no impedirá que
el tirador dé en el blanco.
Pero esto no ocurre siempre: en muchos casos, una diferencia
pequeña en el punto de partida produce enormes diferencias
en los estados posteriores. Dicho de otro modo, una variación
ínfima en las condiciones iniciales puede amplificarse
dramáticamente a medida que avanza el tiempo. Esta característica,
propia de muchos sistemas dinámicos de cualquier naturaleza
(físicos, químicos, biológicos, etc.), se
llama precisamente sensibilidad a las condiciones iniciales.
Se comprende sin dificultad los aprietos en que este hecho pone
a la mecánica clásica diseñada por Sir Isaac
y otros: el comportamiento futuro de esa clase de sistemas deja
de ser predecible, las ecuaciones de Newton ya no son capaces
de indicar qué pasará con un sistema semejante
en un momento dado. Esos sistemas, sensibles a las condiciones
iniciales, presentan lo que se ha llamado un comportamiento caótico.
El Demonio de Laplace
No es necesario ir muy lejos ni pensar en sistemas demasiado
complicados para encontrar ejemplos de sensibilidad a las condiciones
iniciales. Basta con algo tan sencillo como un cono parado sobre
su vértice; por más que se ponga vertical a su
eje, terminará cayendo, y el lado sobre el que caiga dependerá
de diferencias pequeñísimas que alteran el equilibrio:
un ligero soplo de aire, una minúscula mota de polvo.
En teoría, es posible predecir de qué lado caerá
el cono, pero ello requeriría el conocimiento preciso
de todas las fuerzas a las que está sometido en el momento
inicial de equilibrio, lo cual es a todas luces imposible puesto
que implicaría introducir la totalidad de una inmensa
cantidad de parámetros como condiciones iniciales en las
ecuaciones del movimiento.
Hay en esto una aparente paradoja: suena contradictorio afirmar,
en efecto, que la evolución de un fenómeno es,
al mismo tiempo, impredecible y determinista. En todo caso, va
en contra de la idea que sostiene que todo lo que esté
determinado debe ser predecible, cuya formulación más
célebre pertenece a Pierre-Simon de Laplace, matemático,
físico y astrónomo francés, que vivió
a caballo de los siglos XVIII y XIX.
Laplace trazó en 1814, en su Essai philosophique sur
les probabilités, el perfil de una inteligencia sobrehumana
«que por un instante conociese todas las fuerzas de que
está animada la naturaleza y la situación respectiva
de los seres que la componen»; si esta inteligencia, conocida
como el Demonio de Laplace, fuese además capaz de someter
sus datos al análisis matemático, «abrazaría
en la misma fórmula a los movimientos de los más
grandes cuerpos del Universo y los del átomo más
ligero: nada sería incierto para ella, y el porvenir,
como el pasado, estaría presente ante sus ojos».
En ese mismo párrafo, Laplace daba sin nombrarlo una definición
sintética del determinismo: debemos considerar,
decía, «el estado presente del Universo como el
efecto de
su estado anterior, y como causa de su estado futuro».
En otras palabras, dado el estado de un sistema en un instante
preciso, para cada uno de los momentos anteriores o ulteriores
hay un único estado de ese sistema compatible
con el primero. Sin duda esto se aplica al cono parado sobre
su punta: la totalidad de su historia podría ser reconstruida
o predicha conociendo todos los datos relativos a un instante
cualquiera de esa historia. Pero ese conocimiento es inaccesible,
salvo que se sea el Demonio de Laplace, Dios
o algún otro sucedáneo, y es sabido que ni bien
ingresa a consideración esta hipótesis se acaba
la ciencia.
La expresión «caos determinista» con que se
designa
este tipo de comportamientos de un sistema no hace, en definitiva,
sino dar cuenta de esa reconciliación entre lo impredecible
y lo determinado. No es un asunto menor, sobre todo si se considera
que implica reconocer que hay muchos fenómenos en la naturaleza
que son, a la vez, transparentes y opacos para el conocimiento
humano.
Saber que se ignora no es nuevo ni fundamentalmente inquietante;
en cambio, saber que una vez desentrañado un orden sigue
existiendo una porción de ignorancia irreductible por
siempre jamás y sin que medien en ello propiedades inefables
o fuerzas ocultas, tiene un cierto retrogusto trágico.
El tiempo irreversible
«La ciencia moderna se basa en la noción de leyes
de la naturaleza. Estamos tan acostumbrados a ella, que ha llegado
a ser como una perogrullada, y sin embargo posee implicaciones
muy profundas», dice el premio Nobel de química
Ilya Prigogine. Una de estas características esenciales,
agrega, «es la eliminación del tiempo. Siempre
he pensado que en esta eliminación tuvo una influencia
importante el elemento teológico. Para Dios todo está
dado. La novedad, la elección o la acción espontánea
dependen
de nuestro punto de vista humano. En los ojos de Dios el presente
contiene el futuro y el pasado».
Los «ojos de Dios» o los del Demonio de Laplace asumen,
para los seres humanos, la forma de leyes físicas que
la mecánica clásica virtió como ecuaciones
matemáticas.
Una de las curiosidades de estas leyes es que en ellas el tiempo
no tiene una dirección definida: tanto da si el tiempo
avanza o retrocede, y por lo tanto los procesos resultan perfectamente
reversibles.
Obsérvese, en particular, la segunda ley de Newton, donde
la fuerza resulta del producto de la masa por la aceleración:
F = m x a.
La aceleración es, a su vez, velocidad sobre tiempo (v/t),
y la velocidad es distancia sobre tiempo (d/t). La aceleración
es, en consecuencia, distancia sobre tiempo al cuadrado (d/t²),
y la segunda ley de Newton puede escribirse entonces: F = m x
d/t².
La variable tiempo (t) se halla pues elevada al cuadrado, lo
que significa que cualquiera sea su signo, positivo o negativo,
el resultado no varía. Dicho de otro modo, la trayectoria
del movimiento es idéntica en una dirección o la
otra. Conocidas las condiciones iniciales de un sistema -su estado
en un instante cualquiera-, las ecuaciones del movimiento proporcionan
una trayectoria única y permiten reconstruir toda su historia
y todo su futuro. Es como si se filmara un péndulo de
movimiento perpetuo: no se puede saber en qué sentido
se pasa la película.
Pero la intuición o la experiencia personal indican otra
cosa: el tiempo no es reversible. Algo aparentemente tan trivial
como la mezcla de agua con tinta roja lo muestra claramente;
de nada sirve seguir revolviendo la mezcla con la esperanza de
que el agua y la tinta vuelvan a separarse espontáneamente.
El proceso es irreversible. El tiempo tiene una dirección
o, como se dice también, una «flecha».
La «flecha del tiempo» fue introducida en física
por el segundo principio de la termodinámica, rama de
la física
que estudia las relaciones entre el calor y otras formas de energía.
Los dos principios fundamentales de esta ciencia rigen el conjunto
de transformaciones físico-químicas que tienen
lugar en un sistema. El primer principio afirma la conservación
de la energía total del sistema en el curso de dichas
transformaciones. Un ejemplo sencillo: el trabajo
que mueve un automóvil más las pérdidas
(en forma de calor, por ejemplo) equivalen a la energía
química de la combustión de la gasolina liberada
en el interior de los cilindros del motor.
El segundo principio, en su versión original, describe
la evolución espontánea de un sistema aislado (que
no intercambia materia ni energía con el exterior) y establece
que en el curso de esa evolución la energía del
sistema, si bien permanece constante, se transforma en parte
en calor. Éste no puede a su vez transformarse en otra
forma de energía, por lo que al cabo de cierto tiempo
el sistema llega al equilibrio termodinámico, estado final
en el que ninguna transformación de energía es
ya posible. Este segundo principio puede ser formulado también
a través de una magnitud abstracta, llamada entropía.
La entropía, según
el segundo principio, sólo puede crecer en el desarrollo
de cualquier transformación de energía, de forma
que, transcurrido un tiempo suficientemente largo, alcanza un
valor máximo que caracteriza el estado de equilibrio termodinámico.
La entropía y la Venus de Milo
El camino que conduce al equilibrio termodinámico o hacia
la entropía máxima es un camino hacia la desorganización
o el desorden progresivo. Esto puede ser ilustrado recurriendo
a un magnífico ejemplo ideado por el físico español
Jorge Wagensberg. Sea, dice Wagensberg, una obra de arte, «una
delicada escultura despertada del mármol en la antigua
Grecia. Tomémosla prestada para una experiencia: le aplicamos
una potente carga de dinamita y accionamos
el detonador a distancia.
Cuando el polvo y los gases se disipan, descubrimos sin sorpresa
unos pedruscos apenas reconocibles. Está claro que se
trata de la misma materia, pero organizada de otro modo. Se ha
desorganizado, diríamos. Sometamos ahora los nobles escombros
a idéntica prueba. (Ver aparecer de nuevo la estatua entre
las nubecillas de la segunda explosión nos dejaría
atónitos.) Ante nosotros (en cambio) unos cascotes aún
más pequeños y deformados. La desorganización
ha seguido su curso. El proceso es irreversible. Y lo es en una
sola dirección, desde el orden hacia el caos, desde la
belleza hacia cualquier cosa. Si nos percatamos además
de que con ello hemos definido el fluir del tiempo, entonces
es hora de espantarse, provisionalmente, en honor del segundo
principio de la termodinámica. No sabemos qué es
mejor, si no tener tiempo como los mecanicistas o tenerlo en
esta dirección».
Puede considerarse también, por ejemplo, un sistema constituido
por la superficie del suelo y una piedra situada libremente a
cinco metros por encima, se dirá -con razón- que
es una configuración muy improbable. Improbable pero no
imposible: al lanzar una piedra hacia arriba, existe un punto
sobre el suelo en el que la misma va a inmovilizarse antes de
volver a caer hacia la tierra. En ese punto, la energía
total del sistema es energía potencial; la piedra inicia
su caída y a medida que va cayendo, esa energía
potencial va transformándose en energía cinética,
para terminar en calor cuando se da contra el suelo.
Esa caída de la piedra es un viaje hacia el equilibrio
termodinámico, hacia la entropía máxima,
pero también hacia un estado cada vez más probable:
no hace falta decir que encontrar piedras en el suelo, al costado
del camino,
es bastante más común que encontrar una libremente
suspendida a tres metros por encima de la cabeza.
De este modo, si se plantea en términos de probabilidades,
los procesos espontáneos que llevan a los sistemas aislados
hacia el equilibrio termodinámico consisten en una sucesión
de estados cada vez más probables. En el Universo, todo
lo que llama la atención es improbable: la vida, la belleza,
cualquier estructura organizada, en suma. Desorden y orden corresponden
pues, respectivamente, a probabilidad e improbabilidad, o a entropía
y su contrario, neguentropía.
Problemas de la irreversibilidad
Si el segundo principio de la termodinámica rigiera absoluta
e implacablemente, las perspectivas de futuro del Universo no
serían nada alentadoras. Al igual que la piedra suspendida
en el aire, el Universo habría empezado en un nivel de
entropía muy bajo, correspondiente a un «orden»
inicial, para llegar a la muerte térmica al cabo de un
tiempo suficientemente largo. No hay modo de saber si esto es
cierto o no hasta que llegue el momento fatal, puesto que se
ignora si el Universo es un sistema abierto o aislado. Sí
es claro, en cambio, que el segundo principio, al hacer referencia
a sistemas aislados
y en equilibrio, no es compatible con la descripción de
los sistemas vivos, abiertos por excelencia.
Si se quieren dejar fluir los más bajos instintos, puede
hacerse la prueba de aislar un ser vivo, privándolo del
intercambio de materia y energía con su entorno. Por ejemplo,
encerrar un pajarito en un cubo de cristal perfectamente hermético.
Se comprobará que el segundo principio no perdona: el
sistema se dirigirá inexorablemente
a su estado de equilibrio termodinámico, es decir a la
muerte biológica. Para los seres vivos, dice Jorge Wagensberg,
se necesita pues una termodinámica de no equilibrio para
sistemas no aislados.
Esa termodinámica tiene en cuenta casos particulares en
los que sistemas abiertos pueden alcanzar una situación
estable de no equilibrio llamada «estado estacionario».
La situación estable es posible porque el sistema, al
ser abierto, puede enviar al entorno toda la entropía
que en su interior se produce y mantener así su propia
entropía constante.
En otras palabras, el sistema establece una suerte de pacto con
el entorno, se adapta a él y permanece estable en el estado
estacionario, sin avanzar hacia el equilibrio termodinámico.
Cualquier perturbación fortuita que tienda
a desplazarlo del estado estacionario es resistida; el sistema,
por así decir, es capaz de «absorber» esas
perturbaciones azarosas (llamadas «fluctuaciones»).
Las mismas no tienen pues oportunidad de progresar, de amplificarse,
y por lo tanto no alteran el comportamiento del sistema.
Hasta aquí, la vida del sistema sigue siendo previsible
y tranquila. Pero esto es así siempre y cuando el sistema
no
se halle demasiado alejado del equilibrio termodinámico.
En caso contrario, las cosas cambian radicalmente. Lejos
del equilibrio se presentan casos de inestabilidad, en los cuales
las fluctuaciones sí pueden resultar decisivas.
Lo que ocurre es que el estado estacionario compatible con las
condiciones del entorno deja de ser único, situación
que se expresa matemáticamente en las ecuaciones que describen
la evolución del sistema: las mismas se vuelven no lineales,
es decir que tienen más de una solución. Llevado
esto a una gráfica (ver figura), aparecen puntos críticos,
llamados bifurcaciones, donde la evolución futura
del sistema deja de ser única, depende de una perturbación
ínfima (antes irrelevante) y es por ende incierta: varias
soluciones son posibles, pero sólo una se convertirá
en realidad. ¿Cuál de ellas? Eso lo decide el azar,
una «chispa de azar», según la bella expresión
del biólogo francés Henri Atlan.
El nombre de «bifurcación» dado a esos puntos
críticos expresa bien la situación: se llega a
un estado de incertidumbre, donde varias sendas se abren y no
es posible saber de antemano cuál de ellas habrá
de ser seguida por el sistema. Lo que ocurre en una bifurcación
recuerda la situación de sensibilidad a las condiciones
iniciales: basta con apartarse una distancia tan débil
como se quiera de la bifurcación para ser precipitado
en una dinámica que se aleja para siempre de la misma.
Es algo así como encontrarse en el ojo de un ciclón:
en ese lugar reina la calma, la armonía; pero un mínimo
apartamiento significa ser devorado por la turbulencia más
feroz.
Se asiste de esta manera a la reconciliación del azar
y el determinismo. La descripción de un sistema con bifurcaciones
implica, dice Jorge Wagensberg, la coexistencia de ambos: «entre
dos bifurcaciones reinan las leyes deterministas, pero en la
inmediata vecindad de tales puntos críticos reina el azar.
Esta rara colaboración entre azar y determinismo es el
nuevo concepto de historia que propone la termodinámica
moderna».
Ilya Prigogine ha llamado a este fenómeno «orden
por fluctuaciones», noción que se asemeja a la de
«criticalidad autoorganizada», propuesta por el físico
Per Bak, del Laboratorio Nacional de Brookhaven, en Nueva York.
La hipótesis de Bak es que los sistemas dinámicos
evolucionan de modo natural hacia un estado crítico, y
una vez que han llegado a él exhiben una propiedad muy
característica: una perturbación pequeña
puede desencadenar respuestas de diversa magnitud, desde una
respuesta pequeña, que no modifica sustancialmente el
estado del sistema, hasta una respuesta extrema, que provoque
el colapso total del mismo.
Pero Bak propone una analogía visual que ayuda a comprender
mejor esta idea. Se tira un pequeño chorro de arena sobre
una bandeja circular. El montón crece firmemente hasta
que alcanza el límite y de repente, más arena (un
solo grano, por ejemplo) puede desencadenar avalanchas de todo
tipo, ya sea una avalancha pequeña, intrascendente, avalanchas
de mediana entidad, o una tan grande que lleve al montón
de arena a derrumbarse por completo. El montón, cuando
no recibe más arena adicional, representa el sistema en
el estado crítico, donde una ínfima perturbación
fortuita puede arrastrarlo hacia un nuevo e imprevisible estado.
El improbable «programa genético»
El segundo principio de la termodinámica no concuerda,
como se dijo, con la descripción de sistemas vivos. Éstos
no muestran una tendencia al desorden, a la desorganización
creciente, sino, por el contrario, a la complejidad y a la organización.
La flecha del tiempo irreversible parece en ellos invertida:
el estado inicial de un sistema tal como lo describe el segundo
principio de la termodinámica resulta ser en los seres
vivos el estado final. Menudo problema, al que la biología
molecular dio respuesta con el descubrimiento de los mecanismos
moleculares de la herencia.
La evolución de los sistemas vivos no está regida,
como
las apariencias indican, por una causalidad extraña, donde
el estado final comanda el proceso antes aun de su propio advenimiento.
Se trata, dice entre otros el biólogo francés Jacques
Monod (uno de los fundadores de la biología molecular
y premio Nobel de medicina en 1965), del desarrollo de un programa,
al igual que en las máquinas programadas (una computadora,
por ejemplo): el funcionamiento de estas máquinas parece
orientado hacia la realización de un estado futuro, pero
en realidad está determinado causalmente por un programa
preestablecido, que determina la sucesión de estados por
los que la máquina debe pasar.
De esta manera, para dar cuenta de la inversión aparente
de la flecha del tiempo, la biología molecular toma prestada
de la cibernética una metáfora que hará
fortuna: el programa genético. A pesar de la contundencia
con que se ha instalado en la biología moderna, esta metáfora
presenta dificultades teóricas serias. La primera es,
naturalmente, la del origen del primer programa, ante la ausencia
de programador evidente. La segunda, que deriva de la anterior,
reside en el carácter paradójico de un programa
que debe programarse a sí mismo, es decir que necesita,
para ser leído y ejecutado, conocer los productos de su
propia ejecución.
Esta paradoja se aprecia claramente si se piensa que un procedimiento
de cálculo en computadora necesita dos tipos de ingredientes,
pertenecientes a niveles lógicos diferentes: datos y un
programa. El programa es una serie de instrucciones que se aplican
a los datos, opera sobre ellos, y ocupa por lo tanto respecto
de éstos un nivel lógico superior. Si esa diferencia
de niveles lógicos no existiera, una misma información
podría funcionar simultáneamente como dato y como
programa. Al operar sobre los datos, el programa operaría
sobre sí mismo, es decir que se programaría a sí
mismo.
El problema que esto supone es el que surgiría si se decide
transmitir un mensaje a seres de los cuales se ignora todo, hasta
su existencia. Por ejemplo, eventuales «extraterrestres».
La dificultad es que se necesitaría comunicar no sólo
el contenido del mensaje, sino también
el hecho de que se trata de un mensaje, y finalmente las instrucciones
para decodificarlo. Comunicar que se comunica no es la tarea
más ardua: alcanza con apostar a que el supuesto receptor
hará él mismo la suposición de que el objeto
físico que le llega es el soporte de un mensaje.
Pero con la transmisión de un programa de decodificación
las cosas se complican. Escrita bajo la forma de un mensaje explícito,
esa información que quiere ser de un nivel lógico
superior sería rebajada al rango de simple dato, como
el propio mensaje a decodificar, y ello volvería a generar
el problema de comunicar su modo de decodificación, y
así al infinito. En síntesis, para comprender el
modo de decodificación que permitirá comprender
el mensaje, es preciso haber comprendido ya el mensaje, lo cual
torna superflua la información sobre el modo de decodificación.
Superflua, pero no obstante indispensable.
Ésa es la implicación de la metáfora del
código genético. Los operadores que realizan la
transcripción y la traducción de los ADN en proteínas
enzimáticas son ellos mismos proteínas enzimáticas
codificadas en el ADN, de tal suerte que para llevar a cabo la
traducción hace falta haberla llevado ya a cabo.
Así pues, si se toman al pie de la letra las nociones
de programa y de código, no se comprende cómo podrían
decodificarse las instrucciones del programa. Y sin embargo funciona.
Es preciso pues concluir que la existencia individual del ser
vivo, y sólo ella, sabe resolver la paradoja. Esa solución
tiene un nombre: autoorganización.
La autoorganización
Henri Atlan, autor de una impresionante obra teórica sobre
la autoorganización, sostiene que esta teoría permite
comprender, precisamente, «la naturaleza lógica
de sistemas donde aquello que oficia de programa se modifica
incesantemente, de manera no preestablecida, bajo el efecto de
factores aleatorios del entorno», dando lugar a un aumento
de la complejidad de ese sistema. No otra cosa dice el principio
de «orden por fluctuaciones», según el cual
bajo ciertas condiciones la materia es capaz, por la intervención
de lo aleatorio, de autoorganizarse para dar nacimiento a formas
nuevas.
Las investigaciones sobre la autoorganización se han desarrollado,
en los últimos veinticinco años, en el seno del
archipiélago científico, en esos pasajes donde
se navega entre físico-química, biología
y cibernética. La necesidad de dar respuesta a problemas
como los planteados por el segundo principio de la termodinámica
y por la noción de programa genético apuraron la
consolidación de un concepto cuyos insumos principales
fueron elaborados, en lo esencial, en Estados Unidos en la segunda
posguerra: teoría matemática de la comunicación,
teoría general de sistemas, cibernética.
En una formulación lo más sintética posible,
el fenómeno
de autoorganización puede describirse como sigue: al verse
afectado por perturbaciones aleatorias, un sistema con una estructura
o una organización dada, modifica su estructura, se reorganiza.
Literalmente, el sistema se organiza a sí mismo, en respuesta
a la intervención de un factor azaroso. Una característica
fundamental del proceso es que al término del mismo se
ha producido un aumento de la complejidad del sistema. En otras
palabras, su nueva estructura es más compleja que la inicial.
Naturalmente, a falta de una definición de complejidad,
todo esto puede no querer decir gran cosa. Afortunadamente, hay
definiciones disponibles, entre las cuales una de las más
acabadas pertenece, una vez más, a Henri Atlan .
La autoorganización es, en definitiva, un modelo que explica
el pasaje de lo local a lo global, cuando ese pasaje implica
un aumento de complejidad y produce la emergencia de algo nuevo.
En el nivel de organización más global emergen
propiedades nuevas en relación con el nivel más
elemental. Se trata, por ejemplo, de propiedades biológicas
de las células vivas, nuevas respecto de las propiedades
químicas de las moléculas, o propiedades psicológicas
de la mente humana, nuevas respecto de las propiedades fisiológicas
del cerebro.
De la interacción local de los componentes individuales
de un sistema emerge algún tipo de propiedad global, algo
que no se podría haber previsto a partir de lo que se
sabía de las partes componentes. A su vez, la propiedad
global, ese comportamiento emergente, vuelve a influir en el
comportamiento de los componentes individuales que la produjeron.
Orden surgiendo de un sistema dinámico complejo, propiedades
globales fluyendo del comportamiento general de los individuos.
El caos como metáfora
La circulación de conceptos de una disciplina a otra tiene
uno de sus capítulos más jugosos y densos en los
préstamos entre las ciencias llamadas «duras»
y las ciencias humanas o sociales. El tránsito suele ser
más frecuente desde las primeras en dirección a
las segundas, y en los últimos tiempos uno de los pasajes
más intensos involucra precisamente a las teorías,
modelos y conceptos surgidos de las «ciencias del desorden».
Ese tipo de circulación no necesariamente es negativo,
por cierto, y un repaso de la historia de las ciencias muestra
que a menudo ha sido fecundo. El problema aparece cuando el lenguaje
de un saber exitoso -o por lo menos prestigioso- posee una irradiación
tal que se recurre sin más a él para reinterpretar
otras zonas del conocimiento. Ese lenguaje se convierte así,
en un momento dado, en el modelo
conceptual por excelencia, y si se le aplica de un modo automático
tiende a transformarse en jerga, es decir en un medio de expresión
que no sólo no innova, sino que deseca todo lo que toca
a su paso. El más perverso de los efectos de este fenómeno
es el brote de ideologías blandas y ubicuas que terminan
carcomiendo los más variados discursos intelectuales,
como ha ocurrido, por ejemplo, con la informática y la
comunicación.
En lo que respecta a las teorías del caos y de la complejidad,
justo es decir que el impacto a veces seductor de la nomenclatura
propia de esas teorías no facilita las cosas. Los atractores extraños, las «catástrofes»
y, por supuesto, el propio «caos», se prestan a un
uso abusivo. Las construcciones intelectuales precisas que designan
naufragan entonces a menudo, en medio de una literatura cenagosa
que supera cuantitativamente en mucho las publicaciones especializadas.
Una ilustración contundente la ofrece la metáfora
termodinámica aplicada a lo social. Ervin Laszlo, asesor
del Director General de la Unesco, la emplea sin recato en un
libro llamado La coherencia de lo real. Véase el
siguiente párrafo: «las sociedades humanas son
sistemas de tercer estado situadas a niveles de organización
muy alejados del equilibrio termodinámico, donde las estructuras
no pueden ser mantenidas sino por la reproducción de los
componentes y la replicación de la red global de sus interrelaciones.
Las sociedades son sistemas autopoiéticos que, mediante
ciclos autocatalíticos y transcatalíticos, se preservan
en una corriente de energía y un caudal constante de hombres,
de recursos y de infraestructuras».
He ahí un genuino ejercicio de lo que el economista y
epistemólogo Michel Gutsatz califica de «prigoginismo
social». Por más burdo que parezca, el discurso
de Laszlo no es sino un caso entre muchos de la irreprimible
tentación que embarga a muchos pensadores de lo social
cuando creen oír llegar desde la investigación
de punta en biología o física teórica los
cantos de sirena de un «nuevo paradigma».
No debería extrañar en demasía, en ese contexto,
la aparición de una producción intelectual destinada
a ocupar
la primera fila de los escaparates de las librerías, sosteniendo
que el capitalismo no es sino una forma entrópica de organización
socio-económica, o que la teoría del caos ha venido
por fin a demostrar científicamente que el neoliberalismo
siempre había tenido razón.
Vale la pena recordar que en esta movida de interpretación
libre hay lugar hasta para un ejemplo uruguayo: en 1992, Ediciones
de la Banda Oriental publicó un opúsculo de Ricardo
Lombardo, actual presidente del Directorio de Antel, titulado
Unificación o caos, el dilema de la sociedad moderna.
La frecuentación de las estanterías dedicadas a
las ciencias físicas en una librería de Washington
D.C., en la época en que se desempeñaba como Director
Ejecutivo Alterno en el FMI, inspiró a Lombardo para expresar
una serie de ideas económicas y políticas con ayuda
de algunas teorías científicas. El resultado se
halla por encima de lo que el personal político uruguayo
está, en general, en condiciones de producir, pero lo
mismo podría haber sido hecho sin necesidad de las livianas
metáforas de la teoría del caos o del campo unificado.
Lecciones epistemológicas
Después de lo dicho puede parecer difícil argumentar
en favor de recurrir a las teorías de la complejidad a
la hora de pensar lo social. ¿Cómo hacerlo sin
dejarse absorber por «biologismos» o «entropismos»
de cualquier especie?.
Se trata, a todas luces, de una tarea delicada. Requiere imperativamente,
so pena de inutilidad absoluta, un cauteloso examen de las condiciones
que aseguren su pertinencia. Lo principal, en ese sentido, es
manipular las metáforas con guantes de seda y, sobre todo,
detenerse menos en los aspectos técnicos de esas teorías
(en particular, su terminología específica, hecha
de fractales, atractores, y demás) que en sus aspectos
propiamente epistemológicos.
En otras palabras, los frutos que la circulación puede
dar en este terreno derivan de poner en correspondencia modos
de pensar la realidad; si, como dice el ensayista francés
Jean-Pierre Dupuy, «la reflexión sobre la diferenciación
natural y sobre la complejización de las formas vivas
exige evadirse de las categorías clásicas del conocimiento,
¿no debería ocurrir lo mismo con el pensamiento
sobre la diferenciación social y sobre la morfogénesis
social y cultural?».
La operación se aplica -y en ello se juega el eventual
surgimiento de un nuevo paradigma digno de ese nombre-
a las estrategias del conocimiento, a la adecuación de
las herramientas intelectuales no para afirmar rápidamente
que el ser humano y la sociedad son «complejos» (noticia
que merece un chocolate) sino para dejar ingresar al pensamiento
entidades hasta hace poco indeseables como las paradojas, el
azar, la crisis del determinismo, los límites de la predecibilidad,
y otros viejos conocidos que golpean a la puerta.
* Publicado
originalmente en Insomnia, Nº 3
|
|