«Gott würfelt
nicht!», bramó alguna vez Albert Einstein.
La frase, «¡Dios no juega a los dados!», dicha
no hace demasiado tiempo y por uno de los más grandes
científicos de la historia, demuestra que la existencia
del azar no es una idea fácil de aceptar. Sin embargo,
las teorías de la autoorganización le atribuyen
un papel fundamental, y por lo tanto, dan por bueno que lo aleatorio
existe.
La cuestión es, como se supondrá, proporcionar
una definición del azar que no sólo sea precisa,
sino que permita trabajar con ella. Una de las más sugestivas
fue introducida por el economista, matemático y filósofo
Antoine Cournot en el siglo pasado. Según la misma, el
azar es el encuentro de dos o más series causales independientes.
La independencia se refiere a que los sucesos de cada una
de las series están causalmente conectados entre sí,
pero
no influyen en los sucesos de la otra.
La ilustración clásica de este concepto es la de
la teja que cae del techo sobre la cabeza de un paseante: la
caída de la teja sigue una causalidad perfectamente determinista
que puede eventualmente reconstruirse (la falta de mantenimiento
la ha aflojado, un golpe de viento termina de desprenderla, etcétera);
lo mismo ocurre con el hecho de
que el paseante caminase bajo el techo (es, por ejemplo, su camino
habitual cuando sale a pasear al perro, o el recorrido más
corto para dirigirse a su trabajo). Pero nada imponía
que la teja se despegase justo en el momento en que el individuo
pasaba: si bien los encadenamientos parciales son inteligibles
y su encuentro es también comprensible, la sincronización
entre ellos, en cambio, no puede ser interpretada como el producto
de un determinismo riguroso.
Otra definición lógicamente impecable del azar
puede encontrarse en el libro Ideas sobre la complejidad del
mundo, de Jorge Wagensberg. Para esta definición,
que Wagensberg califica de «formal», pueden considerarse
las dos series siguientes de dígitos binarios:
101010101010101010
110000100111010110
La primera de ellas puede ser especificada mediante un algoritmo
sencillo: «escríbase 10 nueve veces», y ello
es posible porque puede detectarse en esa serie una regularidad.
La ventaja de este procedimiento no se ve tan claramente en una
serie breve como es ésta, pero puede apreciarse sin dificultad
si el algoritmo fuese: «escríbase 10 mil millones
de veces», sin duda sustancialmente más económico
que escribir realmente dicha serie. El tamaño del algoritmo
crece mucho más lentamente que la propia serie.
En el segundo caso, por el contrario, el mejor algoritmo para
escribir la serie es: «escríbase 110000100111010110».
No hay regularidad alguna, y extender la serie significa extender
paralelamente su algoritmo. La segunda serie, en otras palabras,
no puede ser comprimida. Más aún: no admite predicción,
no puede saberse cuál será el próximo dígito
en aparecer hasta que aparezca efectivamente, mientras que en
el primer caso, si el último dígito es un 0, el
siguiente será un 1, y viceversa.
La segunda serie es aleatoria, generada al azar, mientras que
la primera es determinista. Así, concluye Wagensberg,
lo contingente es aquello que no soporta ulteriores compresiones,
aquello que comprimido al máximo es igual
a sí mismo. Dicho en términos de información,
una serie de dígitos es aleatoria si el menor algoritmo
capaz de generarla contiene aproximadamente los mismos bits de
información que la propia serie.
* Publicado
originalmente en Insomnia, Nº 3
|
|