25/11/09

"Descodificando el universo" (Charles Seife, 2009).


El subtítulo de este libro resulta, tras su lectura, un tanto pretencioso. Dice así: “Cómo la nueva ciencia de la información nos explica todo el cosmos, desde nuestro cerebro hasta los agujeros negros”. Y aunque nadie pone en duda que la matemática puede ayudar a explicar (matemáticamente) cómo se transmite la información y -sobre todo- sacar partido a este “cómo”, bien es cierto que vista desde arriba y olvidando sus cualidades comerciales, la “nueva ciencia de la información” no es más que “otra forma de mirar” el cosmos y todo lo que incluye. Esto es poco…, o nada. Quiero decir que para “ver/intuir/imaginar/comprender” este universo matemático hace falta usar unas gafas superespeciales que no son 3D como las de los cines (ni mejores) sino de dimensión variable entre 0 y 10 (por ejemplo). Uno puede intentar ponerse estas gafas, liarse un cigarrillo de virutas de plátano y tomarse un copazo y lo mismo cae directamente en un agujero negro y lo comprende todo.

El propio autor expone, de pasada, un problema fundamental, a saber: la dificultad de formar una imagen de todo (mundo, cosmos…) a partir de ciertas evidencias matemáticas, es decir, la dificultar de interpretar el marco matemático que describe una realidad física dada. Porque la realidad física que describe a la perfección la teoría cuántica, dista mucho de ser una “realidad” física. Para un matemático, o incluso un físico teórico, puede resultar cómoda la actitud de “calla y calcula”, pero si muchos físicos sienten la necesidad de conocer esa realidad física que representa su matemática, no digamos cualquier otro individuo. Como apunta Seyfe, “ la matemática de la teoría cuántica nos dice cómo describir un objeto en términos de su función de onda, pero no nos dice qué es una función de onda: ¿se trata de un objeto real o es una ficción matemática?... La matemática de la teoría cuántica explica la acción a distancia entre dos partículas entrelazadas, pero no cómo dos partículas distantes pueden conspirar la una con la otra sin que la información vaya y venga…”.

Pero bueno, leemos el subtítulo y nos lo creemos. Seguimos con el primer capítulo que comienza diciendo que la civilización está condenada (toda vida del universo tiende a extinguirse), así que suponemos que las casi 300 páginas siguientes intentan explicar la razón por la cual estamos condenados. Al final, nos quitamos las gafas de ver en dimensiones variables y leemos que existe un número limitado de operaciones de procesamiento de información efectuadas por nuestro universo visible (al que el llama Hubble Bubble), lo cual quiere decir que la máquina va a petar sí o sí.

Nada nuevo y tenemos un mareo importante. Tan sólo otra forma de contarlo o de mirar la misma cosa. La nueva ciencia de la información nos explica “todo”, y ese todo, nos lo cuenta Charles Seife en casi 300 páginas para terminar como empezaba. ¿Y qué esperábamos? Ahora bien, el camino es divertido. Pasaremos por la entropía, relatividad, incertidumbre, superposición, entrelazamiento, decoherencia, el famosisisisimo experimento de Young, la paradoja EPR, la teleportación (no la de Mr. Spock sino la que ideó el físico IBMer Charles Bennet)…

¿Por qué nada nuevo? Para muestra, un botón. Ya que mi área de interés fue la bioquímica durante un largo periodo de mi vida, y en honor al autor, que dedica un capítulo completo a la molécula de las moléculas (el ADN), aquí va mi speech particular y de gratis.

No hace mucho pregunté a un amigo bioquímico: ¿para qué la vida si, a fin de cuentas, la entropía aumenta? Aclaro la pregunta: me importa un pimiento nuestro ego, simplemente no comprendo por qué, tras el Big Bang, se han formado moléculas complejas que consumen energía para mantener un supuesto orden. Si, aumentan la entropía del entorno pero si todo se está dispersando y alcanzando poco a poco el equilibrio, ¿para qué tanta cosita compleja? El respondió que para acelerar el aumento de entropía. Esa palabra “acelerar” tuvo todo el sentido del mundo para mí. Acelerarlo, terminar antes. Con un par.


La llamada Teoría de la información está relacionada, de alguna manera, con la Entropía y ésta (según la definición de Shannon) con los límites de compresión de un mensaje sin pérdida de información. Pensemos en un mensaje codificado; a más redundancia (p.ej. % de repetición de letras dentro de un mensaje codificado), menor entropía. Hace falta cierto nivel de redundancia para comprimir datos, de forma que podamos “adivinar” la información de un mensaje sin que éste muestre todo su contenido. Las series redundantes son predecibles y aportan menos información por símbolo. Por el contrario, a menor redundancia, más desorden, más entropía, las letras del mensaje aparecen unas y otras con la misma probabilidad y la información que lleva cada símbolo es mayor; el mensaje es menos predecible. Un sistema aportaría más información cuando su configuración es menos probable. Todo esto, según Shannon.

Pongamos un ejemplo biológico para explicar todo esto. Leamos un trozo de DNA:

TTT GGA AAC AGC ATC TGC ATT CGC CCA GGG.

Tenemos G= 8, T=7, A=7, C=8

Esta secuencia tendría una entropía informacional baja y de esta manera un contenido informacional bajo. Pero si introdujéramos una mutación en la secuencia, o dos, de forma que los porcentajes variaran más, la cosa cambiaría y aumentaría la entropía informacional.

Pongo este ejemplo aposta ya que lo que mejor comprendo del argumento de Shannon (tal y como lo expone Seife) es su carácter paradójico ¿cómo puede algo que ocurre por azar contener un mensaje? No puede ser. ¿La secuencia qwertyuiopñlkjhgdfs contiene más información que la palabra Alhaja? Pues aparentemente si. Aparentemente. La razón es simple, lo repetido y lo conocido no nos sorprende, es siempre lo mismo. No prestamos atención; el suceso es predecible. Y, por supuesto, a mí me cuesta aceptar esto siendo bióloga y considerando la molécula del DNA (junto a alguna otra) y los mecanismos de regulación que controlan su lectura y duplicación como la maravilla de las maravillas del universo. Y ¿por qué?, porque el código del DNA posee 4 bases nitrogenadas Adenina, Guanina, Citosina y Timina para codificar absolutamente toda la información que necesitamos. Y lo que resulta aún más alucinante, estas cuatro bases representan la única forma de conservar esa información. ¿El huevo, o la gallina? Por supuesto un huevo que ideo a la gallina para hacer muchos más huevos… Este DNA es la forma en la que la información se conserva, se duplica y se almacena. Así que, a priori, me molesta el enfoque de Shannon porque me toca la fibra (y nunca mejor dicho). El DNA es conservador y repetitivo... ¿O no?

Porque si nos paramos a pensar en la mutación de la que hablaba en el párrafo anterior, seguiremos con “las” mutaciones y la multitud de fenómenos que provocan mutaciones y/o alteraciones en la secuencia del DNA, llegando hasta el llamado “código de las histonas” para darnos cuenta de la enorme complejidad que rodea a esta secuencia de bases y su replicación. Complejidad que no es más que la razón de toda forma de vida conocida. Con todo lo que implica el concepto “vivo”.

Las histonas, son proteínas que "empaquetan" del DNA. Éste, una vez condensado, es conocido como cromatina y forma los famosos cromosomas. Estas histonas, parece que no solo poseen un papel en la compactación del DNA sino también en procesos de regulación, y esto puede suponer que podrían extender la información potencial del material genético. Cierto o no, lo que me interesa destacar aquí es que el código del DNA se va haciendo (individuo a individuo) más… entrópico (y así, me encajo un poco a lo bruto la teoría de Shannon). Imaginemos un paquete de Software que fuera aprendiendo de todo lo que le pasa (malo y bueno) y se duplicara, y aprendiera, y se duplicara… Teniendo esto en cuenta, volvemos al huevo y la gallina. La evolución, nosotros, pasamos a ser meras máquinas reproductoras de “esa” información que quiere conservarse a toda costa. Y que no tiene por qué ser mejor o peor. Simplemente “es”. Y esta forma de ser suelta entropía a tutiplén, contribuyendo estupendamente al equilibrio final.

El universo entero, alcanzará una única temperatura templada y así permanecerá, incapaz de trabajar y cambiar, en un caos homogéneo sin vida o muerte térmica”, dice Seife (algo que deberían enseñar en los colegios, por cierto,… pero esto es otro tema).

Para terminar, decir que el libro incluye pasajes bellísimos, como aquel en el que se lanza a presentar ese “algo” que lleva a cabo las mediciones: la Naturaleza (volvemos a las mayúsculas, ja, ja, pero eso es otro tema) y muestra el ejemplo de un árbol. El universo entero, está, en cierto sentido, midiéndolo todo continuamente. Nosotros percibimos el árbol porque un fotón rebota sobre él y nuestro cerebro procesa esa información que la naturaleza reúne para nosotros. Pero la información está ahí independientemente de nuestra retina. Aún con los ojos cerrados, percibiríamos el murmullo de sus hojas por el viento. Y aunque apagáramos el sol, los fotones de estrellas lejanas bombardearían la tierra y se podría captar información sobre el árbol con aparatos más precisos. Se podrían medir hasta la irradiación de fotones de una tierra aún caliente. Hasta un árbol congelado en medio del espacio más profundo, protegido del calor terrestre y de la débil luz de estrellas lejanas, podría ser medido porque el universo está repleto de fotones que rebotarían sobre él (reunirían y transmitirían información sobre él). E incluso sin los fotones, los rayos cósmicos podrían rebotar en el árbol. E incluso en el vacío absoluto, protegido el árbol de todas las partículas, no estaría a salvo de las fluctuaciones del vacío y sus partículas evanescentes…

Incluso el vacío está lleno de campos que contienen energía y partículas evanescentes que pasan de existir a no existir, proporcionando cuerpo a la nada...

3 comentarios:

Alp dijo...

Conozco a quien la palabra “entropía” le pone… Y francamente no me extraña.
Me permito recuperar la entrada del DEL de la RAE
entropía.
(Del gr. ἐντροπία, vuelta, usado en varios sentidos figurados).
1. f. Fís. Magnitud termodinámica que mide la parte no utilizable de la energía contenida en un sistema.
2. f. Fís. Medida del desorden de un sistema. Una masa de una sustancia con sus moléculas regularmente ordenadas, formando un cristal, tiene entropía mucho menor que la misma sustancia en forma de gas con sus moléculas libres y en pleno desorden.
3. f. Inform. Medida de la incertidumbre existente ante un conjunto de mensajes, de los cuales se va a recibir uno solo.

Curioso los de los sentidos figurados: vuelta, regreso (noesis o intuición como recuerdo), energía, desorden, incertidumbre…
Y asimismo, recuerdo (no como noesis sino como recurso de la memoria) que me hicieron estudiar la definición de electrón como “posibilidad” de que existiera una carga… Los modelos de ciencias, siempre atentos a describir esa realidad que existe por encima y por debajo de nuestra mística hacia abajo y hacia arriba.
Creo que la voy a recuperar en mi vocabulario de uso frecuente, junto con “lógica difusa”. Contra el Bien, la Verdad y la Belleza de las estéticas tardoidealistas, mucha entropía, mucha “lógica difusa” y mucho relativismo (posibilista, naturalmente). Y para completaqr el aderezo, metáforas al gusto…

Vera dijo...

La entropía, es una realidad en ciencias (en biología, al menos) un tanto difusa. No te digo ya en teoría de la información. Pero como bióloga, no como ente psicológico en momentos afín a estéticas tardoidelaistas, me parece un concepto fundamental para entender cómo estamos aquí, que ya es parte del por qué. Ya que el por qué total y definitivo, sigue en suspenso… aunque se adivine. Tan solo hay que acercarse a la descripción del comienzo que landa Dawkins en El gen egoísta, para flipar con tanto agujero de conocimiento.

Cuando digo “difusa” me refiero a que la entropía es una “medida”, y toda medida requiere referencias, relacionar cosas, depender de estados. No puede considerarse la entropía como una razón… y, sin embargo, parece estar aproximándose a ser una razón cuando no es “algo” que exista como tal sino que depende de la relación entre un estado A y uno B. A mi no me gusta afirmar que algo “tiene” mucha entropía. La entropía no se tiene. Se pasa de un estado a otro y en ese paso se pierde energía en forma de calor, impepinablemente. O no. Eso mide la entropía. Poéticamente hablando, para mí no es más que la energía inútil, que irremediablemente escapa.

Cuando digo que el por qué se adivina y al mismo tiempo está en suspenso es porque lo considero inabordable. Cada vez que me paro en la materia, alucino con su forma… y esto es lo único bueno de haber estudiado biología en lugar de física y mates (más abstractas, bajo mi punto de vista…). Los biólogos se pierden en la carne y su milagro.

En fin. Te dedico estos párrafos porque están llenos de errores y sin contrastar… no estoy segura de poder afirmar lo que he afirmado sobre la entropía. Y sobre la materia, mejor me puedo ayudar de algunas fotos… quizás en el próximo post.

Vera dijo...

Se me olvidaba; poéticamente hablando no es más que la energía inútil, que irremediablemente escapa… la muerte, la tendencia imparable al equilibrio. Aquí, en nuestros cuerpos y allá arriba, en todo el universo que, de momento, sigue ardiendo, pero que lejos en el tiempo, se apagará… o no, si es cierto que es infinito. Porque no concibo yo eso de que algo infinito tienda a un equilibrio infinito… No me encaja en la neurona.