Monday, September 12, 2011

Qué se esconde en un infinito?

por Daniele Oriti, Albert Einstein Institute, Golm, Alemania.


Matteo Smerlak, ENS Lyon
Title: Bubble divergences in state-sum models
PDF of the slides (180k)
Audio [.wav 25MB], Audio [.aif 5MB].

A los físicos nos disgustan los infinitos. En particular, no nos gusta cuando el resultado de un cálculo no es un número que pueda ser comparado con experimentos, sino infinito. Ninguna energía, ni distancia, ni velocidad ni densidad, nada en el mundo a nuestro alrededor tiene un valor medido que es infinito. La mayor parte de las veces esos infinitos indican que no hemos sido lo suficientemente inteligentes en tratar el sistema físico que estamos considerando, que hemos omitido algún ingrediente clave en su descripción, o usado el lenguaje matemático equivocado al describirlo. Y no nos gusta que nos recuerden que no somos inteligentes.

Al mismo tiempo, como confirmación de lo anterior, bastantes progresos en física teórica han ocurrido como consecuencia de una exitosa batalla intelectual con los infinitos. Abundan los ejemplos, pero veamos uno histórico. Consideremos una esfera hueca tridimensional cuyo interior está hecho de un material opaco (y por ende absorbiendo la mayor parte de la luz que en el incide), y supongamos que está llena de luz (radiación electromagnética) a temperatura constante. Esta clase de objeto es conocido como cuerpo negro. Supongamos que el objeto tiene un pequeño agujero por el que una cantidad limitada de luz puede salir. Si uno calcula la energía total (esto es considerando todas las frecuencias de luz posibles) de la radiación que sale por el agujero, a una temperatura dada y en un instante dado, usando las reglas del electromagnetismo clásico y la mecánica estadística clásica, uno encuentra que el resultado es infinito. En líneas generales el cálculo es así: uno tiene que sumar todas las contribuciones a la energía total de la radiación emitida (a un instante dado), provenientes de todos los infinitos modos de oscilación de la radiación, a una temperatura T. Dado que hay infinitos modos, la suma diverge. Nótese que si el mismo cálculo se hace primero imaginando que existe un modo de oscilación máximo, y luego se estudia que pasa cuando este supuesto máximo se permite crecer indefinidamente. Después del primer paso, el cálculo da un resultado finito, pero la divergencia original se obtiene en el segundo paso. En cualquier caso la suma da un resultado divergente: infinito! Sin embargo, el proceso de dos pasos permite entender mejor en que forma la cantidad de interés diverge.

Además de ser un absurdo teórico, esto es simplemente falso experimentalmente dado que es muy fácil fabricar objetos como el descripto en el laboratorio. Esto represento una gran crisis en la física clásica al fin del siglo 19. La solución vino de Max Planck con su hipótesis de que la luz esta en realidad constituida por paquetes discretos (parecidos a las partículas materiales), mas tarde conocidos como fotones, con una formula resultante distinta para la radiación emitida desde el agujero (mas precisamente, para las contribuciones individuales). Esta hipótesis, inicialmente propuesta con motivaciones bien distintas, no solo resolvía la paradoja de la energía infinita, pero inicio la revolución de la mecánica cuántica que llevo (después del trabajo de Bohr, Einstein, Heisenberg, Schroedinger y muchos otros) al entendimiento moderno de la luz, átomos y todas las fuerzas fundamentales (con la excepción de la gravedad).

Vemos entonces que la necesidad de entender lo que subyacía a un infinito, la necesidad de confrontarlo, llevo a un importante salto hacia delante de nuestro entendimiento de la naturaleza (en este ejemplo de la luz) y a una revisión de nuestras mas reverenciadas suposiciones sobre la misa. El infinito nos estaba diciendo exactamente eso. Interesantemente, un fenómeno teórico similar parece ahora sugerir que otro, aun mayor, salto hacia delante será necesario para entender la gravedad y el espacio-tiempo en sí mismo.

Un objeto que teóricamente es muy parecido a un cuerpo negro perfecto es un agujero negro. Nuestra teoría contemporánea de la materia, la teoría cuántica de campos, en conjunción con nuestra teoría de gravedad aceptada actualmente, la relatividad general, predicen que dichos agujeros negros emitirán radiación térmica a una temperatura constante inversamente proporcional a la masa del agujero negro. Esto es conocido como radiación de Hawking. Este resultado, en conjunto con la descripción de agujeros negros que provee la relatividad general, sugiere también que los agujeros negros tienen una entropía asociada con ellos, que mide el número de sus grados de libertad intrínsecos. Dado que un agujero negro es simplemente una configuración dada del espacio-tiempo, esta entropía es entonces una medida de los grados de libertad intrínsecos de una (región del) espacio-tiempo mismo! Sin embargo, para empezar, no tenemos idea que son dichos grados de libertad intrínsecos/ más aún, si la imagen del espacio-tiempo que provee la relatividad general es correcta, su cantidad, y por ende la entropía correspondiente es infinita!

Este hecho, junto a un significativo número de otros resultados y problemas conceptuales ha motivado a una fracción importante de la comunidad de físicos teóricos a buscar una mejor teoría del espacio (y el tiempo), posiblemente basada en la mecánica cuántica (incorporando la experiencia histórica): una teoría cuántica del espacio-tiempo, una teoría de la gravedad cuántica.

No debe malinterpretarse que la transición de la mecánica clásica a cuántica nos alejo del problema de los infinitos en la física. Al contrario, nuestras mejores teorías de la materia y las fuerzas fundamentales, las teorías cuánticas de campos, están llenas de infinitos y cantidades divergentes. Lo que hemos aprendido de las mismas, sin embargo, es exactamente cómo lidiar con dichos infinitos en términos bastante generales, que esperar y qué hacer cuando dicho infinitos se presentan. En particular hemos aprendido otra lección crucial sobre la naturaleza: los fenómenos físicos aparecen muy distintos a diferentes energías y escalas de distancia, esto es, si los examinamos muy de cerca o a energías más y más altas. Los métodos que usamos para lidiar con esta dependencia de escala se conocen como el grupo de re normalización, actualmente un ingrediente crucial de todas las teorías de partículas y materia, tanto macroscópica como microscópica. La forma en la que esta dependencia de escala se realiza en la práctica depende por supuesto del sistema físico en consideración.

Veamos un ejemplo sencillo. Consideremos la dinámica de una partícula hipotética con masa m y sin espín; supongamos que todo lo que puede pasarle a esta partícula durante su evolución es una de las siguientes dos posibilidades: puede desintegrarse en dos partículas del mismo tipo o en tres partículas del mismo tipo. También supondremos que los procesos inversos son permitidos (esto es, dos partículas pueden desaparecer dando lugar a una sola y lo mismo puede pasarle a tres partículas). Así que hay dos posibles “interacciones”, dos tipos de procesos fundamentales que pueden sucederle a esta clase de partículas. A cada proceso le asociamos un parámetro llamado “constante de acoplamiento” que indica cuanta fuerza tiene cada proceso de interacción (comparados entre si o con otras posibles interacciones como por ejemplo de las partículas con gravedad o con la luz), uno para el proceso de de tres partículas y otro para el de dos. Ahora, el objeto central que no permite calcular una teoría de campos es la (amplitud de) probabilidad de que, si primero veo n partículas en un tiempo dado, mas tarde veré en su lugar m partículas con m distinto de n (dado que algunas partículas se habrán desintegrado y otras se habrán creado). Toda otra cantidad física de interés se puede deducir de estas amplitudes de probabilidad.

Más aun, la teoría nos dice exactamente como debe calcularse esta probabilidad. En líneas generales es de la siguiente manera. Primero tengo que considerar todos los procesos posibles que lleven de n partículas a m partículas, incluyendo aquellos que involucran un número infinito de procesos elementales de creación/aniquilación. Aquellos procesos son representados por diagramas (llamados diagramas de Feynman) en los que cada vértice representa un proceso elemental posible (ver la figura para un ejemplo de tal proceso, constituido de interacciones elementales involucrando solo tres partículas, con su grafico asociado).

Un diagrama describiendo una secuencia de interaccione elementales trivalentes para una partícula puntual, con dos partículas al inicio y al final (debe ser leído de izquierda a derecha).

Segundo, a cada uno de estos procesos se le debe asignar una amplitud de probabilidad, esto es, una función de la masa de la partícula considerada y las “constantes de acoplamiento”. Tercero, esta amplitud depende de la energía de cada partícula involucrada en cada proceso (correspondiente a una línea en el diagrama representando el proceso, y esta energía puede tomar cualquier valor de cero a infinito. La teoría nos dice que forma tiene la amplitud de probabilidad. La probabilidad total de medir m partículas primero y n partículas después se calcula sumando las probabilidades de todos los diagramas/procesos (incluyendo aquellos que contienen infinitos procesos elementales) y todas las energías posibles de las partículas involucradas.

Imaginan que pasa? El cálculo delineado típicamente lleva al resultado temido: infinito. Básicamente, todo lo que puede fallar, falla, como en el caso de las leyes de Murphy. No solo la suma sobre todos los diagramas/procesos da un resultado divergente, pero la suma sobre las energías también diverge. Sin embargo, como anticipamos, sabemos cómo lidiar con este tipo de infinitos, ya no les tenemos miedo y, de hecho, hemos aprendido que significan físicamente. El problema surge fundamentalmente cuando consideramos energías cada vez más altas para las partículas involucradas en el proceso. Por simplicidad, imaginemos que todas las partículas tienen la misma energía E, y supongamos que puede tomar cualquier valor de cero a un valor máximo Emax. Justo como en el ejemplo del cuerpo negro, la existencia del valor máximo implica que la suma sobre energías es finita, así que hasta aquí todo va bien. Sin embargo, cuando dejamos que la energía máxima sea infinita, la suma diverge.

Hemos hecho algo mal; enfrentémoslo: hay algo que no hemos entendido de la física del sistema (por simples que sean las partículas). Puede ser que, como en el caso de la radiación de cuerpo negro, estamos omitiendo algo fundamental acerca de la naturaleza de estas partículas, y tenemos que cambiar completamente la amplitud de probabilidad. Quizá otros tipos de partículas deben ser consideradas como creadas a partir de las iniciales. Todo esto podría ser. Sin embargo, la teoría cuántica de campos nos ha enseñado que, antes de considerar estas posibilidades más drásticas, uno debe reescribir el cálculo anterior considerando constantes de acoplamiento y masas que dependan de la energía Emax. Uno entones rehace el cálculo de la amplitud de probabilidad, pero ahora usando estas constantes “dependientes de escala” y verificar si uno puede considerar el caso de Emax yendo a infinito, es decir, considerar energías arbitrarias para las partículas involucradas en el proceso. Si esto se puede hacer, es decir si uno encuentra constantes dependientes de la energía tales que el resultado de enviar Emax a infinito es una probabilidad razonable y finita, entonces no hace falta modificar mas la teoría y el sistema físico considerado está bajo control.

Que nos enseña todo esto? Nos muestra que el tipo de interacciones que el sistema puede tener y sus fuerzas relativas dependen de la escala a la que estudiamos el sistema, es decir que energía experimenta el sistema en cada proceso. Por ejemplo, podría pasar que cuando Emax se vuelve más y más grande, la constante de acoplamiento como función de Emax se vuelve cero. Esto querría decir que a muy altas energías, el proceso de desintegración de una partícula en dos (o dos en una) deja de ocurrir, y solo ocurre el que involucra tres partículas. Gráficamente, solo diagramas de un cierto tipo son relevantes. O podría pasar que, a energías muy altas, la masa de las partículas se vuelve cero, es decir las partículas se vuelven cada vez más livianas, eventualmente propagándose como lo hacen los fotones. La lección general, aparte de las tecnicalidades de cada caso, es que para un sistema físico dado es crucial el entender exactamente como divergen las cantidades de interés, dado que en los detalles de tal divergencia hay importante información acerca de la verdadera física de los sistemas considerados. Los infinitos en nuestros modelos deben ser domesticados, explorados en profundidad y escuchados.

Esto es lo que Matteo Smerlak y Valentin Bonzom hicieron en el trabajo presentado en el seminario, para algunos modelos de espacio cuántico que son el centro de atención de la comunidad de investigadores en gravedad cuántica. Estos son los llamados modelos de espuma de espín (spin foam), en los que el espacio esta descrito en términos de redes de espín (grafos cuyas líneas tienen asignados números discretos, espines, representando información geométrica elemental) o equivalentemente en términos de colecciones de triángulos pegados unos a otros a lo largo de lados, y cuya geometría esta especificada por la longitud de dichos lados. Los modelos de espuma de espín están estrictamente relacionados con a la gravitación cuántica de lazos, cuyos aspectos dinámicos intentan definir, y a otros enfoques de la gravedad cuántica como la llamada gravedad simplicial. Estos modelos, de la misma manera que los modelos de partículas que discutimos, tratan de calcular (entre otras cosas) la probabilidad de medir una configuración dada de espacio cuántico, representada nuevamente como un conjunto de triángulos pegados entre si o como un grafo de una red de espín. Nótese que aquí una “configuración de espacio cuántico” quiere decir tanto una forma espacial (podría ser una esfera, un toro, o alguna forma más complicada) y una geometría dada (puede ser una esfera muy grande o muy chica, una esfera con protuberancias aquí y allá, etc.). Uno podría también considerar el calcular la probabilidad de transición de una configuración de espacio cuántico a otra.

Mas precisamente, los modelos de Bonzom y Smerlak son simplificados (con relación a los que tratan de describir espacio-tiempos 4 dimensionales) en los que la dinámica es tal que, cualquiera la forma y geometría del espacio que uno considere, durante su evolución, si uno midiera la curvatura de dicho espacio en cualquier lugar, uno obtendría cero. En otras palabras estos modelos solo consideran espacio-tiempos planos. Esto es, por supuesto, una drástica simplificación, pero no tanto que los modelos resultantes carezcan de interés. Por el contrario, estos modelos planos no solo son perfectamente aceptables para describir la gravedad cuando el espacio tiempo considerado solo tiene tres dimensiones, pero son la base para construir otros modelos con espacio tridimensional, es decir, espacio-tiempo cuadridimensional. Como consecuencia, estos modelos, junto con otros más realistas, han sido el foco de atención de la comunidad de investigadores en gravedad cuántica.

Cuál es el problema entonces? Como pueden imaginarse, el usual: cuando uno trata de calcular la mencionada probabilidad para una cierta evolución del espacio cuántico, aun en estos modelos simplificados, la respuesta que uno obtiene es el omnipresente, pero ya ahora solo apenas intimidante, infinito. Como es el cálculo? Es bastante similar al cálculo de la probabilidad de un proceso dado de evolución de partículas en teoría cuántica de campos. Consideremos el caso en que el espacio es bidimensional, es decir el espacio-tiempo es tridimensional. Supongamos que uno quiere considerar la posibilidad de medir primero n triángulos pegados entre si para formar, digamos, una esfera bidimensional (la superficie de una pelota de futbol) de un cierto tamaño, y luego medir m triángulos pegados para formar, digamos, la superficie de una rosquilla (toro). Ahora tomemos una colección de un numero arbitrario de triángulos y peguémoslos entre si hasta formar un objeto tridimensional a elección, como si pegáramos ladrillos de LEGO para formar una casa o un automóvil o una nave espacial (como ven, la ciencia en varias maneras el desarrollo de la curiosidad de los niños por otros medios). Podría ser algo tan simple como una pelota de futbol, o algo extremadamente complicado con agujeros, múltiples interconexiones, cualquier cosa. Solo hay una condición para el objeto tridimensional construido: sus superficies deben estar formadas, en el ejemplo considerado, de dos partes desconectadas: una en la forma de una esfera bidimensional de n triángulos y otra en la forma de la superficie de una rosquilla hecha de m triángulos. Esta condición, por ejemplo, impediría que el espacio tridimensional fuera una pelota de futbol. Esto último podría ser si uno quisiera calcular la probabilidad de medir n triángulos formando una esfera y no hubiera una rosquilla involucrada. Seremos holgazanes en este ejemplo y consideraremos una rosquilla pero no pelota de futbol. Aparte de esto pueden hacer cualquier cosa.

Detengámonos por un segundo para clarificar que quiere decir que un espacio tenga una forma dada. Consideremos un punto en una esfera y tomemos un camino que parte de dicho punto y después de un tiempo retorna al mismo, formando un lazo. Claramente se puede ver que se puede hacer al lazo más y más chico, eventualmente tornándose en un punto. Ahora repitamos el ejercicio en la superficie de una rosquilla (toro). Claramente hay ciertos lazos que uno puede formar que se pueden contraer hasta formar un punto y otros no. Estos últimos son los que le dan la vuelta al agujero de la rosquilla. Así que se puede ver que este tipo de operaciones nos ayuda a determinar la forma del espacio. Digamos que uno ha terminado de construir el objeto tridimensional pegando triángulos. Así como los triángulos en el borde del objeto tridimensional, esos que forman la esfera y la rosquilla, los triángulos que forman el objeto tridimensional en si vienen con números asociados a los bordes. Estos números, como dijimos, especifican la geometría de todos los triángulos, y por ende de la esfera, la rosquilla y el objeto tridimensional que los tiene por frontera.

Una colección de triángulos pegados formando una esfera (izquierda) y una rosquilla (derecha); el espacio tridimensional interior también puede ser construido pegando triángulos que tengan la forma dada en la frontera: para el primer objeto el interior es una pelota, para el segundo lo que se conoce como un toro solido. Las imágenes son de http://www.hakenberg.de

La teoría (el modelo de espuma de espín en estudio) debería dar la probabilidad para el proceso considerado. Si los triángulos que forman la esfera representan como era el espacio cuántico al principio, y los triángulos que forman la rosquilla como lo es al final, el objeto tridimensional elegido representa un espacio-tiempo cuántico posible. En la analogía con el proceso de partículas que discutimos más arriba, los n triángulos que forman la esfera corresponden a las n partículas iniciales, los m triángulos que forman la rosquilla corresponden a las m partículas finales, y el objeto tridimensional es el análogo de un posible “proceso de interacción”, una posible historia de triángulos siendo creados/destruidos, formando distintas formas y cambiando de tamaño; el tamaño esta codificado en las longitudes, que es el análogo de las energías de las partículas. El modelo de espuma de espín da la probabilidad del proceso en la forma de una suma de probabilidades para todas las asignaciones posibles de longitudes para los lados del objeto tridimensional, cada probabilidad asegurando que el mismo sea plano (da una probabilidad cero si no es plano). Como anticipamos, este calcula da el usual insensato infinito como resultado. Pero nuevamente, sabemos que tenemos que sobreponernos a esa decepción inicial, y estudiar en más detalle que oculta el infinito. Así que uno una vez más imagina que existe una longitud máxima de los lados de los triángulos, llamándola Emax, definiendo una amplitud truncada y estudiando con cuidado cómo se comporta cuando Emax crece y se le permite volver cada vez mas grande.

En ese sentido, en este caso, lo que está oculto tras este infinito es la completa complejidad de un espacio tridimensional, aun cuando su geometría sea plana. Lo que uno encuentra es que escondido en este infinito, y cuidadosamente revelado por como depende la amplitud del valor de Emax, esta toda la información sobre la forma del objeto tridimensional, es decir de los posibles espacios considerados, y toda la información de cómo estos espacios son construidos a partir de triángulos. Eso es mucha información!

Bonzom y Smerlak, en el trabajo descripto en el seminario, han avanzado bastante en desmadejar toda esta información, profundizando en los secretos de este infinito particular. Su trabajo ha sido desarrollado en una serie de publicaciones en las que ofrecen una formulación matemáticamente muy elegante del problema y un nuevo enfoque para su solución, progresivamente afinando sus resultados y mejorando el entendimiento de estos modelos específicos de espuma de espín para la gravedad cuántica, de la manera que dependen de la forma y la construcción específica de cada espacio-tiempo tridimensional y que forma y construcción dan el infinito “mas grande”. Este trabajo representa una contribución muy importante a un área de investigación que crece rápidamente y en la que muchos otros resultados, de otros grupos alrededor del mundo, han sido obtenidos y continúan siendo obtenidos.

Aun hay más. La analogía con procesos de partículas en teoría cuántica de campos puede ser hecha más precisa y uno de hecho puede estudiar tipos peculiares de estas teorías, llamadas “teorías de campos de grupos”, tales que la amplitud descripta más arriba es generada por la teoría y asignada al proceso especifico, como en los modelos de espuma de espín y al mismo tiempo todos los procesos posibles son tenidos en cuenta, como en teoría de campos cuántica usual para partículas.

Este cambio de enfoque, embebiendo al modelo de espuma de espín en un lenguaje de teoría cuántica de campos, no cambia mucho el problema de las divergencias producto de las sumas sobre las longitudes de los bordes, ni su resultado infinito. Y no cambia la información acerca de la forma del espacio involucrado en este infinito. Sin embargo, cambia la perspectiva a través de la cual vemos este infinito y sus secretos ocultos. De hecho, en este nuevo contexto el espacio y el espacio-tiempo son genuinamente dinámicos, todos los posibles espacio-tiempos tienen que ser considerados en un pie de igualdad y compiten en sus contribuciones a la probabilidad total para una cierta transición de una configuración de espacio cuántico a otro. No podemos simplemente elegir una forma dada, hacer el cálculo y estar contentos con ello (una vez que lidiamos con el infinito que resulta de hacer el cálculo ingenuamente). Los posibles espacio-tiempos que tenemos que considerar, además, incluyen algunos muy extraños, con billones de aguieros y extrañas conexiones de una región a otra y objetos tridimensionales que no parecen espacio-tiempos sensatos en lo absoluto y así sucesivamente. Tenemos que tomarlos todos en cuenta en este contexto. Esta es por cierto una complicación técnica adicional. Pero también es una fantástica oportunidad. De hecho ofrece la posibilidad de preguntar y quizá responder una pregunta muy interesante: por que es el espacio-tiempo, al menos en nuestra escala macroscópica, de la manera que es? Por que aparece tan regular, tan simple en su forma, de hecho tan simple como una esfera? Prueben! Podemos considerar un lazo imaginario localizado en cualquier lugar de lespacio y contraerlo hasta que se convierte en un punto sin problema, verdad? Si la dinámica del espacio cuántico está gobernada por un modelo (sea de espuma de espín o de teoría de campos de grupo) como los descriptos, esto no es para nada obvio, pero algo que debe explicarse. Procesos que parecen lindos en nuestro espacio-tiempo macroscópico son pero una pequeña minoría de los billones de espacio-tiempos posibles que entran en la suma que hemos discutido. Así que por que deben “dominar” al final y ser los verdaderamente importantes, los que aproximan nuestro espacio tiempo macroscópico? Por que y como “emergen” de los otros y originan, de este lio cuántico, el bello espacio-tiempo que habitamos, en una aproximación clásica y continua? Cuál es el verdadero origen cuántico del espacio-tiempo, tanto en su forma como en su geometría? La manera en que las amplitudes crecen con el incremento de Emax es donde la respuesta a estas fascinantes preguntas yace.

La respuesta, una vez más está escondida en el mismo infinito que Bonzom, Smerlak y sus muchos colegas de la gravedad cuántica alrededor del mundo están domando valientemente, estudiando, y paso a paso, entendiendo.