Thursday, December 15, 2011

Dinámica de la forma

por Julian Barbour, College Farm, Banbury, Reino Unido.


Tim Koslowski, Perimeter Institute 
Title: Shape dynamics
PDF of the talk (500k)
Audio [.wav 33MB], Audio [.aif 3MB].

Intentare dar el trasfondo conceptual del reciente seminario de Tim Koslowski (foto a la izquierda) acerca de Dinámica de las Formas y las posibilidades técnicas que esta puede abrir. La Dinámica de las Formas se origina en un método, llamado mejor apareamiento (best matching en ingles), a través del cual el movimiento y más generalmente el cambio puede ser cuantificado. Fue propuesto por primera vez en 1982 y su desarrollo más reciente esta descrito aquí. Comenzare sin embargo con una alternativa al mismo muy común.

El método de Newton de definir el movimiento

El método de Newton, aun presente en la intuición de muchos físicos teóricos, considera que el espacio es real como una perfectamente plana cubierta de una mesa (ignorando una dimensión espacial) que se extiende al infinito en todas direcciones. Imaginen tres partículas que en dos instantes forman dos triángulos ligeramente distintos (1 y 2). Los tres lados de cada triangulo definen la configuración relativa. Consideremos el triangulo 1. En dinámica Newtoniana uno puede localizar y orientar el triangulo 1 como uno quiera. Dado que el espacio es homogéneo e isótropo todas las elecciones son equivalentes. Pero 2 es una configuración relativa distinta. Puede uno decir cuánto se ha movido cada partícula? De acuerdo a Newton muchos movimientos de las partículas corresponden al mismo cambio de la configuración relativa. Manteniendo la posición de 1 fija, uno puede situar el centro de masa de 2, C2, donde quiera; la orientación de 2 es también libre. En un espacio tridimensional, tres grados de libertad corresponden a los posibles cambios de los lados del triangulo (datos relativos), tres a la posición de C2, y tres a la orientación. Los tres datos relativos no se pueden cambiar, pero las elecciones para los restantes son molestamente arbitrarias. De hecho la relatividad Galileana quiere decir que la posición de C2 no es crítica. Pero los datos de orientación son cruciales. Diferentes elecciones dan diferente momento angular L al sistema, y los resultantes movimientos son muy distintos. Dos instantáneas de configuraciones relativas no contienen información sobre L; uno necesita tres para descubrir L. Ahora consideraremos la alternativa.

Dinámica basada en el Mejor Apareamiento

La definición de movimiento por Mejor Apareamiento está ilustrada en la figura. Es más restrictiva que la dinámica Newtoniana. La razón se puede “leer” de la figura. El mejor apareamiento, como se muestra en b, hace dos cosas. Trae los centros de masa de los dos triángulos a un punto común y pone su rotación relativa alrededor de dicho punto a cero. Esto último quiere decir que un sistema dinámico gobernado por Mejor Apareamiento es siempre vinculado. En términos Newtonianos, tener momento angular total L igual a cero. De hecho, las ecuaciones dinámicas son Newtonianas; el vinculo L=0 es preservado por las ecuaciones si vale en algún instante.



Figura 1: La definición de movimiento por Mejor Apareamiento. Tres partículas, en los vértices de los triángulos gris y punteado en dos instantes, en movimiento relativo. La diferencia entre los triángulos es un hecho, pero puede uno determinar el desplazamiento de las partículas? No parece. Aun si mantenemos el triangulo gris fijo en el espacio, podemos poner el triangulo punteado en una posición arbitraria, como en el panel a. Parece no haber manera de definir desplazamientos únicos. Sin embargo, podemos llevar al triangulo punteado a la posición del panel b., en la que casi “cubre” el triangulo gris. Un procedimiento de minimización natural determina cuando se alcanzo el “Apareamiento Optimo”. Los desplazamientos que llevan del triangulo gris al punteado no están definidos relativos al espacio, pero relativos al triangulo gris. El procedimiento es reciproco y puede aplicarse al sistema dinámico completo considerado.

Hasta ahora no hemos considerado el tamaño. Aquí es donde la Dinámica de las Formas comienza. El tamaño implica la existencia de una escala para medirlo. Pero si nuestras tres partículas son todo el universo, donde hay una escala para medir su tamaño? El tamaño es otro absoluto Newtoniano. El apareado óptimo puede extenderse a incluir ajustes de los tamaños relativos. Esto fue hecho para dinámica de partículas aquí. Lleva a un vínculo extra. No solo el momento angular pero algo conocido como el momento dilatacional debe anularse. La dinámica de cualquier universo gobernado por el apareamiento óptimo se vuelve aun más restrictiva que la mecánica Newtoniana.

El Apareamiento Optimo en la teoría de gravedad

El Apareamiento Optimo puede ser aplicado a la dinámica de la geometría y comparado con la relatividad general de Einstein (RG), que fue creada como una descripción de la geometría cuadridimensional del espaciotiempo. Sin embargo, puede ser reformulada como una teoría en la que una geometría tridimensional (la “3-geometria”) evoluciona. Esto fue hecho sobre el fin de la década del 50 por Dirac y Arnowitt, Deser y Misner (ADM), quienes encontraron una manera elegante de hacerlo que es ahora conocida como el formalismo ADM y está basado en la forma Hamiltoniana de la dinámica. En el formalismo ADM, el vínculo de difeomorfismos, mencionado algunas veces por Tim Koslowski, juega un rol importante. Su presencia puede ser explicada por una sofisticada generalización del Mejor Apareamiento de partículas que ya discutimos. Esto muestra que la noción de cambio fue modificada radicalmente cuando Einstein creo la RG (aunque este hecho está bastante bien oculto en la formulación de espaciotiempo usual). La noción de cambio empleada en RG implican que es una teoría independiente de fondo (background independent en ingles). En el formalismo ADM como está ahora, no hay un vinculo que corresponda al Apareo Optimo en tamaño. Sin embargo, en adición al vínculo de difeomorfismo, o más bien vínculos dado que hay infinitos de ellos, existen también infinitos vínculos Hamiltonianos. Reflejan la ausencia de un tiempo externo en la teoría de Einstein y la casi completa libertad de definir simultaneidad en puntos espacialmente separados del universo. Ha probado ser muy difícil incorporar estos vínculos en una teoría cuántica de la gravedad. Elaborando sobre trabajo previo, Tim y sus colaboradores Henrique Gomes y Sean Gryb encontraron una formulación Hamiltoniana alternativa de la geometría dinámica en la cual todos excepto uno de los vínculos Hamiltonianos pueden ser intercambiados por vínculos conformes. Estos vínculos conformes surgen de un Apareo Optimo en el cual el volumen del espacio puede ser ajustado con infinita flexibilidad. Imaginemos un globo con curvas dibujadas en el mismo que forman ciertos ángulos cuando se encuentran. Uno puede imaginar inflar o desinflar el globo. Este proceso no cambia los ángulos entre las curvas, pero las distancias entre los puntos de intersección cambia. Esto es conocido como una transformación conforme y es claramente análogo a cambiar el tamaño global de figuras en espacio Euclideo. Las transformaciones conformes que Tim discute en su plática se aplican a 3-geometrias curvas que se cierran sobre si mismas, como lo hace la superficie de la Tierra en 2 dimensiones. La representación alternativa, o dual, de la gravedad obtenida a través del Apareamiento Optimo conforme parece abrir nuevas posibilidades para la gravedad cuántica. Por el momento la más promisoria parece ser la idea de la duplicación de simetría discutida por Tim. Sin embargo, son épocas tempranas aun. Existen muchos posibles obstáculos al progreso en esta dirección, como Tim fue cuidadoso de enfatizar. Una de las cosas que más me intriga acerca de la Dinámica de la Forma es que, si vamos a explicar los hechos centrales de la cosmología por un universo espacialmente cerrado que se expande, no podemos permitir transformaciones conformes completamente irrestrictas en el Apareo Optimo pero solo las que preservan el volumen que Tim discutió. Esta es una restricción ínfima pero me huele al último vestigio del espacio absoluto de Newton. Creo que esto puede estar diciéndonos algo fundamental acerca de la mecánica cuántica del universo. En el ínterin es muy estimulante ver que emergen posibilidades técnicas en el nuevo marco conceptual.

Monday, October 31, 2011

Espumas de espín a partir de superficies arbitrarias

por Frank Hellman, Albert Einstein Institute, Golm, Germany

Jacek Puchta, University of Warszaw
Title: The Feynman diagramatics for the spin foam models
PDF of the talk (3MB)
Audio [.wav 35MB], Audio [.aif 3MB].


En varios artículos en el blog (p. ej. este) se ha descrito el enfoque de espumas de espín para la gravedad cuántica. Para resumirlo brevemente, el mismo describe la evolución de una red de espín a través de una superficie bidimensional que podemos pensar como representando a la red de espín evolucionando en el tiempo.

Si bien esta imagen es intuitivamente atractiva, a nivel técnico siempre ha habido diferencias de opinión respecto a que tipo de superficies bidimensionales deben ocurrir en la evolución. Este punto es particularmente crítico cuando uno trata de sumar sobre diferentes tipos de superficies. La propuesta original para esta superficie bidimensional fue hecha por Ooguri, que solo permitió un conjunto muy restrictivo de superficies, las llamadas “duales a una triangulación de una variedad”.

Una triangulación es una descomposición de una variedad en simplices (singular: simplex). Los simplices en dimensiones sucesivas se obtienen “agregando un punto y llenando”. Un simplex 0-dimensional es simplemente un punto. Un simplex unidimensional agrega un segundo punto y la recta que los une. Para dos dimensionas agregamos un tercer punto, llenando el espacio entre los tres puntos hasta formar un triangulo. En tres dimensiones obtenemos un tetraedro y en cuatro dimensiones un objeto llamado un 4-simplex.

La superficie “dual a una triangulación” se obtiene poniendo un vértice en el medio del simplex de dimensión más alta y conectándolo con una línea para cada simplex de dimensión más baja y llenando la superficie de cada simplex dos dimensiones más bajas. Un ejemplo para el caso donde el simplex de dimensión más alta es un triangulo esta dado en la figura, ahí el vértice del medio es ABC y se conecta con líneas de a rayas a los vértices cercanos.


Todos los modelos actuales de espumas de espín fueron creados con triangulaciones de este tipo en mente. De hecho muchos de los resultados cruciales del enfoque de espumas de espín descansan explícitamente en este punto algo técnico.

El precio que se paga por restringirnos a tales superficies es que no atendemos a la dinámica completa del espacio de Hilbert de la Gravedad Cuántica de Ciclos (LQG en ingles). Las redes de espín que evolucionamos siempre serán tetravalentes, esto es, siempre habrá cuatro líneas incidentes en cada nodo, mientras que en el espacio de Hilbert de LQG se tienen vértices de valencia arbitraria. Otro punto es que quizá deseemos estudiar la dinámica del modelo usando las superficies más sencillas primero para obtener una idea de que esperar de la teoría, y para algunos ejemplos interesantes, como la cosmología de espumas de espín, las superficies basadas en triangulaciones son inmediatamente bastante complicadas.
El grupo de Jerzy Lewandowski sugirió entonces generalizar las amplitudes consideradas hasta el momento a superficies bastante arbitrarias, y dar un método para construir los modelos de espuma de espín que habían sido considerados en el contexto de triangulaciones solamente, para estas superficies arbitrarias. Esto tapa el agujero entre la cinemática de LQG y la dinámica de espumas de espín. El precio es que varios de los resultados de geometricidad que se obtenían ya no valen.

Más aun, se vuelve ahora necesario lidiar con estas superficies generales. A priori existen muchísimas de ellas y algunas pueden ser muy difíciles aun de imaginar. De hecho trabajos de hace algún tiempo en cosmologías de espumas de espín ignoraron un numero grande de superficies que potencialmente podían contribuir a la amplitud. El trabajo presentado por Jacek Puchta en el seminario resuelve este problema elegantemente desarrollando un simple lenguaje diagramático que nos permite trabajar muy fácilmente con estas superficies sin tener que imaginarlas.

Esto se logra describiendo cada nodo en la amplitud a través de una red, y luego dando información adicional que nos permite reconstruir una superficie a partir de estas redes. Sin entrar en detalles, considérese una imagen como la mostrada en la siguiente figura. Las líneas solidad en la derecha son las redes que consideramos, las líneas de a rayas los datos adicionales. Cada nodode las líneas solidas representa un triangulo, cada línea solida son dos triángulos pegados a lo largo de un lado, y cada línea punteada son dos triángulos pegados cara con cara. Siguiendo esta receta obtenemos la triangulación de la izquierda. Mientras que la triangulación generada por esta prescripción puede ser complicada de visualizar en general, es fácil trabajar directamente con las redes de líneas solidas y de a rayas. Más aun no necesitamos restringirnos a redes que generen triangulaciones sino que se pueden considerar casos mucho más generales.

Este lenguaje tiene un numero de propiedades interesantes. Por empezar estas redes nos dan inmediatamente las redes de espín que necesitamos evaluar para obtener la amplitud de la espuma de espín de la superficie que se construye a partir de dichas redes.

Mas a un es muy fácil leer de las mismas cuales son las redes de espín que forman la frontera de una superficie particular. Como una fuerte demostración de cómo este lenguaje simplifica el pensar acerca de las superficies, en la plática se demostró como todas las superficies relevantes para el contexto de cosmológica cuántica de espumas de espín, que habían sido ignoradas, se pueden fácilmente ver y enumerar con el lenguaje nuevo.

El desafío que queda es entender si los resultados obtenidos en el contexto simplicial pueden ser traducidos al lenguaje más general construido. Para los resultados de geometricidad esto parece un gran desafío. Pero de todos modos el nuevo lenguaje parece que va a ser una herramienta indispensable para estudiar espumas de espín en el futuro y para clarificar la relación entre el enfoque canónico de LQG y el covariante basado en espumas de espín.

Saturday, October 1, 2011

El parámetro de Immirzi en gravedad cuántica de espumas de espín

por Sergei Alexandrov, Universite Montpellier, Francia


James Ryan, Albert Einstein Institute
Title: Simplicity constraints and the role of the Immirzi parameter in quantum gravity
PDF of the talk (11MB)
Audio [.wav 19MB], Audio [.aif 2MB].

La cuantización de espumas de espín es un enfoque a la gravedad cuántica. En primer lugar,  es “covariante”, dado que no divide al espacio-tiempo en espacio y tiempo como lo hace el enfoque “canónico” de gravedad cuántica de lazos. En segundo lugar, es "discreta" en el sentido de que supone desde el principio que el espacio-tiempo tiene una estructura granular en lugar de la estructura suave que suponen teorias "continuas" como la gravedad cuantica de lazos (LQG por sus siglas en inglés). Finalmenta, se basa en la técnica de cuantizacion conocida como “integral de camino” de Feynman en la cual uno suma probabilidades de todas las trayectorias posibles de un sistema. En el caso de la gravedad uno asigna probabilidades a todos los espacio-tiempos posibles. 

Para escribir la integral de camino en este enfoque uno usa una reformulación de la relatividad general de Einstein debida a Plebanski. Uno tambien estudia esta reformulación para espacio-tiempos discretos. Desde el principio fue considerada una pariente cercana de la gravedad cuántica de lazos  dado que los dos enfoques usan la misma imagen a nivel cualitativa del espacio-tiempo cuántico. (Sorprendentemente, si bien uno empieza con un espacio tiempo continuo en LQG, tras la cuantización emerge una estructura granular.) Sin embargo a un nivel más cuantitativo, había un desacuerdo llamativo. Primero estaba el asunto de las simetrías. Mientras que LQG involucra un conjunto de simetrías conocidas técnicamente como el grupo SU(2), los modelos de espuma de espín tenían simetrías asociadas con el grupo SO(4) o el grupo de Lorentz. Estas últimas son simetrías que emergen en espacio-tiempos mientras que la simetría SU(2) emerge naturalmente en el espacio. No es sorprendente que trabajar en un enfoque covariante lleve a que las simetrías que emergen naturalmente sean las del espacio-tiempo, mientras que trabajar en un enfoque donde el espacio está separado como en el enfoque canónico uno obtenga simetrías asociadas con el espacio. El segundo desacuerdo tiene que ver con el famoso parámetro de Immirzi, que juega un rol muy importante en LQG, pero ni siquiera aparecía en el enfoque de espumas de espín. El mismo es un parámetro que aparece en la formulación clásica que no tiene consecuencias observables en ella (es equivalente a un cambio de variables). Pero cuando uno cuantiza a la LQG, las predicciones físicas dependen del mismo, en particular el valor del cuanto de área y la entropía de los agujeros negros.

La situación cambio hace algunos años con la aparición de dos nuevos modelos de espumas de espín debidos a Engle-Pereira-Rovelli-Livine (EPRL) y Freidel-Krasnov (FK). Los nuevos modelos parecen coincidir con LQG a nivel cinemático (es decir, tienen los espacios de estados similares, pero sus dinámicas especificas puede que difieran). Más aún, incorporan el parámetro de Immirzi de manera no-trivial.

La idea básica detrás de estos modelos es la siguiente: en la formulación de Plebanski, la relatividad general es representada como una teoría topológica BF, suplementada por ciertos vínculos (“vínculos de simplicidad”). Las teorías BF son modelos topológicos muy bien estudiados (sus dinámicas son muy simples, estando limitadas a propiedades globales). Esta simplicidad en particular implica que es bien conocido como discretizar y cuantizar este tipo de teorías (por ejemplo, usando espumas de espín). El hecho de que la relatividad general pueda plantearse como una teoría BF con vínculos adicionales lleva a la idea de que la gravedad cuántica pueda ser obtenida imponiendo los vínculos de simplicidad directamente a nivel cuantico en una teoria BF.  Para este fin, usando el mapa cuantico usual de las teorías BF, los vínculos de simplicidad se vuelven operadores cuanticos que actúan sobre los estados de la teoria BF. La observación de EPRL fue que, una vez que se incluye el parámetro de Immirzi, algunos de los vínculos deben ser impuestos como identidades entre operadores, pero de un modo más débil. Esto les permitió hallar soluciones de los vínculos cuánticos que pueden ser puestas en correspondencia una-por-una con los estados cinemáticas de la LQG.

Aun así, este procedimiento no tomo en cuenta que los vínculos de simplicidad no son todos los vínculos de la teoría. Deben ser suplementados por otros vínculos (“secundarios”) y en conjunto  forman lo que se llama técnicamente como sistema de vínculos de segunda clase. Estos son muy distintos de los vínculos usuales que aparecen en teorías de calibre. Mientras los últimos corresponden a simetrías de las teorías, los primeros simplemente congelan algunos grados de libertad. En particular, a nivel cuántico, tienen que ser tratados de un modo completamente distinto. Para implementarlos, uno o debe resolverlos explícitamente o usar un procedimiento elaborado llamado el corchete de Dirac. Desafortunadamente, en el enfoque de espumas de spin los vínculos secundarios habían sido completamente ignorados.

Por otro lado si uno los tiene en cuenta uno obtiene una formulación que es independiente del parámetro de Immirzi.  Más aun, dicha formulación canoníca puede ser usada para una subsiguiente cuantizacion ya sea por los métodos de lazos o espumas de espín y lleva a resultados que no dependen del parámetro. Esto cuestiona la compatibilidad del enfoque de espumas de espín con el tratamiento estándar de Dirac basado en el análisis canónico del continuo.

En este seminario James Ryan trato de iluminar este problema estudiando el análisis canónica de la formulación de Plebanski aplicada a espacio-tiempos discretos. En su trabajo con Bianca Dittrich analizo vínculos que deben ser impuestos en una teoría discreta BF para obtener una geometría discreta y como afectan la estructura de la teoría. Encontraron que los vínculos discretos necesarios están en una bonita correspondencia con los vínculos de simplicidad primarios y secundarios de la teoría continua.

Además, resulto ser que los vínculos independientes naturalmente se dividen en dos conjuntos. El primero expresa la igualdad de dos sectores de la teoría BF, lo que efectivamente reduce el grupo de simetrías SO(4) a SU(2). Y de hecho si uno explícitamente resuelve este conjunto de vínculos, uno encuentra un espacio de estados análogos a los de LQG y los del nuevo modelo de espumas de espín dependiente del parámetro de Immirzi.

Aun así, las geometrías correspondientes no pueden ser asociadas con geometrías planas de a pedazos (geometrías  que se obtienen pegando simplices planos, como uno pega triángulos planos para formar un domo geodésico).  Las  geometrías planas de a pedazos son el tipo de geometrías usualmente asociadas a las espumas de espín. En su lugar  producen la llamadas geometrías torcidas, recientemente estudiadas por Freidel y Speziale. Para obtener las genuinas geometrías discretas que aparecen, por ejemplo, en la formulación de la relatividad genera conocida como calculo de Regge, uno debe imponer un conjunto adicional de vínculos consistentes de ciertas condiciones en el pegado. Como Ryan y Dittrich mostraron, la formulación obtenida tomando en cuenta todos los vínculos es independiente del parámetro de Immirzi, como lo es la formulación clásica del continuo. Esto sugiere que la búsqueda de un modelo de espuma de espín consistente y físicamente aceptable está lejos de ser concluida y que la teoría cuántica final puede eventualmente estar libre del parámetro de Immirzi.

Monday, September 12, 2011

Qué se esconde en un infinito?

por Daniele Oriti, Albert Einstein Institute, Golm, Alemania.


Matteo Smerlak, ENS Lyon
Title: Bubble divergences in state-sum models
PDF of the slides (180k)
Audio [.wav 25MB], Audio [.aif 5MB].

A los físicos nos disgustan los infinitos. En particular, no nos gusta cuando el resultado de un cálculo no es un número que pueda ser comparado con experimentos, sino infinito. Ninguna energía, ni distancia, ni velocidad ni densidad, nada en el mundo a nuestro alrededor tiene un valor medido que es infinito. La mayor parte de las veces esos infinitos indican que no hemos sido lo suficientemente inteligentes en tratar el sistema físico que estamos considerando, que hemos omitido algún ingrediente clave en su descripción, o usado el lenguaje matemático equivocado al describirlo. Y no nos gusta que nos recuerden que no somos inteligentes.

Al mismo tiempo, como confirmación de lo anterior, bastantes progresos en física teórica han ocurrido como consecuencia de una exitosa batalla intelectual con los infinitos. Abundan los ejemplos, pero veamos uno histórico. Consideremos una esfera hueca tridimensional cuyo interior está hecho de un material opaco (y por ende absorbiendo la mayor parte de la luz que en el incide), y supongamos que está llena de luz (radiación electromagnética) a temperatura constante. Esta clase de objeto es conocido como cuerpo negro. Supongamos que el objeto tiene un pequeño agujero por el que una cantidad limitada de luz puede salir. Si uno calcula la energía total (esto es considerando todas las frecuencias de luz posibles) de la radiación que sale por el agujero, a una temperatura dada y en un instante dado, usando las reglas del electromagnetismo clásico y la mecánica estadística clásica, uno encuentra que el resultado es infinito. En líneas generales el cálculo es así: uno tiene que sumar todas las contribuciones a la energía total de la radiación emitida (a un instante dado), provenientes de todos los infinitos modos de oscilación de la radiación, a una temperatura T. Dado que hay infinitos modos, la suma diverge. Nótese que si el mismo cálculo se hace primero imaginando que existe un modo de oscilación máximo, y luego se estudia que pasa cuando este supuesto máximo se permite crecer indefinidamente. Después del primer paso, el cálculo da un resultado finito, pero la divergencia original se obtiene en el segundo paso. En cualquier caso la suma da un resultado divergente: infinito! Sin embargo, el proceso de dos pasos permite entender mejor en que forma la cantidad de interés diverge.

Además de ser un absurdo teórico, esto es simplemente falso experimentalmente dado que es muy fácil fabricar objetos como el descripto en el laboratorio. Esto represento una gran crisis en la física clásica al fin del siglo 19. La solución vino de Max Planck con su hipótesis de que la luz esta en realidad constituida por paquetes discretos (parecidos a las partículas materiales), mas tarde conocidos como fotones, con una formula resultante distinta para la radiación emitida desde el agujero (mas precisamente, para las contribuciones individuales). Esta hipótesis, inicialmente propuesta con motivaciones bien distintas, no solo resolvía la paradoja de la energía infinita, pero inicio la revolución de la mecánica cuántica que llevo (después del trabajo de Bohr, Einstein, Heisenberg, Schroedinger y muchos otros) al entendimiento moderno de la luz, átomos y todas las fuerzas fundamentales (con la excepción de la gravedad).

Vemos entonces que la necesidad de entender lo que subyacía a un infinito, la necesidad de confrontarlo, llevo a un importante salto hacia delante de nuestro entendimiento de la naturaleza (en este ejemplo de la luz) y a una revisión de nuestras mas reverenciadas suposiciones sobre la misa. El infinito nos estaba diciendo exactamente eso. Interesantemente, un fenómeno teórico similar parece ahora sugerir que otro, aun mayor, salto hacia delante será necesario para entender la gravedad y el espacio-tiempo en sí mismo.

Un objeto que teóricamente es muy parecido a un cuerpo negro perfecto es un agujero negro. Nuestra teoría contemporánea de la materia, la teoría cuántica de campos, en conjunción con nuestra teoría de gravedad aceptada actualmente, la relatividad general, predicen que dichos agujeros negros emitirán radiación térmica a una temperatura constante inversamente proporcional a la masa del agujero negro. Esto es conocido como radiación de Hawking. Este resultado, en conjunto con la descripción de agujeros negros que provee la relatividad general, sugiere también que los agujeros negros tienen una entropía asociada con ellos, que mide el número de sus grados de libertad intrínsecos. Dado que un agujero negro es simplemente una configuración dada del espacio-tiempo, esta entropía es entonces una medida de los grados de libertad intrínsecos de una (región del) espacio-tiempo mismo! Sin embargo, para empezar, no tenemos idea que son dichos grados de libertad intrínsecos/ más aún, si la imagen del espacio-tiempo que provee la relatividad general es correcta, su cantidad, y por ende la entropía correspondiente es infinita!

Este hecho, junto a un significativo número de otros resultados y problemas conceptuales ha motivado a una fracción importante de la comunidad de físicos teóricos a buscar una mejor teoría del espacio (y el tiempo), posiblemente basada en la mecánica cuántica (incorporando la experiencia histórica): una teoría cuántica del espacio-tiempo, una teoría de la gravedad cuántica.

No debe malinterpretarse que la transición de la mecánica clásica a cuántica nos alejo del problema de los infinitos en la física. Al contrario, nuestras mejores teorías de la materia y las fuerzas fundamentales, las teorías cuánticas de campos, están llenas de infinitos y cantidades divergentes. Lo que hemos aprendido de las mismas, sin embargo, es exactamente cómo lidiar con dichos infinitos en términos bastante generales, que esperar y qué hacer cuando dicho infinitos se presentan. En particular hemos aprendido otra lección crucial sobre la naturaleza: los fenómenos físicos aparecen muy distintos a diferentes energías y escalas de distancia, esto es, si los examinamos muy de cerca o a energías más y más altas. Los métodos que usamos para lidiar con esta dependencia de escala se conocen como el grupo de re normalización, actualmente un ingrediente crucial de todas las teorías de partículas y materia, tanto macroscópica como microscópica. La forma en la que esta dependencia de escala se realiza en la práctica depende por supuesto del sistema físico en consideración.

Veamos un ejemplo sencillo. Consideremos la dinámica de una partícula hipotética con masa m y sin espín; supongamos que todo lo que puede pasarle a esta partícula durante su evolución es una de las siguientes dos posibilidades: puede desintegrarse en dos partículas del mismo tipo o en tres partículas del mismo tipo. También supondremos que los procesos inversos son permitidos (esto es, dos partículas pueden desaparecer dando lugar a una sola y lo mismo puede pasarle a tres partículas). Así que hay dos posibles “interacciones”, dos tipos de procesos fundamentales que pueden sucederle a esta clase de partículas. A cada proceso le asociamos un parámetro llamado “constante de acoplamiento” que indica cuanta fuerza tiene cada proceso de interacción (comparados entre si o con otras posibles interacciones como por ejemplo de las partículas con gravedad o con la luz), uno para el proceso de de tres partículas y otro para el de dos. Ahora, el objeto central que no permite calcular una teoría de campos es la (amplitud de) probabilidad de que, si primero veo n partículas en un tiempo dado, mas tarde veré en su lugar m partículas con m distinto de n (dado que algunas partículas se habrán desintegrado y otras se habrán creado). Toda otra cantidad física de interés se puede deducir de estas amplitudes de probabilidad.

Más aun, la teoría nos dice exactamente como debe calcularse esta probabilidad. En líneas generales es de la siguiente manera. Primero tengo que considerar todos los procesos posibles que lleven de n partículas a m partículas, incluyendo aquellos que involucran un número infinito de procesos elementales de creación/aniquilación. Aquellos procesos son representados por diagramas (llamados diagramas de Feynman) en los que cada vértice representa un proceso elemental posible (ver la figura para un ejemplo de tal proceso, constituido de interacciones elementales involucrando solo tres partículas, con su grafico asociado).

Un diagrama describiendo una secuencia de interaccione elementales trivalentes para una partícula puntual, con dos partículas al inicio y al final (debe ser leído de izquierda a derecha).

Segundo, a cada uno de estos procesos se le debe asignar una amplitud de probabilidad, esto es, una función de la masa de la partícula considerada y las “constantes de acoplamiento”. Tercero, esta amplitud depende de la energía de cada partícula involucrada en cada proceso (correspondiente a una línea en el diagrama representando el proceso, y esta energía puede tomar cualquier valor de cero a infinito. La teoría nos dice que forma tiene la amplitud de probabilidad. La probabilidad total de medir m partículas primero y n partículas después se calcula sumando las probabilidades de todos los diagramas/procesos (incluyendo aquellos que contienen infinitos procesos elementales) y todas las energías posibles de las partículas involucradas.

Imaginan que pasa? El cálculo delineado típicamente lleva al resultado temido: infinito. Básicamente, todo lo que puede fallar, falla, como en el caso de las leyes de Murphy. No solo la suma sobre todos los diagramas/procesos da un resultado divergente, pero la suma sobre las energías también diverge. Sin embargo, como anticipamos, sabemos cómo lidiar con este tipo de infinitos, ya no les tenemos miedo y, de hecho, hemos aprendido que significan físicamente. El problema surge fundamentalmente cuando consideramos energías cada vez más altas para las partículas involucradas en el proceso. Por simplicidad, imaginemos que todas las partículas tienen la misma energía E, y supongamos que puede tomar cualquier valor de cero a un valor máximo Emax. Justo como en el ejemplo del cuerpo negro, la existencia del valor máximo implica que la suma sobre energías es finita, así que hasta aquí todo va bien. Sin embargo, cuando dejamos que la energía máxima sea infinita, la suma diverge.

Hemos hecho algo mal; enfrentémoslo: hay algo que no hemos entendido de la física del sistema (por simples que sean las partículas). Puede ser que, como en el caso de la radiación de cuerpo negro, estamos omitiendo algo fundamental acerca de la naturaleza de estas partículas, y tenemos que cambiar completamente la amplitud de probabilidad. Quizá otros tipos de partículas deben ser consideradas como creadas a partir de las iniciales. Todo esto podría ser. Sin embargo, la teoría cuántica de campos nos ha enseñado que, antes de considerar estas posibilidades más drásticas, uno debe reescribir el cálculo anterior considerando constantes de acoplamiento y masas que dependan de la energía Emax. Uno entones rehace el cálculo de la amplitud de probabilidad, pero ahora usando estas constantes “dependientes de escala” y verificar si uno puede considerar el caso de Emax yendo a infinito, es decir, considerar energías arbitrarias para las partículas involucradas en el proceso. Si esto se puede hacer, es decir si uno encuentra constantes dependientes de la energía tales que el resultado de enviar Emax a infinito es una probabilidad razonable y finita, entonces no hace falta modificar mas la teoría y el sistema físico considerado está bajo control.

Que nos enseña todo esto? Nos muestra que el tipo de interacciones que el sistema puede tener y sus fuerzas relativas dependen de la escala a la que estudiamos el sistema, es decir que energía experimenta el sistema en cada proceso. Por ejemplo, podría pasar que cuando Emax se vuelve más y más grande, la constante de acoplamiento como función de Emax se vuelve cero. Esto querría decir que a muy altas energías, el proceso de desintegración de una partícula en dos (o dos en una) deja de ocurrir, y solo ocurre el que involucra tres partículas. Gráficamente, solo diagramas de un cierto tipo son relevantes. O podría pasar que, a energías muy altas, la masa de las partículas se vuelve cero, es decir las partículas se vuelven cada vez más livianas, eventualmente propagándose como lo hacen los fotones. La lección general, aparte de las tecnicalidades de cada caso, es que para un sistema físico dado es crucial el entender exactamente como divergen las cantidades de interés, dado que en los detalles de tal divergencia hay importante información acerca de la verdadera física de los sistemas considerados. Los infinitos en nuestros modelos deben ser domesticados, explorados en profundidad y escuchados.

Esto es lo que Matteo Smerlak y Valentin Bonzom hicieron en el trabajo presentado en el seminario, para algunos modelos de espacio cuántico que son el centro de atención de la comunidad de investigadores en gravedad cuántica. Estos son los llamados modelos de espuma de espín (spin foam), en los que el espacio esta descrito en términos de redes de espín (grafos cuyas líneas tienen asignados números discretos, espines, representando información geométrica elemental) o equivalentemente en términos de colecciones de triángulos pegados unos a otros a lo largo de lados, y cuya geometría esta especificada por la longitud de dichos lados. Los modelos de espuma de espín están estrictamente relacionados con a la gravitación cuántica de lazos, cuyos aspectos dinámicos intentan definir, y a otros enfoques de la gravedad cuántica como la llamada gravedad simplicial. Estos modelos, de la misma manera que los modelos de partículas que discutimos, tratan de calcular (entre otras cosas) la probabilidad de medir una configuración dada de espacio cuántico, representada nuevamente como un conjunto de triángulos pegados entre si o como un grafo de una red de espín. Nótese que aquí una “configuración de espacio cuántico” quiere decir tanto una forma espacial (podría ser una esfera, un toro, o alguna forma más complicada) y una geometría dada (puede ser una esfera muy grande o muy chica, una esfera con protuberancias aquí y allá, etc.). Uno podría también considerar el calcular la probabilidad de transición de una configuración de espacio cuántico a otra.

Mas precisamente, los modelos de Bonzom y Smerlak son simplificados (con relación a los que tratan de describir espacio-tiempos 4 dimensionales) en los que la dinámica es tal que, cualquiera la forma y geometría del espacio que uno considere, durante su evolución, si uno midiera la curvatura de dicho espacio en cualquier lugar, uno obtendría cero. En otras palabras estos modelos solo consideran espacio-tiempos planos. Esto es, por supuesto, una drástica simplificación, pero no tanto que los modelos resultantes carezcan de interés. Por el contrario, estos modelos planos no solo son perfectamente aceptables para describir la gravedad cuando el espacio tiempo considerado solo tiene tres dimensiones, pero son la base para construir otros modelos con espacio tridimensional, es decir, espacio-tiempo cuadridimensional. Como consecuencia, estos modelos, junto con otros más realistas, han sido el foco de atención de la comunidad de investigadores en gravedad cuántica.

Cuál es el problema entonces? Como pueden imaginarse, el usual: cuando uno trata de calcular la mencionada probabilidad para una cierta evolución del espacio cuántico, aun en estos modelos simplificados, la respuesta que uno obtiene es el omnipresente, pero ya ahora solo apenas intimidante, infinito. Como es el cálculo? Es bastante similar al cálculo de la probabilidad de un proceso dado de evolución de partículas en teoría cuántica de campos. Consideremos el caso en que el espacio es bidimensional, es decir el espacio-tiempo es tridimensional. Supongamos que uno quiere considerar la posibilidad de medir primero n triángulos pegados entre si para formar, digamos, una esfera bidimensional (la superficie de una pelota de futbol) de un cierto tamaño, y luego medir m triángulos pegados para formar, digamos, la superficie de una rosquilla (toro). Ahora tomemos una colección de un numero arbitrario de triángulos y peguémoslos entre si hasta formar un objeto tridimensional a elección, como si pegáramos ladrillos de LEGO para formar una casa o un automóvil o una nave espacial (como ven, la ciencia en varias maneras el desarrollo de la curiosidad de los niños por otros medios). Podría ser algo tan simple como una pelota de futbol, o algo extremadamente complicado con agujeros, múltiples interconexiones, cualquier cosa. Solo hay una condición para el objeto tridimensional construido: sus superficies deben estar formadas, en el ejemplo considerado, de dos partes desconectadas: una en la forma de una esfera bidimensional de n triángulos y otra en la forma de la superficie de una rosquilla hecha de m triángulos. Esta condición, por ejemplo, impediría que el espacio tridimensional fuera una pelota de futbol. Esto último podría ser si uno quisiera calcular la probabilidad de medir n triángulos formando una esfera y no hubiera una rosquilla involucrada. Seremos holgazanes en este ejemplo y consideraremos una rosquilla pero no pelota de futbol. Aparte de esto pueden hacer cualquier cosa.

Detengámonos por un segundo para clarificar que quiere decir que un espacio tenga una forma dada. Consideremos un punto en una esfera y tomemos un camino que parte de dicho punto y después de un tiempo retorna al mismo, formando un lazo. Claramente se puede ver que se puede hacer al lazo más y más chico, eventualmente tornándose en un punto. Ahora repitamos el ejercicio en la superficie de una rosquilla (toro). Claramente hay ciertos lazos que uno puede formar que se pueden contraer hasta formar un punto y otros no. Estos últimos son los que le dan la vuelta al agujero de la rosquilla. Así que se puede ver que este tipo de operaciones nos ayuda a determinar la forma del espacio. Digamos que uno ha terminado de construir el objeto tridimensional pegando triángulos. Así como los triángulos en el borde del objeto tridimensional, esos que forman la esfera y la rosquilla, los triángulos que forman el objeto tridimensional en si vienen con números asociados a los bordes. Estos números, como dijimos, especifican la geometría de todos los triángulos, y por ende de la esfera, la rosquilla y el objeto tridimensional que los tiene por frontera.

Una colección de triángulos pegados formando una esfera (izquierda) y una rosquilla (derecha); el espacio tridimensional interior también puede ser construido pegando triángulos que tengan la forma dada en la frontera: para el primer objeto el interior es una pelota, para el segundo lo que se conoce como un toro solido. Las imágenes son de http://www.hakenberg.de

La teoría (el modelo de espuma de espín en estudio) debería dar la probabilidad para el proceso considerado. Si los triángulos que forman la esfera representan como era el espacio cuántico al principio, y los triángulos que forman la rosquilla como lo es al final, el objeto tridimensional elegido representa un espacio-tiempo cuántico posible. En la analogía con el proceso de partículas que discutimos más arriba, los n triángulos que forman la esfera corresponden a las n partículas iniciales, los m triángulos que forman la rosquilla corresponden a las m partículas finales, y el objeto tridimensional es el análogo de un posible “proceso de interacción”, una posible historia de triángulos siendo creados/destruidos, formando distintas formas y cambiando de tamaño; el tamaño esta codificado en las longitudes, que es el análogo de las energías de las partículas. El modelo de espuma de espín da la probabilidad del proceso en la forma de una suma de probabilidades para todas las asignaciones posibles de longitudes para los lados del objeto tridimensional, cada probabilidad asegurando que el mismo sea plano (da una probabilidad cero si no es plano). Como anticipamos, este calcula da el usual insensato infinito como resultado. Pero nuevamente, sabemos que tenemos que sobreponernos a esa decepción inicial, y estudiar en más detalle que oculta el infinito. Así que uno una vez más imagina que existe una longitud máxima de los lados de los triángulos, llamándola Emax, definiendo una amplitud truncada y estudiando con cuidado cómo se comporta cuando Emax crece y se le permite volver cada vez mas grande.

En ese sentido, en este caso, lo que está oculto tras este infinito es la completa complejidad de un espacio tridimensional, aun cuando su geometría sea plana. Lo que uno encuentra es que escondido en este infinito, y cuidadosamente revelado por como depende la amplitud del valor de Emax, esta toda la información sobre la forma del objeto tridimensional, es decir de los posibles espacios considerados, y toda la información de cómo estos espacios son construidos a partir de triángulos. Eso es mucha información!

Bonzom y Smerlak, en el trabajo descripto en el seminario, han avanzado bastante en desmadejar toda esta información, profundizando en los secretos de este infinito particular. Su trabajo ha sido desarrollado en una serie de publicaciones en las que ofrecen una formulación matemáticamente muy elegante del problema y un nuevo enfoque para su solución, progresivamente afinando sus resultados y mejorando el entendimiento de estos modelos específicos de espuma de espín para la gravedad cuántica, de la manera que dependen de la forma y la construcción específica de cada espacio-tiempo tridimensional y que forma y construcción dan el infinito “mas grande”. Este trabajo representa una contribución muy importante a un área de investigación que crece rápidamente y en la que muchos otros resultados, de otros grupos alrededor del mundo, han sido obtenidos y continúan siendo obtenidos.

Aun hay más. La analogía con procesos de partículas en teoría cuántica de campos puede ser hecha más precisa y uno de hecho puede estudiar tipos peculiares de estas teorías, llamadas “teorías de campos de grupos”, tales que la amplitud descripta más arriba es generada por la teoría y asignada al proceso especifico, como en los modelos de espuma de espín y al mismo tiempo todos los procesos posibles son tenidos en cuenta, como en teoría de campos cuántica usual para partículas.

Este cambio de enfoque, embebiendo al modelo de espuma de espín en un lenguaje de teoría cuántica de campos, no cambia mucho el problema de las divergencias producto de las sumas sobre las longitudes de los bordes, ni su resultado infinito. Y no cambia la información acerca de la forma del espacio involucrado en este infinito. Sin embargo, cambia la perspectiva a través de la cual vemos este infinito y sus secretos ocultos. De hecho, en este nuevo contexto el espacio y el espacio-tiempo son genuinamente dinámicos, todos los posibles espacio-tiempos tienen que ser considerados en un pie de igualdad y compiten en sus contribuciones a la probabilidad total para una cierta transición de una configuración de espacio cuántico a otro. No podemos simplemente elegir una forma dada, hacer el cálculo y estar contentos con ello (una vez que lidiamos con el infinito que resulta de hacer el cálculo ingenuamente). Los posibles espacio-tiempos que tenemos que considerar, además, incluyen algunos muy extraños, con billones de aguieros y extrañas conexiones de una región a otra y objetos tridimensionales que no parecen espacio-tiempos sensatos en lo absoluto y así sucesivamente. Tenemos que tomarlos todos en cuenta en este contexto. Esta es por cierto una complicación técnica adicional. Pero también es una fantástica oportunidad. De hecho ofrece la posibilidad de preguntar y quizá responder una pregunta muy interesante: por que es el espacio-tiempo, al menos en nuestra escala macroscópica, de la manera que es? Por que aparece tan regular, tan simple en su forma, de hecho tan simple como una esfera? Prueben! Podemos considerar un lazo imaginario localizado en cualquier lugar de lespacio y contraerlo hasta que se convierte en un punto sin problema, verdad? Si la dinámica del espacio cuántico está gobernada por un modelo (sea de espuma de espín o de teoría de campos de grupo) como los descriptos, esto no es para nada obvio, pero algo que debe explicarse. Procesos que parecen lindos en nuestro espacio-tiempo macroscópico son pero una pequeña minoría de los billones de espacio-tiempos posibles que entran en la suma que hemos discutido. Así que por que deben “dominar” al final y ser los verdaderamente importantes, los que aproximan nuestro espacio tiempo macroscópico? Por que y como “emergen” de los otros y originan, de este lio cuántico, el bello espacio-tiempo que habitamos, en una aproximación clásica y continua? Cuál es el verdadero origen cuántico del espacio-tiempo, tanto en su forma como en su geometría? La manera en que las amplitudes crecen con el incremento de Emax es donde la respuesta a estas fascinantes preguntas yace.

La respuesta, una vez más está escondida en el mismo infinito que Bonzom, Smerlak y sus muchos colegas de la gravedad cuántica alrededor del mundo están domando valientemente, estudiando, y paso a paso, entendiendo.

Tuesday, August 30, 2011

Cosmologías de espuma de espín y la constante cosmológica

por David Sloan, Institute for Theoretical Physics, Utrecht University, Holanda.

• Francesca Vidotto, CNRS Marseille
Title: Spinfoam cosmology with the cosmological constant
PDF of the slides (3 MB)
Audio [.wav 26MB], Audio [.aif 2MB].


Las observaciones actuales del universo muestran que aparenta estar expandiéndose. Esto se observa a través del corrimiento al rojo –un efecto Doppler cosmológico- de la luz de supernovas a gran distancia. Las últimas son explosiones gigantes que proveen una “bujía patrón”, una señal fija cuyo color indica movimiento relativo al observador. Los objetos distantes no solo aparecen moverse alejándose de nosotros, pero lo hacen en forma acelerada. Esta aceleración no puede ser explicada por un universo compuesto por materia “ordinaria” como polvo o radiación. Para proveer aceleración, la materia tiene que tener presión negativa. No se conoce la naturaleza exacta de materia que pueda proveer dicha propiedad, así que se la llama “energía oscura”.


La imagen de los restos de la supernova tipo Ia llamada Tycho, captadas por el observatorio Spitzer de la NASA, y originalmente observada por Tycho Brahe.

De acuerdo al modelo estándar de la cosmología, el 73% del contenido de materia el universo consiste en energía oscura. Es la componente dominante del universo observable, el resto estando compuesto primariamente de materia oscura (la materia ordinaria que constituye las estrellas, planetas y nébulas constituye solo el 4%). En cosmología se suele asumir que el universo es a gran escala homogéneo e isotrópico, y como consecuencia de ello los tipos de materia presente están usualmente parametrizados por el cociente de su presión a su energía, llamado w. La energía oscura no es como la materia ordinaria y presenta presión negativa. De hecho, observaciones por Reiss et al. Indican que dicho cociente es de -1.08 ±0.1. Hay varios modelos que intentan explicar la naturaleza de la energía oscura. Entre ellos está la Quintaesencia que consiste de un campo escalar cuya presión cambia con el tiempo, y modelos de regiones vacías de materia (llamado modelo de queso Suizo) que buscan explicar la expansión como un efecto de inhomogeneidades a gran escala. Sin embargo, el modelo más aceptado para la energía oscura es el de la constante cosmológica, para el cual w=-1.

La constante cosmológica tiene una historia interesante como concepto en la relatividad general. Originalmente fue introducida por Einstein, que noto que había libertad de incluirla en las ecuaciones de la teoría, fue un intento de contrarrestar la expansión del universo que aparece en cosmología relativista. Debe recordarse que en ese entonces se pensaba que el universo era estático. Se demostró rápidamente que la constante cosmológica no es suficiente para proveer un universo estático estable. Peor aún, observaciones posteriores indicaron que el universo se expandía como lo sugerían las ecuaciones de la cosmología relativista. Aun así, la libertad de incluir un nuevo parámetro en las ecuaciones de la relatividad general permaneció de interés teórico. Las ecuaciones con el parámetro describían los universos de (anti)DeSitter que tienen una topología distinta del espacio plano. El destino a largo plazo del universo en general es determinado por la constante cosmológica – para valores positivos suficientemente grandes, el universo se expandirá indefinidamente, acelerando mientras se expande. Para valores negativos el universo eventualmente re colapsará, llegando a una singularidad llamada “big crunch” (gran aplastamiento). Recientemente, a través de la observación de supernovas, el valor de la constante cosmológica ha sido medido y es positivo y pequeño. En unidades naturales (en términos de la escala de Planck), su valor es 10-120, un número tan increíblemente pequeño que aparece improbable que haya ocurrido por accidente. Esta “pequeñez” o “sintonización fina” es un problema conceptual y ha motivado una serie de explicaciones que van desde argumentos antrópicos (valores más altos harían la vida humana imposible) a agujeros de gusano virtuales. Sin embargo, no hay una respuesta aceptada por los científicos hoy.
El rol de la constante cosmológica puede ser entendido de dos maneras – puede ser considerado tanto como un pedazo de la geometría o del contenido de materia de las ecuaciones de campo de la relatividad general. Como entidad geométrica puede ser considerado como un factor más en la complicada forma en que la geometría se acopla con la materia. Como materia puede ser asociada con la energía del “vacio” del universo: energía asociada con el espacio vacío. Esta naturaleza dual hace a la constante cosmológica un candidato de prueba ideal para introducir materia en teorías fundamentales de la gravedad. El trabajo de Bianchi, Krajevski, Rovelli y Vidotto, discutido en la plática, se refiere a la adición de este término en los modelos cosmológicos de espumas de espín (spin foams). Francesca describió como uno puede introducir un término que agrega el efecto de la constante cosmológica a las amplitudes de transición (una manera de cuantificar la dinámica) de los modelos de espuma de espín. Este nuevo ingrediente le permite a Francesca elaborar un nuevo modelo de cosmología dentro del contexto de las espumas de espín. Cuando se agrega a las recetas usuales de grafos dipolares, expansiones de vértice y estados coherentes, los resultados descritos aparecen describir bien nuestro universo a grandes escalas. La inclusión de este nuevo factor permite usar interpretaciones de grupos deformados cuánticos, que han sido propuestos como una manera de hacer la teoría finita.
Este es un desarrollo interesante, dado que el programa de espumas de espín ataca “de abajo para arriba” el problema de la gravedad cuántica. En lugar de empezar con la relatividad general usual y hacer perturbaciones alrededor de soluciones conocidas, el programa de espumas de espín se basa en redes representando los campos gravitatorios fundamentales y calcula su dinámica a través de un a espuma de grafos que interpolan entre la red inicial y la final. Así, recuperar la física usual no es algo asegurado de entrada. Los resultados discutidos en el seminario de Francesca proveen una base firma para entender las implicaciones cosmológicas de los modelos de espuma de espín y de acercarlos a la física observable.

Wednesday, August 3, 2011

Deformaciones cuanticas de modelos de spin foam en 4d

por Hanno Sahlmann, Center for Theoretical Physics and Physics Department, Pohang University of Science and Technology, Korea.

• Winston Fairbairn, Hamburg University
Title: Quantum deformation of 4d spin foam models
PDF of the slides (300k)
Audio [.wav 36MB], Audio [.aif 3MB].


El trabajo del que habló Winston Fairbairn es interesante porque combina una teoría de la gravedad cuántica con unos objetos matemáticos muy interesantes llamados grupos cuánticos. ¡Lo hace de modo tal que se puede relacionar con el valor no nulo de la constante cosmológica que se observa en la naturaleza! Déjenme intentar explicar que son estas cosas y como encajan entre sí.

Grupos cuánticos
Un grupo es un conjunto de objetos que se pueden multiplicar entre sí para obtener otro elemento del grupo. Así que existe una ley de producto. También hay un elemento especial, llamado la unidad, que cuando se lo multiplica con cualquier elemento del grupo da por resultado dicho elemento. Finalmente tiene que existir un inverso a cada elemento tal que si se lo multiplica por el elemento correspondiente se obtiene la unidad. Por ejemplo, los números enteros son un grupo bajo la suma y las rotaciones espaciales son un grupo bajo la composición de dos rotaciones sucesivas. Los grupos son uno de los ingredientes matemáticos más importantes de las teorías físicas porque describen las simetrías de un sistema físico. Un grupo puede actuar de distintos modos sobre un sistema físico. Cada modo es conocido como  una representación.

Los grupos han sido estudiados por matemáticos por cientos de años, así que se conoce bastante acerca de ellos. Imagínense lo emocionante que fue cuando se descubrió que existe una clase de objetos más general (y complicada) que tienen varias de las mismas propiedades de los grupos, en particular de cómo se representan matemáticamente. Estos objetos son conocidos como grupos cuánticos. Hablando en términos generales, uno puede obtener un grupo cuántico considerando funciones que actúan en un grupo. Las funciones se pueden sumar y multiplicar naturalmente. Adicionalmente, el producto de grupo, la inversión y la unidad del grupo inducen estructuras en el conjunto de funciones del grupo.

El producto de funciones es conmutativo, fg y gf dan el mismo resultado. Pero uno puede considerar objetos matemáticos que actúan sobre un grupo y no son conmutativos. Entonces estos objetos no pueden ser funciones, pero uno puede tratarlos como funciones que actúan en lugar de sobre un grupo sobre un nuevo conjunto peculiar: un grupo cuántico.
Ejemplos particulares de grupos cuánticos pueden encontrarse deformando las estructuras que uno encuentra en grupos ordinarios. En estos ejemplos existe un parámetro q que da una idea de cuan grandes son las deformaciones. q=1 corresponde a un grupo ordinario. Si q es un numero complejo con q^n=1 para algún n entero (es decir, q es una raíz de la unidad), los grupos cuánticos tienen propiedades particulares. Otra clase especial de deformaciones está dada por q siendo un número real. Ambas clases aparecen como relevantes en gravedad cuántica.

Gravedad Cuántica

Encontrar una teoría de la gravedad cuántica es un objetivo importante de la física moderna y es a lo que se dedica la gravedad cuántica de lazos. Dado que la gravedad es una teoría del espacio-tiempo y como se combinan para formar una geometría espacio-temporal, se espera que la gravedad cuántica sea una teoría muy inusual. Una en la que cantidades como el tiempo y el espacio vienen en cantidades discretas (átomos de espacio tiempo, si se quiere) y no son medibles simultáneamente.
Una manera de pensar teorías cuánticas es en términos de lo que se conoce como “integrales de camino”. Las mismas responden a la pregunta de que probable es que un evento dado ocurra (por ejemplo que interactúen dos electrones). Para calcular la integral de camino uno debe sumar números complejos, (conocidos como amplitudes), uno por cada posible manera en que el evento en cuestión puede ocurrir. La probabilidad está dada por dicha suma. En la mayor parte de los casos las posibles maneras en las que suceda un evento son infinitas. Por ejemplo, dos electrones pueden interactuar intercambiando un fotón, dos fotones, tres, o…, el primer fotón puede ser emitido en infinitos diferentes lugares y energías, etc. Como consecuencia de esto el cálculo de integrales de camino es sutil, usualmente solo se puede hacer en forma aproximada, y puede llevar a resultados infinitos. Las integrales de camino fueron introducidas en la física por Feynman. El no solo sugirió que había que pensar las teorías cuánticas en términos de integrales de camino, sino que proveyó un ingenioso procedimiento para calcularlas en forma aproximada. A cada término en la aproximación al cálculo de la probabilidad de un proceso dado en una teoría cuántica de campos le asocio lo que ahora llamamos un diagrama de Feynman. Lo bueno de los diagramas de Feynman es que no solo tienen un significado técnico. Pueden interpretarse como una forma particular en la que un proceso puede ocurrir. Esto hace trabajar con los mismos una tarea muy intuitiva.

(Imagen de Wikipedia)
Resulta que la gravedad cuántica de lazos también puede ser formulada en términos de algo parecido a las integrales de camino. Esto suele llamarse gravedad de espuma de espín (spin foam). Las espumas de espín son análogas a los diagramas de Feynman de la teoría cuántica de campos ordinaria: Son un método técnico de aproximar la integral de camino, pero al igual que los diagramas de Feynman uno las puede ver como la historia de un proceso. En este caso el proceso es como el espacio-tiempo en si mismo va cambiando!



El asociar la amplitud a un diagrama dado usualmente involucra calcular integrales. En el caso de teorías cuánticas de campos hay una integral sobre la cantidad de movimiento de cada partícula involucrada en el proceso. En el caso de las espumas de espín, también hay integrales o sumas infinitas, pero en este caso es sobre los números que representan al grupo! Esta es la magia de la gravedad cuántica de lazos: propiedades del espacio-tiempo cuántico quedan codificadas en propiedades de los grupos. Los grupos más relevantes para la gravedad son SL(2,C), un grupo que contiene las transformaciones de Lorentz, y SU(2), un subgrupo asociado a las rotaciones espaciales.

La constante cosmológica

En algunas teorías de gravedad, el espacio vacío “tiene peso” y por ende influencia la dinámica del universo. Esta influencia está gobernada por una constante llamada la constante cosmológica. Hasta hace poco más de diez anos, la posibilidad de tener una constante cosmológica no nula no era considerada muy seriamente. Pero para sorpresa de todos, los astrónomos han encontrado evidencia solida que existe una constante cosmológica y que es positiva. El crear espacio vacío crea energía! El efecto de esto es tan grande que parece dominar la evolución cosmológica en la era presente (hay evidencia teórica a favor de la existencia de una constante cosmológica en periodos previos también). La teoría cuántica de campos de hecho predice que debería haber energía en el espacio vacío, pero la constante cosmológica observada es tremendamente más pequeña que lo que uno esperaría de la teoría cuántica de campos. Así que explicar el valor observado de la constante cosmológica presenta un importante misterio para la física.

Gravedad de espuma de espín con grupos cuánticos
Finalmente llego al tema de la plática. Como dijimos, las integrales de camino son objetos complicados, y frecuentemente resultados de los cálculos dan infinito. Muchas veces estos infinitos son debido a problemas en las aproximaciones que uno ha hecho, y algunas veces los infinitos pueden cancelarse entre si, dejando un resultado finito. Para analizar estos casos, es útil al principio considerar modificaciones de la integral de camino que eliminan los infinitos, por ejemplo restringiendo el rango en que se integra o las cantidades de términos en las sumas. Este tipo de modificación es conocido como “introducir un regulador”, y por supuesto cambia el contenido físico de la integral de camino. Sin embargo, puede ser útil para analizar la situación y re arreglar el cálculo de modo que al final el regulador puede ser removido y dejar un resultado finito. O uno quizá pueda mostrar que la presencia del regulador es irrelevante en ciertos regímenes de la teoría.

Volvamos a la gravedad. Para el caso Euclideo (esto significa una teoría de puro espacio en lugar de un espacio-tiempo, esto es incorrecto físicamente pero simplifica algunos cálculos) de la gravedad cuántica en tres dimensiones, existe una agradable formulación de espumas de espín debida a Ponzano y Regge, pero, como es de anticiparse, da resultados infinitos en ciertas situaciones. Turaev y Viro luego se dieron cuenta que si uno reemplaza el grupo por un grupo cuantico evaluado en una raíz de la unidad, el efecto es similar a introducir un regulador. Para empezar, hace lo que un regulador se supone que hace: torna la amplitud finita. Esto es debido a que el grupo cuántico con q una raíz de la unidad es representado matemáticamente por números finitos, así que las sumas infinitas que aparecían son reemplazadas por sumas finitas. Más aun, como el grupo original fue solamente deformado, no roto, uno espera que los resultados regulados se mantengan próximos a los que se obtendrían sin regular. De hecho, algo mejor aun ocurre, resulta (trabajo de Mizoguchi y Tada) que las amplitudes en las cuales el grupo se reemplazo por su deformación a un grupo cuántico corresponden a otra teoría física bien definida, la gravedad cuántica con una constante cosmológica! El parámetro de deformación q está directamente relacionado al valor de la constante. Así que el regulador no es simplemente una herramienta técnica para hacer las amplitudes finitas. Tiene un significado físico directo.
La plática de Winston no fue acerca de gravedad en tres dimensiones sino acerca de la versión más realista en cuatro dimensiones. El considero lo que se conoce como el vértice EPRL, una nueva manera de asociar amplitudes a esponjas de espín, desarrollada por Engle, Pereira, Rovelli y Livine, que ha creado bastante entusiasmo entre la gente trabajando en gravedad cuántica de lazos. Las amplitudes obtenidas de esta manera son finitas en un número sorprendente de circunstancias, pero aun así algunos infinitos aparecen. Winston Fairbairn, junto a Catherine Meusberger (e independientemente Muxin Han), fueron capaces de escribir una nueva función de vértice en la cual el grupo es reemplazado por una deformación a un grupo cuántico. De hecho hasta desarrollaron un atractivo método grafico para hacerlo. Lo que es más, pudieron probar que da amplitudes finitas. Así, la introducción del grupo cuántico hace la tarea esperada de un regulador.
Acerca de los detalles técnicos solo diré que son fuertemente complicados. Para apreciar la complejidad de este trabajo, deberías saber que el grupo SL(2,C) involucrado es lo que se conoce como no-compacto, lo que complica las deformaciones cuánticas (intuitivamente, los conjuntos compactos tienen menos chances de producir infinitos que los no-compactos). Más aun, el vértice EPRL depende de una sutil relación de SU(2) y SL(2,C). Esta relación debe entenderse a un nivel muy abstracto para poder traducirla a grupos cuánticos. El tipo de deformación relevante en este caso es una de parámetro q real. En este caso aun hay infinitas representaciones matemáticas pero parece que en la versión cuántica la sutil relación de SU(2) y SL(2,C) mantiene las sumas finitas.

Gracias a este trabajo, tenemos ahora una pregunta muy interesante entre manos: esta la deformación cuántica de EPRL relacionada a la gravedad con constante cosmológica, como ocurría en tres dimensiones? Mucha gente apuesta a que este es el caso, y los cálculos para probarlo ya han comenzado, por ejemplo, en una pre publicación reciente de Ding y Han. Esto también abre la pregunta de hasta qué punto esta entrelazada la gravedad cuántica con los grupos cuánticos. Hubo algunas discusiones muy interesantes acerca de esto durante y después de la plática. Al presente la conexión es aun misteriosa a nivel fundamental.

Sunday, April 17, 2011

Signos observables de la cosmología cuántica de ciclos?

por Edward Wilson-Ewing, Penn State

• Ivan Agulló, March 29th 2011. Observational signatures of loop quantum cosmology? PDF of the slides, and audio in either .wav (40MB) or .aif format (4MB).


En el universo muy temprano la temperatura era tan alta que los electrones y protones no se combinan para formar átomos de hidrógeno, sino que forman un plasma que hace imposible que los fotones viajen grandes distancias, dado que los mismos interactúan continuamente  con los electrones y protones. Sin embargo, como el universo se expandió, se enfrió y, 380 000 años después del Big Bang, la temperatura se hizo lo suficientemente baja como para que se formen los átomos de hidrógeno en un proceso llamado recombinación. En ese momento, se hizo posible para los fotones el viajar libremente, dado que los electrones y protones se combinan para convertirse en átomos eléctricamente neutros. Es posible hoy en día  observar los fotones de esa época que aún están viajando a través del universo: estos fotones forman lo que se denomina el fondo de microondas cósmico (CMB en ingles). Al observar el CMB, de hecho estamos viendo una fotografía de lo que el universo parecía sólo 380 000 años después del Big Bang! Huelga decir que la detección del CMB fue un descubrimiento muy importante y el estudio del mismo nos ha enseñado mucho acerca de los inicios del Universo.


La existencia de la CMB fue predicha por primera vez en 1948 por George Gamow, Ralph Adler y Robert Herman, cuando calcularon que su temperatura es de aproximadamente 5 grados Kelvin. A pesar de esta predicción, el CMB no se detectó hasta que Arno Penzias y Robert Wilson hicieron su descubrimiento, ganador del Premio Nobel en 1964. Desde entonces, han habido muchos esfuerzos para crear mejores telescopios de radio, tanto en la Tierra y en satélites, que proporcionen datos más precisos y por lo tanto más información acerca de los inicios del universo. En la década de 1990 las mediciones del satélite COBE (Cosmic Background Explorer en ingles) de las pequeñas anisotropías en el CMB se consideraron tan importantes que dos de los principales investigadores del COBE, George Smoot y John Mather, recibieron el Premio Nobel en 2006. Los datos del estado del arte de hoy provienen de la satélite WMAP (Wilkinson Microwave Anisotropy Probe) y ya hay otro satélite que ha estado tomando datos desde 2009. Este satélite, llamado Planck, tiene una mayor sensibilidad y mejor resolución angular que WMAP, y su mapa de la mejora de la CMB se espera que se hayan completado a finales de 2012. 


El CMB es un cuerpo negro casi perfecto y su temperatura se ha medido a 2,7 grados Kelvin. Como se puede ver en la siguiente figura, la curva de cuerpo negro del CMB es perfecta: todos los puntos de los datos se encuentran exactamente superpuestos con la curva de mejor ajuste. Es posible medir la temperatura del CMB  y se ha encontrado que es el mismo en todas las direcciones del cielo (lo que se llama isotrópica) hasta una parte en 100000.




A pesar de que las anisotropías son muy pequeñas,  han sido medidas con bastante precisión por el satélite WMAP, y se puede estudiar cómo las variaciones en la temperatura se correlacionan de acuerdo a  su separación angular en el cielo. Esto le da un espectro de ley de potencia para el CMB, donde una vez más la teoría y los experimentos acuerdan muy bien:





Con el fin de obtener una predicción teórica sobre lo que el aspecto del espectro de potencia, es importante entender cómo el universo se comportó antes de que se produjera la recombinación. Aquí es donde la inflación, una parte importante del modelo cosmológico estándar, entra en juego.  La época inflacionaria se produce poco después de que el universo deja el régimen de Planck (donde los efectos de la gravedad cuántica pueden ser importantes), y durante este período aumenta el universo de volumen por un factor de e ^ aproximadamente (210) en el muy corto tiempo de unos 10 ^ (-33) segundos (para obtener más información acerca de la inflación, ver el articulo anterior de este blog). La inflación fue sugerida por primera vez como un mecanismo que podría explicar por qué (entre otras cosas) el CMB es tan isotrópico: uno de los efectos de la rápida expansión del universo durante la inflación es que todo el universo visible hoy en día ocupa un pequeño volumen antes del comienzo de la inflación y ha tenido tiempo para entrar en contacto causal y termalizar. Este termalización pre-inflación puede explicar por qué, cuando miramos al universo actual, la temperatura del fondo cósmico de microondas es la misma en todas las direcciones. Pero esto no es todo: con la inflación, también es posible predecir la forma del espectro de potencia. Esto se hizo mucho antes de que se midiera con suficiente precisión con WMAP y, como se puede ver en el gráfico anterior, las observaciones coinciden con la predicción muy bien! Así, a pesar de que la inflación se introdujo para explicar por qué la temperatura del CMB es tan isotrópica, también explica el espectro de potencia. Es sobre todo este segundo éxito lo que ha asegurado que la inflación sea parte del actual modelo cosmológico estándar.

Sin embargo, quedan algunas cuestiones que no se han resuelto con la inflación. 
Por ejemplo, al comienzo de la inflación, se supone que los campos cuánticos están en un estado particular llamado el vacío Bunch-Davies. Es entonces posible evolucionar este estado inicial con el fin de determinar el estado de los campos cuánticos al final de la inflación y por lo tanto, determinar cuál es el espectro de potencia en esa época. A pesar de que el espectro de potencia predicho está de acuerdo muy bien con el observado, no está del todo claro por qué los campos cuánticos deben estar en el vacío Bunch-Davies en el inicio de la inflación. Para explicar esto, debemos tratar de entender lo que sucedió antes de la inflación y esto requiere una teoría de la gravedad cuántica.

La cosmología cuántica de ciclos (loop quantum cosmology en ingles) es una teoría particular de la gravedad cuántica que se aplica al estudio de nuestro universo. Han habido muchos resultados interesantes en el campo durante los últimos años: (i) se ha demostrado en muchos modelos que la singularidad inicial del Big Bang es sustituido por un "rebote", donde el universo se contrae a un volumen mínimo y luego empieza a 
expandirse de nuevo, (ii) también se ha demostrado que los efectos de la gravedad cuántica sólo son importantes cuando la curvatura del espacio-tiempo alcanza el régimen de Planck, por lo tanto la relatividad general clásica es una excelente aproximación cuando la curvatura es menor que la escala de Planck, (iii) la dinámica del universo alrededor del punto de rebote es tal que la inflación se produce naturalmente una vez que la curvatura del espacio-tiempo deja el régimen de Planck.

El objetivo del proyecto presentado en el seminario es el uso de la cosmología cuántica de bucles con el fin de determinar si los campos cuánticos deben estar en el vacío Bunch-Davies al  inicio de la inflación. 
Más concretamente, la idea es elegir cuidadosamente las condiciones iniciales en el punto de rebote del universo (en lugar de al principio de la inflación) y luego estudiar cómo el estado de los campos evoluciona a medida que el universo se expande con el fin de determinar su estado en el comienzo de la inflación. Ahora cabe preguntarse: ¿Esto cambiará el estado de los campos cuánticos en el inicio de la inflación? Y si es así, ¿existen consecuencias observables? Estas son las cuestiones tratadas en esta presentación.