Thursday, November 1, 2012

Relatividad general en el espacio de observadores.


Tuesday, Oct 2nd.
Derek Wise, FAU Erlangen
Title: Lifting General Relativity to Observer Space
PDF of the talk (700k) Audio [.wav 34MB], Audio [.aif 3MB].

por Jeffrey Morton, Universidad de Hamburgo

Una versión más técnica y precisa de este artículo aparece en el blog de Jeff en inglés.


Esta plática está basada en un proyecto de Steffen Gielen y Derek Wise, que esta descripto en varios trabajos publicadoes (dos mas cortos "Spontaneously broken Lorentz symmetry for Hamiltonian gravity", "Linking Covariant and Canonical General Relativity via Local Observers", y uno reciente mas largo llamado "Lifting General Relativity to Observer Space").




La idea central detrás de este proyecto es la noción de “espacio de observadores”: un espacio constituido por todos los observadores de un universo dado. Esto se visualiza más fácilmente partiendo de un espacio-tiempo. Matemáticamente, es una variedad M con una métrica Lorentziana g, que entre otras cosas determina qué direcciones son “tipo-tiempo” en un punto dado. Un observador puede ser especificado eligiendo dos cosas. En primer lugar un punto (x0,x1,x2,x3)=x, asociado a un “evento” en el espacio-tiempo. En segundo lugar, una dirección tipo tiempo orientada hacia el futuro que es tangente a la trayectoria de un observador “físico” que pasa por el evento x. El espacio de observadores consiste de todas estas elecciones: lo que se conoce como el “haz tangente unitario a futuro de M”. Sin embargo, usando la nocion de una “geometría de Cartan”, uno puede dar una definición general de espacio de observadores que tiene sentido aun cuando no hay una variedad espacio-temporal subyacente.

 El resultado es una sorprendente nueva intuición que dice que el “espacio-tiempo” es una noción local y dependiente de observador, que en algunos casos especiales se puede extender de modo tal que todos los observadores vean el mismo espacio-tiempo. Esto aparece relacionado a la idea de relatividad de localidad. Más directamente, es geométricamente similar al hecho de que rebanar un espacio-tiempo en fetas de espacio que evolucionan en el tiempo no es un procedimiento único, y no es respetado por las simetrías completas de la teoría de la relatividad. Más bien, la división entre espacio y tiempo depende del observador.

¿Cómo se describe todo esto matemáticamente? En particular, ¿qué se quiso decir antes cuando se dijo que el espacio-tiempo en si mismo se vuelve dependiente de observador? L a respuesta usa la geometría de Cartan.

Geometría de Cartan 

En líneas generales, la geometría de Cartan es a la geometría de Klein lo que la geometría de Riemann es a la geometría Euclídea.

El programa de Erlangen de Klein, llevado a cabo a mediados del siglo 19, trajo sistemáticamente al algebra abstracta, y específicamente a la teoría de grupos de Lie, a la geometría, colocando la idea de simetría en un rol pivotal. Describe “espacios homogéneos” X, que son geometrías en las que cada punto es indistinguible de los otros. Esto se expresa a través de la acción de un grupo de Lie G, que consiste en todas las transformaciones de un espacio subyacente que preservan su estructura geométrica. Para un espacio Euclídeo n dimensional En, el grupo de simetrías es precisamente el que deja invariante la geometría Euclídea, es decir los ángulos y las longitudes. Este es el grupo Euclídeo, y es generado pro las rotaciones y las translaciones. Pero todo punto x será mantenido fijo por algunas simetrías y no otras, así que existe un subgrupo H, el “subgrupo estabilizador”, que consiste de todas las simetrías que dejan a x fijo.

El par (G,H) es todo lo que necesitamos para especificar un espacio homogéneo o geometría de Klein. Así, un punto será mantenido fijo por el grupo de rotaciones centradas en dicho punto. La observación de Klein es dar vuelta esto: podemos definir lo Euclídeo a partir del grupo G, esencialmente "ignorando" (lo que técnicamente se denomina "modding out" en inglés) el subgrupo H de transformaciones que dejan un punto fijo.  Resulta en todas las traslaciones que determinan los posibles puntos y a los que un punto x puede ser llevado y no más. El programa de Klein nos deja hace esto en general, dado cualquier par (G,H). La ventaja de este programa es que lleva a un número muy grande de ejemplos de geometrías (incluyendo algunas previamente no conocidas) en forma unificada. Pero las más relevantes por ahora son:
  • Espacio Euclídeo n-dimensional, como describimos.
  • Espacio de Minkowski n-dimensional. El grupo Euclídeo es reemplazado por el grupo de Poincaré, lo que incluye las traslaciones y rotaciones, pero también los “boosts” de la relatividad especial. Este es el grupo de todas las transformaciones que mantienen fija la geometría determinada por la métrica de Minkowski del espacio-tiempo plano.
  •  Espacio de de Sitter y de anti-de Sitter, los que son relevantes para estudiar la relatividad general con una constante cosmológica.
Así como una geometría Lorentziana o Riemanniana es “localmente modelada” por un espacio de Minkowski o Euclídeo respectivamente, una geometría de Cartan es modelada localmente por una geometría de Klein. Medidas hechas cerca de un punto de la geometría de Cartan parecen ser las de una geometría de Klein.

Dado que la curvatura se mide observando el desarrollo de curvas, podemos pensar cada espacio homogéneo como una geometría de Cartan plana con si mismo como modelo local, así como el espacio de Minkowski de la relatividad especial es una solución particular de la relatividad general.

 La idea de que la curvatura de una variedad depende de la geometría modelo que se usa para medirla aparece en la manera en la que usamos dicha variedad en física.

Gravedad y la geometría de Cartan 

La teoría de la gravedad de MacDowell-Mansouri puede entenderse como una teoría en la cual la relatividad general es modelada como una geometría de Cartan. Por supuesto, la manera usual de presentar la relatividad general es en términos de una geometría de una variedad Lorentziana. El formalismo de Palatini describe a la relatividad general en lugar de a través de una métrica, a través de un conjunto de vectores gobernados por las ecuaciones de Palatini. Esto puede deducirse de una geometría de Cartan a través de la teoría de MacDowell-Mansouri, que “rompe la simetría completa” de la geometría en cada punto, generando los campos vectoriales que aparecen en el formalismo de Palatini. Así, la relatividad general puede ser escrita como la teoría de una geometría de Cartan modelada en el espacio de de Sitter.

El espacio de observadores 

La idea de definir un espacio de observadores es combinar dos reducciones de simetría en una. Uno tiene una geometría modelo de Klein, que refleja la “ruptura de simetría” que aparece cuando se elige un punto particular en el espacio-tiempo (también llamado evento). Las direcciones temporales son vectores tangentes a la línea de mundo (la trayectoria en el espacio-tiempo) de un observador “físico” en el evento elegido. Así que la geometría de Klein es el espacio de todos tales posibles observadores en un evento dado. El subgrupo estabilizador de un punto en este espacio consiste de simplemente las rotaciones del espacio-tiempo alrededor del observador dado, los “boosts” en la transformación de Lorentzt que relacionan diferentes observadores. Localmente, el elegir un observador es equivalente a dividir el espacio-tiempo en un producto de un espacio y un tiempo. Si combinamos las dos reducciones al mismo tiempo, obtenemos una geometría de Klein siete dimensional que esta relacionada al espacio de de Sitter, al que podemos pensar como un modelo homogéneo de “espacio de observadores”.

Esto puede ser intuitivamente sorprendente: da un modelo geométrico perfectamente concreto en el que el “espacio-tiempo” es relativo y dependiente de observador, y posiblemente solo significativo localmente, en el mismo sentido que la distinción de “espacio” y “tiempo” lo es en relatividad general. Esto es, puede ser imposible determinar objetivamente si dos observadores están basados en el mismo evento o no. Esto es un tipo de “relatividad de la localidad”, que es geométricamente bastantes similar a la ahora familiar relatividad de la simultaneidad. Cada observador llegara a ciertas conclusiones acerca de que observadores comparten el mismo evento base, pero distintos observadores pueden no estar de acuerdo. Los observadores coincidentes de acuerdo a un observador dado son esos alcanzados por una buena clase de geodésicas en el espacio de observadores que se mueven en direcciones que el observador ve como “boosts”.

Dada una cierta condición de integrabilidad uno puede reconstruir un espacio-tiempo del espacio de observadores: dos observadores estarán de acuerdo acerca de si están o no en el mismo evento. Este es el familiar mundo de la relatividad, donde la simultaneidad puede ser relativa, pero la localidad absoluta.

Levantando la gravedad al espacio de observadores 

Además de describir este modelo de espacio-tiempo relativo, una motivación adicional para describir el espacio de observadores es que uno puede formular la relatividad general canónica (hamiltoniana) localmente cerca de cada punto en un espacio de observadores. El objetivo es tender un puente entre las cuantizaciones canónicas y covariantes de la gravedad. La cuantización covariante trata la geometría del espacio-tiempo como un conjunto, a través de lo que se conoce como un lagrangiano. Esto es matemáticamente atractivo, dado que respeta las simetrías de la relatividad general, es decir, su invariancia bajo difeomorfismos (o, hablando más físicamente, que sus ecuaciones toman la misma forma para todos los observadores). Por otro lado, esta alejada del enfoque canónico (hamiltoniano) a la cuantización de sistemas físicos, en el que el concepto de tiempo es fundamental. En el enfoque canónico, uno cuantiza el espacio de estados de un sistema en un instante dado del tiempo, y el hamiltoniano de la teoría describe su evolución. Esto es problemático para la invariancia bajo difeomorfismos (o aun la invariancia Lorentz) dado que la coordenada temporal depende de una elección de observadores. El punto del espacio de observadores es que podemos considerar dichas elecciones todas simultáneamente. El describir la relatividad en el espacio de observadores es tanto covariante como basado en elecciones (locales) de dirección temporal. Así un “campo de observadores” es una elección, en cada evento de base M, de un observador basado en dicho evento. Un campo de observadores puede o no corresponder a una descomposición particular de un espacio-tiempo en un espacio que evoluciona en el tiempo, pero localmente, en cada punto del espacio de observadores, siempre parecerá ser uno. La teoría resultante describe la dinámica de la geometría espacial en el tiempo, como es vista por un observador dado, en términos de una geometría de Cartan.

Esta división, en las mismas líneas que la presente en la gravedad de MacDowell-Mansouri que describimos antes, sugiere que uno puede levantar a la relatividad general a una teoría en el espacio de observadores. Esto corresponde a describir campos en el espacio de observadores y una teoría para laos mismos, tal que la descomposición de los campos devuelve los campos usuales de la relatividad general en un espacio-tiempo, y las ecuaciones dan las ecuaciones usuales. Esta parte del proyecto aun esta en desarrollo, pero existe una forma de levantar las ecuaciones de Einstein al espacio de observadores. Esto nos dice que la relatividad general puede ser definida puramente en términos del espacio de todos los posibles observadores, y cuando hay un espacio-tiempo objetivo, la teoría resultante se ve idéntica a la relatividad general. En el caso en el que no hay un espacio-tiempo “objetivo”, el resultado incluye sorprendentes campos nuevos. Si esto es bueno o malo no es claro aún.

Thursday, October 18, 2012

Más sobre la Dinamica de las Formas

Tim Koslowski, Perimeter Institute
Title: Effective Field Theories for Quantum Gravity form Shape Dynamics
PDF of the talk (0.5Mb) Audio [.wav 31MB], Audio [.aif 3MB].




.

Por Astrid Eichhorn, Perimeter Institute
La gravedad y la mecánica cuántica se han resistido a ser unificadas en una teoría común por varias décadas. Sabemos bastante acerca del comportamiento clásico de la gravedad, en la forma de la teoría de la Relatividad General de Einstein, que es una teoría de campos. En el último siglo, hemos aprendido a cuantizar otras teorías de campo, como las teorías de calibre del Modelo Estándar de la Física de Partículas. La diferencia crucial entre una teoría clásica y una cuántica reside en el efecto de las fluctuaciones cuánticas. Debido al principio de incerteza de Heisenberg, los campos cuánticos pueden fluctuar, y esto cambia la dinámica efectiva del campo. En una teoría de campos clásica, las ecuaciones de movimiento pueden deducirse minimizando una función , conocida como la acción clásica. En una teoría cuántica de campo, las ecuaciones cuánticas para el valor promedio del campo cuántico no pueden deducirse de la acción clásica. En lugar de ello, se siguen de algo conocido como la acción efectiva, que contiene los efectos de todas las fluctuaciones cuánticas. Para incorporar el efecto de las mismas, desde un punto de vista matemático, existe un procedimiento conocido como la integral de camino. El mismo es bastante complejo, aun si uno hace teoría de perturbaciones (donde uno supone que las soluciones difieren poco de una solución conocida). Un camino para hacer esta tarea más asequible es el llamado Grupo de Renormalización (funcional): No todas las fluctuaciones cuánticas son consideradas al mismo tiempo, sino sólo aquellas con una cantidad de movimiento específica, usualmente empezando por valores grandes. Gráficamente, esto quiere decir que “promediamos” los campos cuánticos sobre distancias cortas (inversamente proporcionales a la cantidad de movimiento). El efecto de las fluctuaciones de gran cantidad de movimiento es por ende cambiar los valores de las constantes de acoplamiento de la teoría. Las mismas no son más constantes, pero dependen de la escala de cantidad de movimiento a considerar, así que es más correcto referirse a ellas como constantes de acoplamiento deslizantes. Como ejemplo, considérese la electrodinámica cuántica: Sabemos que las ecuaciones de movimiento clásicas son lineales, así que no hay interacción entre fotones. Tan pronto como vamos a la teoría cuántica, esto cambia. Las fluctuaciones cuánticas del electrón a cantidades de movimiento grandes inducen una interacción fotón-fotón (con un acoplamiento muy débil así que el efecto es difícil de ver)

Figura 1: Fluctuaciones del electrón introducen un acoplamiento no nulo fotón-fotón en la Electrodinámica Cuántica.

La pregunta de si una teoría puede ser cuantizada, es decir si la integral de camino se puede calcular, encuentra entonces una respuesta en el comportamiento de las constantes deslizantes: Si el efecto de las fluctuaciones cuánticas a gran cantidad de movimiento es hacer los acoplamientos divergentes a algún valor finito de la cantidad de movimiento, la teoría es sólo efectiva a bajas energías, pero no una teoría fundamental. Desde un punto de vista técnico esto implica que cuando uno calcula integrales que toman en cuenta el efecto de las fluctuaciones cuánticas, uno no puede extenderlas a cantidades de movimiento arbitrarias sino que tienen que ser interrumpidas a cierta escala.
La interpretación física de tal divergencia es que la teoría nos esta diciendo que realmente estamos usando grados de libertad efectivos, no fundamentales. Como ejemplo, si construimos una teoría de la interacción débil entre fermiones sin los bosones W y Z, el acoplamiento entre los fermiones diverge a una escala que está relacionada con la masa de los nuevos bosones. De este modo la teoría nos informa que nuevos grados de libertad, los bosones W y Z, deben ser incluidos a esa escala de cantidad de movimiento. Un ejemplo de una teoría que sabemos es verdaderamente fundamental, es decir que sus grados de libertad son validos a escalas arbitrariamente altas de cantidad de movimiento, es la Cromodinámica Cuántica (QCD por quantum chromodynamics, su nombre en ingles). Su característica esencial es un punto fijo Gausiano (uno que corresponde a una teoría libre, no interactuante), que no es más que la afirmación de que la constante de acoplamiento deslizante se debilita a grandes cantidades de movimiento, lo que se conoce como libertad asintótica (dado que a grandes cantidades de movimiento la teoría se vuelve no interactuante, es decir, libre).
No hay nada malo con una teoría que no es fundamental en el sentido de arriba, simplemente significa que es una teoría efectiva, que sólo se puede usar en un rango finito de cantidad de movimiento. Este concepto es bien conocido en física y se usa exitosamente. Por ejemplo en sistemas de materia condensada los grados de libertad efectivos son, por ejemplo, los fonones, que son excitaciones colectivas de un retículo de átomos y que obviamente dejan de ser una descripción valida del sistema a distancias más cortas que la escala atómica. La gravedad cuántica existe como teoría efectiva, y se pueden calcular sus efectos tratando a la métrica del espacio-tiempo como cualquier otro campo. Sin embargo, como teoría efectiva, sólo describe la física en un cierto rango de escalas y presumiblemente dejara de ser valida a una escala conocida como escala de Planck (10^-33 centímetros). Esto implica que no entendemos los grados de libertad microscópicos de la gravedad. ¿Cuales son los grados de libertad fundamentales que describen a la gravedad a escalas más allá de la de Planck, cuál es su dinámica y cuales son las simetrías que los gobiernan?
La cuestión, si es que podemos arribar a una teoría fundamental de la gravedad dentro del marco de las teorías de campos usuales, se reduce a entender el comportamiento de las constantes de acoplamiento deslizantes de la teoría. En teoría de perturbaciones la respuesta se conoce hace tiempo: (en cuatro dimensiones espacio-temporales) en lugar de debilitarse a grandes cantidades de movimiento, la constante de Newton aumenta de valor. Más formalmente, esto quiere decir que el punto fijo (conocido técnicamente como punto fijo Gaussiano) no es atractivo ultravioleta. Debido a esto la mayor parte de los investigadores en gravedad cuántica abandono la idea de tratar de cuantizar la gravedad siguiendo las mismas líneas que las teorías de calibre del Modelo Estándar de las Partículas Elementales. Concluyeron que la métrica no contiene los grados de libertad microscópicos de una teoría continua de la gravedad cuántica, sino que es una teoría efectiva valida a bajas energías. Sin embargo, el hecho de que el punto fijo gaussiano no es atractivo ultravioleta realmente sólo quiere decir que la teoría de perturbaciones deja de funcionar. Mas allá de la teoría de perturbaciones existe la posibilidad de de obtener una teoría fundamental de la gravedad cuántica. La arena en la cual podemos entender esta posibilidad es el espacio de teorías. Este es un espacio (infinito dimensional), que esta cubierto por todas las constantes deslizantes que son compatibles con las simetrías de la teoría. Así, en el caso de la gravedad, el espacio de teorías incluye la constante de Newton, la constante cosmológica, posibles acoplamientos de términos cuadráticos en la curvatura, etc. A una cierta escala de cantidad de movimiento, todos estos acoplamientos tienen algún valor, especificado por un punto en el espacio de teorías. El cambiar la escala de momento, e incluir los efectos de las fluctuaciones cuánticas en estas escalas, implica un cambio en el valor de estos acoplamientos. Así, cuando cambiamos continuamente la escala de cantidad de movimiento, fluimos a través del espacio de teorías a lo largo de lo que se llama una trayectoria del grupo de renormalización. Para que los acoplamientos se mantengan finitos a toda escala de cantidad de movimiento, la trayectoria debe acercarse a un punto fijo a valores grandes de la cantidad de movimiento (posibilidades mas exóticas, como ciclos limites o trayectorias infinitamente extensibles podrían existir también). En un punto fijo, los valores de los acoplamientos no cambian cuando uno incluye más fluctuaciones cuánticas. En ese caso podemos tomar el límite de gran cantidad de movimiento trivialmente, dado que nada cambia si vamos a escalas más altas, es decir, la teoría es invariante de escala. La interpretación física de este proceso es que la teoría no se rompe a ninguna escala finita: los grados de libertad que hemos elegido para parametrizar el sistema físico son validos a escalas arbitrariamente altas. Un ejemplo esta dado por la QCD, que como mencionamos es asintóticamente libre. La interpretación en ese caso es que los quarks y los gluones son grados de libertad microscópicos validos. No existe una escala de cantidad de movimiento a la cual esperar nuevas partículas o una posible subestructura de los quarks y los gluones.
En el caso de la gravedad, para cuantizar necesitamos un punto fijo no-gaussiano. En tal punto, donde los acoplamientos son no nulos, la trayectoria en el grupo de renormalización se detiene y podemos tomar el límite de cantidad de movimiento arbitrariamente grande. Esta idea se remonta a Weinberg y es conocida como asymptotic safety (seguridad asintótica) en inglés. Asintóticamente, a grandes cantidades de movimiento, estamos “a salvo” de divergencias en los acoplamientos, dado que los mismos se acercan a un punto fijo, en el que toman un valor finito. Dado que acoplamientos finitos implican observables finitos (cuando las constantes se definen apropiadamente), una teoría asintóticamente segura da resultados finitos a todas las preguntas físicas. En esta construcción, el punto fijo define la teoría microscópica, es decir, la interacción de los grados de libertad microscópicos. Como comentario al margen, si al estar confrontado con un espacio infinito dimensional de acoplamientos, te preocupa como puede ser tal teoría predictiva, nótese que los puntos críticos vienen equipados con lo que se conoce como una superficie critica: solamente si el flujo del grupo de renormalización yace sobre la superficie critica de un punto fijo se aproximará al punto fijo a grandes cantidades de movimiento. La presencia de una superficie critica finito dimensional implica que la teoría sólo tendrá un numero finito de parámetros, los que definen la superficie critica. A cantidades de movimiento bajas, el valor de estos acoplamientos, que es accesible experimentalmente, no esta fijado por la teoría. Cualquier valor sirve, dado que todos ellos cubren la superficie critica. Por otro lado infinitos acoplamientos serán fijados por el requerimiento de estar en la superficie crítica. Esto automáticamente implica que obtendremos infinitas predicciones de la teoría (de hecho el valor de estos “acoplamientos irrelevantes”, como se los suele llamar), que podemos (en principio) verificar en experimentos.

Figura 2: Un punto fijo no gaussiano tiene una superficie crítica, cuya dimensionalidad corresponde al número de parámetros libres de la teoría.

Dos ingredientes absolutamente cruciales en la búsqueda de una teoría asintóticamente libre de la gravedad cuántica son la especificación del contenido de campos y las simetrías de la teoría. Estas determinan que constantes deslizantes son parte del espacio de teorías. Son los acoplamientos de todos los posibles operadores que se pueden construir a partir de los campos fundamentales respetando la simetría a ser incluida. Imponer cualquier simetría extra en el espacio de teorías significa que algunos de los acoplamientos desaparecerán. Más importante, la (no)existencia de un punto fijo dependerá de la elección de simetrías. Un ejemplo bien conocido es el de una simetría U(1) (presente en el electromagnetismo) versus la simetría SU(3) (presente en la cromodinámica cuántica). La última tiene libertad asintótica mientras que la primera no. Así, las simetrías de un sistema determinan crucialmente su comportamiento microscópico. En gravedad, existen varias versiones equivalentes de la teoría clásica (es decir admiten las mismas soluciones a las ecuaciones de movimiento). Una lista parcial contiene la gravedad usual de Einstein con la métrica como campo fundamental, la gravedad de Einstein-Cartan, donde la métrica es reemplazada por una tétrada de vectores, y la versión unimodular de la gravedad métrica (la discutiremos enseguida). El primer paso en la construcción de una teoría cuántica de campos de la gravedad consiste en la elección del espacio de teorías. Importantemente, esta elección existe tanto en el formalismo de integral de camino como en el Hamiltoniano. Así que en ambos casos existe un número de formulaciones clásicamente equivalentes de la teoría, que difieren a nivel cuántico, y en particular sólo algunas de ellas es posible que existan como una teoría fundamental.
Para ilustrar que esta elección de espacio de teorías es realmente una elección física, consideremos el caso de la gravedad cuántica unimodular. En ella el determinante de la métrica esta restringido a ser constante. Esto implica que el espectro de fluctuaciones cuánticas difiere crucialmente de la versión no unimodular de la gravedad cuántica, y, más importante, la diferencia es de contenido físico, no de forma. Como consecuencia, la evaluación de diagramas de Feynman de la teoría de perturbaciones en ambos casos dará resultados distintos. En otras palabras, las constantes de acoplamiento deslizantes en los dos espacios de teorías tendrán comportamiento distinto, reflejado en la existencia de puntos fijos como de exponentes críticos, que determinaran los parámetros libres de la teoría.
Es aquí donde el nuevo campo de la dinámica de la forma (shape dynamics en ingles) abre nuevas posibilidades. Como explicamos, teorías que tienen la misma dinámica clásica pueden tener simetrías distintas. En particular esto es cierto para teorías de calibre, donde la simetría no es nada mas que una redundancia en la descripción. Como consecuencia de ello sólo un espacio de configuraciones reducido (el espacio de todas las configuraciones posibles de los campos) es físico, y en ciertas direcciones, el espacio de configuración contiene configuraciones redundantes. Un ejemplo simple está dado por la electrodinámica (cuántica), donde el modo longitudinal de vibración del fotón es no-físico (en el vacío), dado que la simetría de calibre restringe al fotón a tener sólo dos polarizaciones físicas (transversales).
Uno puede imaginar como dos teorías diferentes con distintas simetrías de calibre dan la misma física. Los espacios de configuración pueden de hecho ser diferentes, pero son los valores de los observables físicos en el espacio de configuración reducido los que deben coincidir. Esto marca una diferencia crucial en la teoría cuántica, dado que implica espacios de teorías distintos, definidos por simetrías distintas, y correspondientemente comportamientos diferentes de los acoplamientos deslizantes.
La dinámica de las formas cambia parte de las simetrías espaciotemporales cuadridimensionales de la relatividad general (la llamada invariancia de re-foliación, es decir invariancia bajo distintas elecciones de las rebanadas espaciales del espacio-tiempo que llamamos “espacio”) por lo que se conoce como invariancia conforme local, lo que implica invariancia local de escala del espacio. Esto implica una diferencia crucial en la forma en que el espacio-tiempo es presentado en las dos teorías. Mientras el espacio-tiempo es una entidad unificada en la relatividad general, en la dinámica de formas uno lo construye “apilando” rebanadas espaciales (para mas detalles lea el articulo en este blog de Julian Barbour). Eligiendo un calibre particular en las dos teorías da teorías equivalentes.
Aunque las dos teorías son equivalentes a nivel clásico para cuestiones observacionales, sus versiones cuánticas diferirán. En particular, quizá sólo una de ellas admita una compleción ultravioleta como teoría cuántica de campos con un punto fijo no gaussiano.
Una segunda posibilidad es que los dos espacios de teorías admitan un punto fijo no gaussiano, pero lo que se conoce como la clase de universalidad difiera. Hablando en líneas generales, la clase de universalidad esta determinada por la velocidad de aproximación al punto fijo, lo que es capturado por los llamados exponentes críticos. Lo que es más importante, mientras los detalles de las trayectorias del grupo de renormalización dependen típicamente de los detalles del esquema de regularización (esto especifica como se integran exactamente las fluctuaciones cuánticas), los exponentes críticos son universales. La colección completa de exponentes críticos de un punto fijo determina entonces la clase de universalidad. Las clases de universalidad están determinadas por las simetrías, lo que se conoce bien de las transiciones de fase de segundo orden en termodinámica. Dado que la longitud de correlación en la vecindad de una transición de fase de segundo orden diverge, los detalles microscópicos de sistemas físicos diferentes no importan. El comportamiento de observables físicos en la vecindad de una transición de fase esta determinado completamente por el contenido de los campos, la dimensionalidad y las simetrías de un sistema.
Diferentes clases de universalidad pueden diferir en el número de acoplamientos relevantes y por ende corresponder a teorías con distinto “grado de predictividad”. Así, teorías equivalentes clásicamente, cuando se las cuantiza, pueden tener un número distinto de parámetros libres. Como consecuencia, no todas las clases de universalidad serán compatibles con observaciones experimentales, y la elección del espacio de teorías para la gravedad es por ende crucial para identificar que clase de universalidad puede “realizarse en la naturaleza”.
Claramente, la cuantización canónica de la relatividad general usualmente formulada, diferirá de la dinámica de las formas, dado que esta última tiene un Hamiltoniano no-local.
Finalmente, lo que se conoce como doble relatividad general es el último paso en la construcción. Comenzando con las simetrías de la dinámica de las formas, uno puede encontrar una simetría BRST oculta en la relatividad general. Las simetrías BRST son simetrías que existen en las teorías de calibre cuando se formulan con integrales de camino. Para hacer teoría de perturbaciones uno necesita fijar el calibre, lo que da una integral de camino que no es invariante de calibre. Los remanentes de la invariancia de calibre forman la invariancia BRST, la cual puede entenderse como una versión cuántica de la invariancia de calibre.
En el caso de la gravedad, la invariancia BRST conectada a la invariancia de calibre bajo difeomorfismos esta suplementada por la invariancia BRST conectada a la invariancia conforme local. Esto es lo que se conoce como duplicación de simetría. Dado que las simetrías de calibre restringen los flujos en el grupo de renormalización en el espacio de teorías, el descubrimiento de una nueva simetría BRST en la relatividad general es crucial para entender por completo la posible existencia de un punto fijo y su clase de universalidad. Por ello la recientemente descubierta nueva invariancia BRST puede ser un ingrediente crucial para construir una teoría cuántica de la gravedad.
















Monday, March 26, 2012

Modelos Bianchi en cosmología cuántica de lazos

por Edward Wilson-Ewing, Marseille.


Parampreet Singh, LSU
Title: Physics of Bianchi models in LQC
PDF of the talk (500KB)
Audio [.wav 40MB], Audio [.aif 4MB].

La palabra singularidad, en física, se usa frecuentemente para denotar una predicción de que una cantidad observable  se torna singular o infinita. Uno de los ejemplos más famosos en la historia de la física aparece en la distribución de Rayleigh-Jeans que intenta de explicar la radiación térmica de un cuerpo negro en la teoría electromagnética clásica. Mientras que la distribución de Rayleigh-Jeans describe muy bien la radiación de cuerpo negro de longitud de onda larga, no lo hace para longitudes de onda cortas. De hecho, la distribución de Rayleigh-Jeans se vuelve singular a longitudes de onda cortas dado que predice que debería haber una cantidad de energía infinita radiada en esa porción del espectro: la singularidad –que no está de acuerdo con los experimentos- fue llamada la catástrofe ultravioleta.

Esta singularidad fue resuelta por Planck cuando descubrió lo que se conoce como la ley de Planck, la que ahora entendemos proviene de la física cuántica. En esencia, la discretitud de los niveles de energía del cuerpo negro asegura que el espectro de radiación de cuerpo negro permanezca finito para todas las longitudes de onda. Una de las lecciones a sacar de este ejemplo es que las singularidades no son físicas: en la ley de Rayleigh-Jeans, la predicción que debe haber una cantidad infinita de energía radiada a longitudes de onda cortas es incorrecta e indica que la teoría que llevó a la predicción no puede ser confiable para describir el fenómeno. En este caso es la teoría del electromagnetismo clásico la que falla al describir la radiación de cuerpo negro y es necesario usar mecánica cuántica para obtener el resultado correcto.


En la figura de abajo, vemos que para un cuerpo negro a una temperatura de 5000 grados Kelvin, la fórmula de Rayleigh-Jeans funciona muy bien para longitudes de onda mayores a 3000 nanómetros, pero falla para longitudes de onda más cortas. Para ellas hace falta usar la ley de Planck donde los efectos cuánticos han sido incluidos.


También existen singularidades en otras teorías. Algunos de los ejemplos más impactantes de singularidades en la física ocurren en la relatividad general donde la curvatura del espacio-tiempo, que representa la intensidad del campo gravitatorio, diverge y se vuelve infinita. Algunos de los ejemplos más conocidos son la singularidad de la gran explosión (big bang en ingles) y la singularidad que se encuentran dentro del horizonte de evento de los agujeros negros. Mientras que algunos han argumentado que la singularidad del big bang representa el origen del espacio y tiempo, aparece como más razonable que la singularidad indique que la teoría de la relatividad general no puede ser confiable cuando la curvatura se vuelve muy grande y que los efectos cuánticos no pueden ser ignorados: es necesario usar una teoría de la gravedad cuántica para estudiar el universo muy temprano (donde la relatividad general dice que ocurre el big bang) y el centro de los agujeros negros.


En cosmología cuántica de lazos (LQC por las siglas en ingles), modelos sencillos del universo temprano se estudian usando las técnicas de la gravedad cuántica de lazos. El modelo más simple (y por ende el primero en ser estudiado) es conocido como el modelo de Friedmann-Lemaitre-Robertson-Walker (FLRW) plano. Este espacio-tiempo es homogéneo (el universo se ve igual no importa donde estés), isótropo (el universo se expande al mismo ritmo en todas las direcciones), y espacialmente plano (las otras dos posibilidades son los modelos abiertos y cerrados que también han sido estudiados en LQC) y se considera que provee una buena aproximación a la dinámica de gran escala del universo en que vivimos. En LQC ha sido posible estudiar como efectos de la geometría cuántica se vuelve importante en el modelo FLRW cuando la curvatura del espacio-tiempo se vuelve tan grande que es comparable a uno dividido por la longitud de Planck al cuadrado. Un análisis cuidadoso muestra que los efectos de la geometría cuántica proveen una fuerza repulsiva que causa un “rebote” y asegura que la singularidad predicha por la relatividad general no ocurre en LQC. Haremos esto más preciso en los próximos párrafos.


Midiendo la tasa de expansión del universo hoy, es posible usar el modelo de FLRW para determinar el tamaño y la curvatura del espacio-tiempo del universo en el pasado. Por supuesto, estas predicciones dependerán de la teoría usada: la relatividad general y la LQC no darán siempre las mismas predicciones. La relatividad general predice que, cuando vamos hacia atrás ene l tiempo, el universo se vuelve cada vez más pequeño y la curvatura del espacio-tiempo se vuelve cada vez más grande. Esto continúa hasta que unos 13.750 millones de años atrás el universo tuvo volumen cero y una curvatura del espacio-tiempo infinita. Eso es lo que se llama el big bang.


En LQC el escenario no es el mismo. Mientras la curvatura del espacio-tiempo sea considerablemente menor a uno dividido por la longitud de Planck al cuadrado, predice lo mismo que la relatividad general. Así, cuando vamos para atrás en el tiempo, el universo se vuelve más chico y la curvatura mas grande. Sin embargo, hay diferencias importantes cuando la curvatura del espacio tiempo se acerca al valor crítico de uno dividido por la longitud de Planck al cuadrado: en este régimen hay modificaciones mayores a la evolución del universo provenientes de efectos de la geometría cuántica. En lugar de continuar contrayéndose como en relatividad general, el universo enlentece su contracción y luego comienza a agrandarse de nuevo. Esto es conocido como el rebote. Después del mismo, si continuamos hacia atrás en el tiempo el universo se vuelve cada vez más grande y la curvatura del espacio-tiempo más chica. La misma no diverge nunca, no hay una singularidad.


En la cosmología cuántica de lazos vemos que la singularidad del big bang en los modelos FLRW se evita debido a efectos cuánticos y esto es análogo a lo que pasaba en la teoría de radiación de cuerpo negro: la teoría clásica predice una singularidad que se resuelve cuando se incluyen efectos cuánticos.

Esta observación abre un interrogante importante: ¿resuelve la LQC todas las singularidades que aparecen en modelos cosmológicos en la relatividad general? Esta es una pregunta compleja dado que hay muchos tipos de modelos cosmológicos y también muchos tipos de singularidades. En este seminario, Parampreet Singh explica que pasa con muchos tipos de singularidades en una familia de modelos, llamados modelos de Bianchi, que son homogéneos pero anisótropos (cada punto del universo es equivalente, pero el mismo puede expandirse a ritmos distintos en distintas direcciones). El resultado central del seminario es que todas las singularidades “fuertes” en los modelos Bianchi son resueltas por la LQC.

Monday, February 13, 2012

Cosmología cuántica de lazos inhomogénea

por David Brizuela, Albert Einstein Institute, Golm, Germany.




William Nelson, PennState 
Title: Inhomogeneous loop quantum cosmology
PDF of the talk (500k)
Audio [.wav 32MB], Audio [.aif 3MB].


La charla de William Nelson es una continuación del trabajo presentado por Iván Agulló hace varios meses en esta serie de seminarios sobre su trabajo en común en colaboración con Abhay Ashtekar. La charla de Iván fue comentada en este blog por Edward Wilson-Ewing, por lo que referimos al lector a esa entrada por completitud. Aunque una parte sustancial del material se solapará con ese post, aquí intentaremos centrarnos en aspectos complementarios de esta investigación.

Debido a que la velocidad de la luz es finita, cuando miramos un objeto distante, como una estrella, estamos viendo el estado de ese objeto en el pasado. Este hecho apenas afecta nada a nuestras escalas cotidianas, pero si consideramos distancias más grandes el efecto es apreciable incluso para nuestros lentos sentidos humanos. Por ejemplo, el sol se encuentra a 8 minutos-luz de distancia por lo que, si de repente se apagara, aún tendríamos tiempo de hacer varias cosas hasta que nos encontráramos en la más completa oscuridad. Si vamos a distancias cosmológicas este hecho puede ser muy sorprendente: ¡podemos ver el pasado realmente lejano! Pero, ¿cómo de lejano? ¿Podemos ver el instante de la creación?

Los rayos de luz que se emitieron en los primeros instantes del universo y que llegan a la Tierra hoy en día forman nuestro horizonte de partícula, que define la frontera de nuestro universo observable. Como nota al margen, tened en cuenta que el universo completo podría ser más grande (incluso infinito) que el observable, pero no necesariamente. Podríamos estar viviendo en un universo de topología compacta (como la superficie de un globo) y la luz emitida por una galaxia distante podría llegarnos desde diferentes direcciones. Por ejemplo, una directa y otra después de dar la vuelta a todo el universo. Por lo tanto, lo que consideramos diferentes galaxias serían copias de la misma galaxia en diferentes etapas de su evolución. De hecho, ¡podríamos incluso ver el sistema solar en una época anterior!

Debido a que el universo ha existido durante un tiempo finito (alrededor del 14000 millones de años), la respuesta inmediata sería que el horizonte de partículas está a esa distancia: a 14000 millones de años luz. Pero esto no es cierto principalmente por dos razones diferentes. Por un lado, nuestro universo se
está expandiendo, por lo que las fuentes que emitieron los rayos de luz durante los momentos iniciales del universo están más lejos, a unos 46000 millones de años-luz. Por otro lado, al principio del universo la temperatura era tan alta que los átomos o incluso los protones o neutrones no podían formarse de manera estable. El estado de la materia era un plasma de partículas elementales libres, en el que los fotones tendían a interactuar con mucha facilidad. El recorrido libre medio de un fotón era muy corto, ya que inmediatamente era absorbido por alguna de las partículas. En consecuencia, el universo era opaco a la luz, por lo que ninguno de los fotones emitidos en aquella época ha podido llegar hasta nosotros. El universo se hizo transparente unos 380000 años después del Big Bang, durante la llamada época de recombinación (cuando los átomos de hidrógeno comenzaron a formarse), y los fotones emitidos en este periodo forman lo que se conoce como el Fondo Cósmico de Microondas (FCM). Este es el suceso más cercano al Big Bang que hoy podemos observar con nuestros telescopios. En principio, dependiendo de la evolución de la tecnología, en el futuro podría ser posible detectar también el fondo de neutrinos y el de ondas gravitacionales. Estos fueron emitidos antes de que los fotones del FCM ya que los neutrinos y las ondas gravitacionales podían viajar a través del mencionado plasma sin demasiada interacción. El FCM ha sido analizado mediante satélites muy sofisticados, como el WMAP, y sabemos que es muy homogéneo. Tiene un espectro de cuerpo negro casi perfecto con el máximo en una frecuencia de microondas correspondiente a una temperatura de 2.7 K. Las pequeñas inhomogeneidades que se observan en el FCM son las semillas de las grandes estructuras de nuestro universo actual.

Por otro lado, el FCM es uno de los pocos lugares donde uno podría buscar efectos de gravedad cuántica ya que las condiciones durante los primeros instantes del universo fueron muy extremas. La temperatura era tan alta que las energías de interacción entre partículas eran mucho más grandes de lo que podríamos lograr con cualquier acelerador. Pero hemos visto que los fotones del FCM fueron emitidos bastante después del Big Bang, alrededor de 380.000 años más tarde. Cosmológicamente este tiempo es insignificante. (Si hacemos una analogía y pensamos que el universo es una persona de edad media de 50 años, esto correspondería a 12 horas.) Sin embargo, en ese momento el universo ya se había enfriado y la curvatura era lo suficientemente baja de tal manera que, en principio, las ecuaciones clásicas de Einstein de la relatividad general deberían ser una muy buena aproximación para describir su evolución durante esta etapa. Por lo tanto, ¿por qué creemos que puede ser posible observar los efectos de gravedad cuántica en el FCM? En este punto, el escenario inflacionario entra en juego.

Según el modelo cosmológico estándar, alrededor de 10^(-36) segundos después del Big Bang, el universo pasó por una fase inflacionaria que produjo un enorme aumento de su tamaño. En un instante de tiempo muy corto (unos pocos 10^(-32) segundos) el volumen se multiplicó por un factor 10^78. Pensad por un momento en el increíble tamaño de este número: ¡una habitación normal pasaría a tener al tamaño del universo
observable!

En la década de los 1980 Alan Guth introdujo este mecanismo inflacionario con el fin de abordar varios aspectos conceptuales sobre los inicios del universo como, por ejemplo, por qué nuestro universo (y en particular el FCM) es tan homogéneo. Nótese que el FCM está compuesto por puntos que están muy lejos entre sí que, en un modelo sin inflación, no podrían haber tenido ningún tipo de interacción o intercambio de información durante toda la historia del universo. Por el contrario, de acuerdo con la teoría inflacionaria, todos estos puntos estuvieron juntos en algún momento en el pasado, lo que les habría permitido alcanzar este equilibrio térmico. Además, la inflación ha tenido un gran éxito y ha demostrado ser mucho más útil de lo que originalmente se esperaba. En este marco, los valores observacionales de las pequeñas inhomogeneidades de la FCM se reproducen con gran precisión. Veamos con más detalle cómo se obtiene este resultado.

En los modelos habituales de inflación se considera la existencia de una partícula escalar (llamada inflatón) en los inicios del universo. Se supone que el inflatón tiene un potencial muy grande, pero plano. Durante la época inflacionaria va perdiendo energía potencial poco a poco (o, como se suele decir, rueda lentamente por su potencial), y produce la expansión exponencial del universo. Al final de este proceso la energía potencial del inflatón es aún bastante grande. Debido a que actualmente no se observa la presencia de dicha partícula, se suele argumentar que después de la inflación, durante la época del recalentamiento, toda esta energía potencial se convirtió en partículas "normales" (del modelo estándar). Aún así todavía no se entiende muy bien
este proceso.

También se suele suponer que al comienzo de inflación las fluctuaciones cuánticas del inflatón (y de los diferentes objetos matemáticos que describen la geometría del universo) estaban en un estado de vacío. Este vacío cuántico no es un objeto estático y simple, como se podría pensar a priori. Al contrario, es una entidad muy dinámica y compleja. Debido al principio de incertidumbre de Heisenberg, las leyes de la física (como la conservación de la energía) pueden ser violadas durante pequeños instantes de tiempo. Este hecho se conoce bien en la teoría cuántica de campos y sucede fundamentalmente porque la naturaleza no permite realizar observaciones durante un tiempo tan corto. Por lo tanto, en el vacío cuántico se da una creación constante de partículas virtuales que, en condiciones normales, son aniquiladas antes de que puedan ser observadas. Sin embargo, la expansión del universo convierte estas partículas virtuales en entidades reales. Intuitivamente se puede pensar que una partícula virtual y su correspondiente antipartícula se crean pero, antes de que
puedan interactuar de nuevo para desaparecer, la expansión inflacionaria del universo las separa tanto que la interacción mutua ya no es posible. Estas pequeñas fluctuaciones cuánticas iniciales, amplificadas a través del proceso de inflación, producen las inhomogeneidades del FCM que observamos. De esta manera, la inflación es una especie de lupa que nos permite tener acceso experimental a los procesos que ocurrieron a escalas muy pequeñas y, por lo tanto energías grandes, donde los efectos de gravedad cuántica podrían haber sido significativos.

Por otro lado, la cosmología cuántica de lazos (CCL) es una teoría cuántica de la gravedad que describe la evolución de nuestro universo bajo los supuestos habituales de homogeneidad e isotropía . Las predicciones de la CCL coinciden con los de la relatividad general en las regiones de curvatura baja. Esto incluye la
totalidad de la historia del universo con excepción de los momentos iniciales. Según la relatividad general el principio del universo ocurrió en el Big Bang, lo que no es un nombre muy apropiado. El Big Bang no tiene nada que ver con una explosión, es un suceso abrupto donde repentinamente surge el continuo espacio-tiemporal. Técnicamente a este punto se le llama una singularidad, donde los diferentes objetos matemáticos que describen la curvatura del espacio-tiempo son divergentes. De esta manera, aquí no se puede aplicar la relatividad general y, como se suele afirmar, la teoría contiene las semillas de su propia destrucción. La CCL suaviza esta singularidad teniendo en cuenta los efectos de gravedad cuántica y el Big Bang es reemplazado por un rebote cuántico (el llamado Big Bounce). De acuerdo con el nuevo paradigma, el universo ya existía antes del Big Bounce como un universo clásico en colapso. Cuando la densidad de energía se hizo demasiado grande, entró en esta región altamente cuántica, donde los efectos de gravedad cuántica vienen con el signo correcto de tal manera que la gravedad pasa a ser repulsiva. Esto provocó que el universo rebotase y comenzase la expansión que actualmente observamos.

El objetivo de la charla de Will es el estudio del escenario inflacionario en el contexto de la CCL y la obtención de sus predicciones para las inhomogeneidades del FCM. De hecho, Abhay Ashtekar y David Sloan ya mostraron que la inflación es natural en la CCL. Esto significa que no es necesario elegir condiciones  niciales muy especiales para obtener una fase inflacionaria. Pero todavía hay varias cuestiones que deben
abordarse, en particular si pueden existir efectos observables debido a la evolución preinflacionaria del universo.

Como ya hemos mencionado, en los modelos cosmológicos habituales el estado inicial se toma como el denominado vacío de Bunch-Davies en el inicio de inflación. Este tiempo puede resultar muy arbitrario. El punto natural para elegir las condiciones iniciales sería el Big Bang, pero esto no es factible ya que es
un punto singular donde las ecuaciones de movimiento ya no son válidas. En cualquier caso, la visión más extendida ha sido que, incluso si hubiera algunas partículas presentes en el inicio de inflación, la enorme expansión del universo las diluiría y por lo tanto el perfil final del FCM no se vería afectado. Sin embargo, recientemente Iván Agulló y Leonard Parker demostraron que la presencia de tales partículas iniciales sí que importa para el resultado final, ya que produce la llamada emisión estimulada: las partículas iniciales producen más partículas, que a su vez producen más partículas y así sucesivamente. De hecho, este es el mismo proceso en el que se basan los ampliamente utilizados dispositivos láseres de hoy en día.

Al contrario que en los modelos habituales basados ​​en relatividad general, la CCL ofrece un punto especial donde se pueden elegir condiciones iniciales adecuadas: el Big Bounce. Por lo tanto, en esta investigación, el estado de vacío correspondiente se elige en ese momento. Los resultados preliminares presentados en la charla parecen muy prometedores. El estado inicial más simple es consistente con los datos experimentales pero, al mismo tiempo, difiere ligeramente del espectro de FCM obtenido mediante los modelos anteriores. Estos resultados se han obtenido bajo ciertas aproximaciones técnicas de modo que el siguiente paso de la investigación será entender si dicha desviación es realmente física. Si es así, esto podría proporcionar un test de observación directa para la CCL que nos enseñaría lecciones muy valiosas
acerca del régimen cuántico profundo del universo primitivo.