¿Es el universo homogéneo e isotrópico a escalas suficientemente grandes, como lo afirma el principio cosmológico y lo asumen todos los modelos que utilizan la métrica de Friedmann-Lemaître-Robertson-Walker , incluida la versión actual del modelo ΛCDM , o es el universo no homogéneo o anisotrópico? ? [1] [2]
Una cosmología no homogénea es una teoría cosmológica física (un modelo astronómico del origen y evolución del universo físico ) que, a diferencia del modelo de concordancia cosmológica actualmente ampliamente aceptado , supone que las heterogeneidades en la distribución de la materia en todo el universo afectan las fuerzas gravitacionales locales (es decir, en el nivel galáctico) lo suficiente como para distorsionar nuestra visión del Universo. [3] Cuando comenzó el universo, la materia estaba distribuida homogéneamente , pero a lo largo de miles de millones de años, las galaxias , los cúmulos de galaxias y los supercúmulos se han fusionado y deben, según la teoría de la relatividad general de Einstein , deformar el espacio-tiempo que los rodea. Si bien el modelo de concordancia reconoce este hecho, supone que tales faltas de homogeneidad no son suficientes para afectar los promedios de gravedad a gran escala en nuestras observaciones. Cuando dos estudios separados [4] [5] afirmaron en 1998-1999 que las supernovas de alto corrimiento al rojo estaban más lejos de lo que nuestros cálculos mostraban que deberían estar, se sugirió que la expansión del universo se está acelerando y que la energía oscura , una energía repulsiva inherente en el espacio, se propuso para explicar la aceleración. Desde entonces, la energía oscura ha sido ampliamente aceptada, pero sigue sin explicación. En consecuencia, algunos científicos continúan trabajando en modelos que podrían no requerir energía oscura. La cosmología no homogénea entra en esta clase.
Las cosmologías no homogéneas suponen que las reacciones inversas de estructuras más densas, así como las de vacíos muy vacíos, en el espacio-tiempo son lo suficientemente significativas como para que, cuando no se tienen en cuenta, distorsionan nuestra comprensión del tiempo y nuestras observaciones de objetos distantes. Tras la publicación de Thomas Buchert en 1997 y 2000 de ecuaciones que se derivan de la relatividad general pero que también permiten la inclusión de variaciones gravitacionales locales, se propusieron una serie de modelos cosmológicos según los cuales la aceleración del universo es, de hecho, una interpretación errónea de nuestras observaciones astronómicas y en el que la energía oscura es innecesaria para explicarlos. [6] [7] Por ejemplo, en 2007, David Wiltshire propuso un modelo (cosmología del paisaje temporal) en el que las reacciones inversas han provocado que el tiempo transcurra más lentamente o, en los vacíos , más rápidamente, dando así a las supernovas observadas en 1998 la ilusión de ser más lejos de lo que estaban. [8] [9] La cosmología del paisaje temporal también puede implicar que la expansión del universo de hecho se está desacelerando. [3]
El conflicto entre las dos cosmologías deriva de la inflexibilidad de la teoría de la relatividad general de Einstein , que muestra cómo la gravedad se forma por la interacción de la materia, el espacio y el tiempo. [10] El físico John Wheeler resumió la esencia de la teoría como "La materia le dice al espacio cómo curvarse; el espacio le dice a la materia cómo moverse". [11] Sin embargo, para construir un modelo cosmológico viable, todos los términos en ambos lados de las ecuaciones de Einstein deben estar equilibrados: por un lado, la materia (es decir, todas las cosas que deforman el tiempo y el espacio); por otro, la curvatura del universo y la velocidad a la que se expande el espacio-tiempo. [10] En resumen, un modelo requiere una cantidad particular de materia para producir curvaturas y tasas de expansión particulares.
En términos de materia, todas las cosmologías modernas se basan en el principio cosmológico , que establece que en cualquier dirección que miremos desde la Tierra, el universo es básicamente el mismo: homogéneo e isotrópico (uniforme en todas las dimensiones). [10] Este principio surgió de la afirmación de Copérnico de que no había observadores especiales en el universo y nada especial acerca de la ubicación de la Tierra en el universo (es decir, la Tierra no era el centro del universo, como se pensaba anteriormente). Desde la publicación de la relatividad general en 1915, esta homogeneidad e isotropía han simplificado enormemente el proceso de elaboración de modelos cosmológicos.
En términos de la curvatura del espacio-tiempo y la forma del universo , teóricamente puede ser cerrado (curvatura positiva, o el espacio-tiempo plegándose sobre sí mismo como si estuviera sobre la superficie de una esfera de cuatro dimensiones ), abierto (curvatura negativa, con el espacio -tiempo de plegado hacia afuera), o plano (curvatura cero, como la superficie de una hoja de papel "plana" de cuatro dimensiones). [10]
La primera dificultad real surgió con respecto a la expansión, porque en 1915, como antes, se suponía que el universo era estático, ni se expandía ni se contraía. Sin embargo, todas las soluciones de Einstein a sus ecuaciones de la relatividad general predijeron un universo dinámico. Por lo tanto, para que sus ecuaciones fueran coherentes con el universo aparentemente estático, añadió una constante cosmológica , un término que representa cierta energía extra inexplicable. Pero cuando a finales de la década de 1920 las observaciones de Georges Lemaître y Edwin Hubble demostraron la noción de Alexander Friedmann (derivada de la relatividad general) de que el universo se estaba expandiendo , la constante cosmológica se volvió innecesaria y Einstein la llamó "mi mayor error". [10]
Una vez eliminado este término de la ecuación, otros derivaron la solución de Friedmann-Lemaître-Robertson-Walker (FLRW) para describir tal universo en expansión, una solución basada en el supuesto de un universo plano, isotrópico y homogéneo. El modelo FLRW se convirtió en la base del modelo estándar de un universo creado por el Big Bang, y más evidencia observacional ha ayudado a perfeccionarlo. Por ejemplo, un universo liso, en su mayor parte homogéneo y (al menos cuando tenía casi 400.000 años) plano parecía estar confirmado por datos del fondo cósmico de microondas (CMB) . Y después de que en la década de 1970 se descubrió que las galaxias y los cúmulos de galaxias giraban más rápido de lo que deberían sin separarse, la existencia de materia oscura también pareció probada, confirmando la inferencia que hicieron Jacobus Kapteyn , Jan Oort y Fritz Zwicky en las décadas de 1920 y 1930. y demostrando la flexibilidad del modelo estándar. Se cree que la materia oscura constituye aproximadamente el 23% de la densidad de energía del universo. [10]
Otra observación en 1998 pareció complicar aún más la situación: dos estudios separados [4] [5] encontraron que las supernovas distantes eran más débiles de lo esperado en un universo en constante expansión; es decir, no simplemente se alejaban de la Tierra sino que aceleraban. Se calcula que la expansión del universo se ha estado acelerando desde hace aproximadamente 5 mil millones de años. Dado el efecto de frenado gravitatorio que toda la materia del universo debería haber tenido sobre esta expansión, se reintrodujo una variación de la constante cosmológica de Einstein para representar una energía inherente al espacio, equilibrando las ecuaciones de un universo plano y en aceleración. También dio un nuevo significado a la constante cosmológica de Einstein, ya que al reintroducirla en la ecuación para representar la energía oscura, se puede reproducir un universo plano que se expande cada vez más rápido. [10]
Aunque la naturaleza de esta energía aún no se ha explicado adecuadamente, constituye casi el 70% de la densidad de energía del universo en el modelo de concordancia. Y así, al incluir la materia oscura, casi el 95% de la densidad de energía del universo se explica por fenómenos que han sido inferidos pero no explicados del todo ni observados directamente. La mayoría de los cosmólogos todavía aceptan el modelo de concordancia, aunque el periodista científico Anil Ananthaswamy llama a este acuerdo una "ortodoxia tambaleante". [10]
Si bien el universo comenzó con materia distribuida homogéneamente, desde entonces se han fusionado enormes estructuras a lo largo de miles de millones de años: cientos de miles de millones de estrellas dentro de galaxias, cúmulos de galaxias, supercúmulos y vastos filamentos de materia. Estas regiones más densas y los vacíos entre ellas deben, según la relatividad general, tener algún efecto, ya que la materia dicta cómo se curva el espacio-tiempo. Por lo tanto, la masa extra de galaxias y cúmulos de galaxias (y la materia oscura, en caso de que alguna vez se detecten directamente partículas de ella) debe causar que el espacio-tiempo cercano se curve más positivamente, y los vacíos deberían tener el efecto opuesto, haciendo que el espacio-tiempo a su alrededor ocupe más espacio. sobre curvaturas negativas. La pregunta es si estos efectos, llamados reacciones inversas , son insignificantes o en conjunto son suficientes para cambiar la geometría del universo. La mayoría de los científicos han asumido que son insignificantes, pero esto se debe en parte a que no ha habido manera de promediar la geometría del espacio-tiempo en las ecuaciones de Einstein. [10]
En 2000, el cosmólogo Thomas Buchert de la École Normale Supérieure de Lyon, Francia , publicó un conjunto de nuevas ecuaciones (ahora conocidas como el conjunto de ecuaciones de Buchert) basadas en la relatividad general, que permiten determinar los efectos de una distribución no uniforme de materia que debe tenerse en cuenta pero aún así permitir promediar el comportamiento del universo. Por lo tanto, ahora se podrían idear modelos basados en una distribución desigual y no homogénea de la materia. [3] "En lo que a mí respecta, no existe energía oscura", dijo Buchert a New Scientist en 2016. "Dentro de diez años, la energía oscura desaparecerá". En el mismo artículo, el cosmólogo Syksy Räsänen dijo: "No se ha establecido más allá de toda duda razonable que la energía oscura exista. Pero yo nunca diría que se ha establecido que la energía oscura no existe". También dijo a la revista que la pregunta de si las reacciones inversas son insignificantes en cosmología "no ha sido respondida satisfactoriamente". [10]
La cosmología no homogénea en el sentido más general (asumiendo un universo totalmente no homogéneo) es modelar el universo como un todo con el espacio-tiempo que no posee ninguna simetría espacio-temporal . Los espaciotiempos cosmológicos típicamente considerados tienen la simetría máxima, que comprende tres simetrías traslacionales y tres simetrías rotacionales (homogeneidad e isotropía con respecto a cada punto del espacio-tiempo), solo simetría traslacional (modelos homogéneos), o solo simetría rotacional (modelos esféricamente simétricos). ). Los modelos con menos simetrías (por ejemplo, axisimétricos) también se consideran simétricos. Sin embargo, es común llamar no homogéneos a los modelos esféricamente simétricos o a los modelos no homogéneos. En cosmología no homogénea, la estructura a gran escala del universo se modela mediante soluciones exactas de las ecuaciones de campo de Einstein (es decir, de forma no perturbativa), a diferencia de la teoría de la perturbación cosmológica , que es un estudio del universo que requiere formación de estructuras ( galaxias , cúmulos de galaxias , la red cósmica ) en cuenta pero de forma perturbativa. [12]
La cosmología no homogénea generalmente incluye el estudio de la estructura del Universo mediante soluciones exactas de las ecuaciones de campo de Einstein (es decir, métricas ) [12] o mediante métodos de promediación espacial o espaciotemporal. [13] Estos modelos no son homogéneos , [14] pero pueden permitir efectos que pueden interpretarse como energía oscura , o pueden conducir a estructuras cosmológicas como vacíos o cúmulos de galaxias. [12] [13]
La teoría de la perturbación , que se ocupa de pequeñas perturbaciones procedentes, por ejemplo, de una métrica homogénea, sólo se cumple mientras las perturbaciones no sean demasiado grandes, y las simulaciones de N cuerpos utilizan la gravedad newtoniana, que sólo es una buena aproximación cuando las velocidades son bajas y los campos gravitacionales son débiles.
El trabajo hacia un enfoque no perturbativo incluye la Aproximación Relativista de Zel'dovich. [15] A partir de 2016 [update], Thomas Buchert, George Ellis , Edward Kolb y sus colegas [16] juzgaron que si el universo se describe mediante variables cósmicas en un esquema de reacción inversa que incluye análisis de grano grueso y promedio, entonces si la energía oscura es una El artefacto de la forma tradicional de utilizar la ecuación de Einstein sigue siendo una pregunta sin respuesta. [17]
Los primeros ejemplos históricos de soluciones no homogéneas (aunque esféricamente simétricas) son la métrica de Lemaître-Tolman (o modelo LTB - Lemaître-Tolman-Bondi [18] [19] [20] ). La métrica de Stephani puede ser esféricamente simétrica o totalmente no homogénea. [21] [22] [23] Otros ejemplos son la métrica de Szekeres, la métrica de Szafron, la métrica de Barnes, la métrica de Kustaanheimo-Qvist y la métrica de Senovilla. [12] Las métricas de Bianchi tal como figuran en la clasificación de Bianchi y las métricas de Kantowski-Sachs son homogéneas.
Los más conocidos [ ¿ según quién? ] El método de promediado es el método de promediado escalar [ se necesita más explicación ] , lo que conduce a la reacción inversa cinemática y a los funcionales de curvatura media de 3-Ricci. Las ecuaciones de Buchert son las ecuaciones principales [ se necesita más explicación ] de tales métodos de promediación. [13]
En 2007, David Wiltshire, profesor de física teórica en la Universidad de Canterbury en Nueva Zelanda, argumentó en el New Journal of Physics que las variaciones cuasilocales en la energía gravitacional habían dado en 1998 la falsa conclusión de que la expansión del universo se está acelerando. [8] Además, debido al principio de equivalencia , que sostiene que la energía gravitacional y la inercial son equivalentes y, por lo tanto, evita que aspectos de la energía gravitacional se diferencien a nivel local, los científicos identificaron erróneamente estos aspectos como energía oscura . [8] Esta identificación errónea fue el resultado de suponer un universo esencialmente homogéneo, como lo hace el modelo cosmológico estándar, y no tener en cuenta las diferencias temporales entre áreas densas en materia y vacíos. Wiltshire y otros argumentaron que si no sólo se supone que el universo no es homogéneo sino tampoco plano, se podrían idear modelos en los que la aparente aceleración de la expansión del universo podría explicarse de otra manera. [3]
Otro paso importante que quedó fuera del modelo estándar, afirmó Wiltshire, fue el hecho de que, como lo demuestra la observación, la gravedad ralentiza el tiempo. Así, desde la perspectiva del mismo observador, un reloj se moverá más rápido en el espacio vacío, que posee baja gravitación, que dentro de una galaxia, que tiene mucha más gravedad, y argumentó que una diferencia tan grande como el 38% entre el tiempo en Existen relojes en la Vía Láctea y los de una galaxia que flotan en el vacío. Por lo tanto, a menos que podamos corregir eso (paisajes temporales cada uno con tiempos diferentes), nuestras observaciones de la expansión del espacio serán, y son, incorrectas. Wiltshire afirma que las observaciones de supernovas de 1998 que llevaron a la conclusión de un universo en expansión y energía oscura pueden explicarse mediante las ecuaciones de Buchert si se tienen en cuenta ciertos aspectos extraños de la relatividad general. [3]