No es sencillo explicar el origen y evolución de nuestro universo. Y esto es así porque no contamos con la información necesaria para resolver todos los misterios del tema. Sin embargo, gracias a los datos de la luminosidad de estrellas, como las explosiones de supernovas, sí sabemos que el universo se está expandiendo y lo hace aceleradamente. 

La cosmología ha tenido un gran progreso debido a que en la última década las predicciones teóricas están siendo verificadas o refutadas mediante observaciones astronómicas. Es probable que el lector haya escuchado de los experimentos y misiones sofisticadas que agencias espaciales como la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés) en Estados Unidos o la Agencia Espacial Europea (ESA), hacen para la observación de una amplia gama de sucesos estelares que se llevan a cabo en nuestro vecindario cosmológico.

bigbang

El modelo cosmológico más popular es el llamado Big Bang (o Gran Explosión), el cual ha respondido muchas interrogantes sobre el origen del universo. También complicó aún más la visión teórica sobre cómo éste había explotado para dar origen a lo que observamos actualmente. Sin embargo, como todo lo que explota deja un eco indeleble, el universo nos dejó una marca, algo que llamamos la Radiación Cósmica de Fondo (CMB).

satélite WMAP
satélite WMAP

El estudio de esta radiación ha sido efectuado por misiones espaciales como la sonda Explorador del Fondo Cósmico (COBE) y el satélite WMAP (Wilkinson Microwave Anisotropy Probe, en honor al pionero de la cosmología observacional David T. Wilkinson); ambos lanzados por la NASA. El avance tecnológico no se detiene ahí: en mayo de 2009 la ESA lanzó un satélite aún más sensible, el satélite Planck (nombrado así en honor al científico alemán y Premio Nobel de Física 1918, Max Planck) diseñado para detectar con mayor precisión las diferencias de temperatura provenientes de esta radiación. Previo a este lanzamiento, la NASA y la ESA unieron sus fuerzas en 1990 para dar como resultado un trabajo fantástico de cientos de científicos e ingenieros: el Telescopio Hubble (Hubble Space Telescope, HST, denominado así en honor al científico estadounidense Edwin Hubble). Y por supuesto las cosas  no se detienen, ya que en 2018 se tiene programado el lanzamiento del sustituto de este telescopio, el James Webb (o conocido previamente como el Telescopio Espacial de la Siguiente Generación).

Todos estos esfuerzos han  generado grandes apogeos observacionales de las diversas caras que el universo nos ofrece. Sin embargo, todo es muy costoso. Por ello y por la increíble curiosidad de los cosmólogos de conocer lo que ocurrió, ocurre y ocurrirá con nuestro universo, aprovechamos la riqueza de las herramientas computacionales para resolver las diversas ecuaciones que lo gobiernan.

 

Encerrando un universo a gran escala

El proceso de interpretación física de cualquier fenómeno natural está siempre amenazado por el riesgo de caer en un círculo vicioso: para plasmar un conjunto de datos experimentales en leyes físicas, capaces de predecir los resultados de nuevos procesos, se precisa de un modelo matemático concreto, lo que condiciona el alcance o significado de tales datos. Y si esto es así para experimentos realizados en un laboratorio convencional, ¿qué cuidado no habría que tener cuando los datos experimentales conciernen al propio universo?

¿Cómo podemos conocer un universo tan grande sin menospreciar la interpretación de los datos experimentales?

El reto es: ¿cómo podemos conocer un universo tan grande sin menospreciar la interpretación de los datos experimentales?

!Es tiempo de simular!

La idea básica de las simulaciones cosmológicas es ésta: considere un cuerpo grande que sienta la atracción gravitacional de otros cuerpos a su alrededor, sume la geometría o la forma en conjunto del universo y hágase la siguiente pregunta, ¿qué pasaría después? Las simulaciones responden a la pregunta considerando esta idea y proyectándola en el tiempo. Para ello imagine colocando N partículas (donde N es un número muy grande) en una cuadrícula dimensional, como si fueran jugadores de béisbol en un campo. Cada jugador (partícula) tiene una posición inicial en el campo (cuadrícula). Ahora, el bateador golpea la pelota (lo que representaría una pequeña perturbación, la cual sería como las condiciones que imitarían el origen del universo) y los jugadores se desplazan a posiciones diferentes. Dado los puestos de todas estas partículas y habiendo elegido una configuración (un campo de juego) para nuestro universo de juguete, podemos calcular a dónde deben irse después de otro bateo. Esto trae como consecuencia el cambio de lugar de las partículas por lo que tenemos que volver a calcular este fenómeno una vez más. Definitivamente esta técnica tiene sus límites, pero al final lo que buscamos es comparar las propiedades estadísticas de la distribución de estas partículas en nuestro universo. Teniendo en cuenta todos los defectos involucrados, los esfuerzos por simular el universo han mejorado tremendamente en los últimos años gracias a los nuevos e innovadores programas computacionales.

Afortunadamente existen herramientas que gozan de soporte y reconocimiento internacional.

Entre estas herramientas encontramos dos programas que gozan de soporte y reconocimiento internacional: el Código para las Anisotropías en la Radiación Cósmica de Fondo (Code for Anisotropies of the Cosmic Microwave Background, CAMB) y el Análisis Cosmológico de Monte Carlo (Cosmological Monte Carlo, CosmoMC). Ambos códigos trabajan en las predicciones referentes al eco que dejó el Big Bang: la radiación cósmica de fondo. Esta radiación es el remanente expulsado cuando el universo fue lo suficientemente frío para ser transparente, es decir, cuando los fotones pudieron viajar prácticamente libres por todo el Universo. A esta etapa cosmológica se le conoce como “recombinación”. Es precisamente en esta etapa donde existe información de las épocas previas del universo, así como información sobre qué les ha pasado a los fotones desde entonces hasta llegar a los aparatos de medición actuales. Como resultado de que las propiedades de esta radiación varían según la dirección en la que llegan, la formación de las anisotropías es inevitable. Éstas surgen debido a las pequeñas perturbaciones primordiales que fueron necesarias para la formación de las estructuras que vemos actualmente (átomos, estrellas, galaxias, etcétera).

Y es con estas ideas que podemos empezar a simular con ayuda de una computadora.

 

El idioma de las simulaciones

Poseer un equipamiento computacional potente es sólo uno de los requerimientos para la investigación con simulaciones numéricas. Otro, igualmente importante, recae en la disponibilidad de algoritmos numéricos y códigos capaces de explotar eficientemente las computadoras disponibles para estudiar problemas físicos de interés de manera precisa y flexible, para de esa forma poder introducir la nueva física fácilmente.

Las simulaciones numéricas son una de las herramientas fundamentales para los cosmólogos y, por supuesto, siempre están apoyadas en las teorías contrastadas por observaciones astronómicas. Pero, ¿en qué idioma tenemos que expresarlas?

Ya es posible crear códigos que simulen un universo complejo…

Con los avances en las computadoras y la potencia de cálculo actuales, la posibilidad de crear códigos que simulen un universo complejo como el nuestro ha aumentado de forma espectacular. El CAMB (http://camb.info), uno de los códigos más socorridos, fue creado por dos investigadores de la Universidad de Cambridge, Reino Unido: Antony Lewis y Anthony Challinor. Éste, a su vez, se basa en el código CMBFast (http://lambda.gsfc.nasa.gov/toolbox/tb_cmbfast_ov.cfm)  escritos ambos en lenguaje FORTRAN. El código está estructurado de una manera muy clara, teniendo en archivos diferentes las partes relacionadas con las definiciones cosmológicas, los diferentes fenómenos estelares así como un archivo donde están las ecuaciones que tiene que resolver el código numérico. Sus alcances son sobresalientes, ya que puede calcular muchos de los espectros de las perturbaciones del universo, entre otras cosas. Además, cabe resaltar que este código se puede correr en una computadora común, obteniendo resultados en minutos dependiendo el procesador de la máquina.

CosmoMC
CosmoMC

El segundo código famoso llamado CosmoMC, fue creado por Antony Lewis (uno de los creadores del CAMB) y está dedicado a utilizar las técnicas de la física estadística para hacer ajustes de las cantidades numéricas, pero en el espacio de los parámetros cosmológicos, los cuales nos permiten resolver los problemas fundamentales de la cosmología como: la geometría del universo (es decir, si el espacio es abierto, cerrado o plano), la edad del universo, la naturaleza y abundancia de la materia oscura, y la formación de galaxias y de estructura a gran escala. Las gráficas resultantes de CosmoMC muestran zonas donde los diferentes parámetros cosmológicos pueden dominar o no, realizando así un análisis de vecindad, comparando datos y estableciendo regiones de mayor probabilidad. Cabe destacar que este código emplea una cantidad superior de recursos computacionales, por lo que generalmente su uso se hace en computadoras más potentes. La versatilidad del código es un factor muy favorable, ya que si surge en los trabajos actuales algún modelo novedoso donde se infieran diferentes variaciones en los modelos cosmológicos, bastaría con modificar los parámetros de entrada en el código o bien (si el cambio es un poco más profundo) las ecuaciones a resolver.

 

¿Quieres saber cómo luce el universo al variar su contenido material? Consulta la página siguiente:
http://map.gsfc.nasa.gov/resources/camb_tool/cmb_plot.swf
¿Quieres cambiar tu modelo cosmológico? Intenta en:
http://goo.gl/qjoUZI
Aprende paso a paso cómo funciona CAMB en:
http://lambda.gsfc.nasa.gov/toolbox/tb_camb_form.cfm

Es muy importante señalar que estas herramientas computacionales no deben ser usadas como cajas negras. Tenemos que ser capaces de conocer qué es lo que hace exactamente un código antes de usarlo, para no utilizarlo sólo como una forma de obtener gráficas.

 

Tiempo de jugar con el universo…

Estamos en una nueva era, la de la cosmología de alta precisión. En esta fase, la nueva generación de simulaciones (y computadoras) jugarán un papel crucial como laboratorios virtuales donde podremos probar las teorías mediante comparación directa con la observación. No es descabellado pensar que podemos simular en un futuro cercano cualquiera de los fenómenos más complicados que nos rodean.

 


 

Celia Escamilla Rivera es física por la Departamento de Física de la Universidad de Guanajuato. Actualmente es profesora investigadora en el Mesoamerican Centre for Theoretical Physics, en Tuxtla Gutiérrez, Chiapas y miembro en calidad CNPq Fellow en el Observatorio de la Universidade Federal do Espirito Santo en Brasil. Su investigación se centra en la interacción entre la Cosmología Teórica y Observacional. Ha realizado estancias académicas en la University of Oxford y la University of Nottingham, ambas en Reino Unido. Es miembro del Instituto Avanzado de Cosmología en México: celia.escamilla@cosmo-ufes.org

Sobre el autor

University of Nottingham y Mesoamerican Centre for Theoretical Physics

Deja un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *