www.gienini.com

Juan M.Gienini

artic2

Ultimas simulaciones del supercomputador Titan: el nacimiento de supernovas

Por Will Wells | 2 de enero, 2020
Origen: Last user of Titan - traducido por: gienini

El Laboratorio Nacional Oak Ridge (OLCF) opera los supercomputadores y Clusters: Summit - Titan - eos - Rhea y Wombat

 Titan era el supercomputador Cray XK7 del OLCF activo hasta el 1 de agosto de 2019. Alcanzaba velocidades de 27 petaFlops y ejecutó innumerables simulaciones durante sus 7 años de servicio. Su gran potencia de cálculo era constantemente demandada por investigadores. Por un breve lapso, antes del desmantelamiento, ejecutó la simulación de los momentos finales de la vida de una estrella.
 Cuando las estrellas como nuestro Sol finalmente se quedan sin combustible, se convierten en gigantes rojas y luego en enanas blancas. Las estrellas más grandes, al menos 10 veces más masivas que el Sol, colapsan en una estrella de neutrones extremadamente densa antes de lanzar una onda de choque masiva en forma de explosión de supernova.

(N. del T.: una estrella de hasta la mitad de la masa de la de nuestro Sol (Msol) finalizará su vida en Enana marrón; una de masa entre 0,5 y 9Msol evolucionará en Gigante roja, Nebulosa planetaria y luego en Enana blanca; una de masa entre 9 y 30Msol evolucionará en Supergigante azul, amarilla, roja y finalmente explota en Supernova dejando como remanente una Estrella de neutrones; las de masa mayor a 30Msol, evolucionarán en Variable luminosa azul, Estrella Wolf-Rayet, explotarán en Supernovas más energéticas dejando como remanentes unos Agujeros negros)

 El astrofísico de la Universidad de Tennessee Eric Lentz, último usuario de Titan, respondió unas preguntas sobre el impacto de Titan en su proyecto y del futuro de su investigación.
¿Qué estabas simulando en Titan?
 Lentz: Hemos estado modelando explosiones de supernovas, el colapso del núcleo de estrellas masivas donde los estados físicos cambian constantemente. Comienza como un núcleo de hierro similar a una enana blanca de densidad relativamente baja, y en el primer segundo del colapso su densidad aumenta cuatro órdenes de magnitud (decenas de miles de veces). El uso de computadores como Titan eran muy caros, y no se tenían muchas oportunidades para hacer ejecuciones; una o dos simulaciones completas era la asignación (de memoria, tiempo, procesadores. N. del T.) que podíamos obtener.
 Nuestras simulaciones son parte de un proyecto que explora las variaciones de las propiedades físicas durante el colapso del núcleo, o sea, como cambian su composición, temperatura, densidad, etc. y la distribución de su masa. Una estrella de menor masa, como nuestro Sol, tiene un destino muy diferente al de una estrella que tiene, aproximadamente 10 o 20 veces esa masa (masas solares Msol). Los tipos de explosiones que estamos simulando, tienen un impacto importante en el desarrollo de las galaxias que la contienen al inyectarles elementos recién creados y vienen en una variedad bastante amplia de condiciones iniciales. Entre las simulaciones que realizamos durante el último mes de Titan habían modelos que representaban estrellas que tenían aproximadamente 25, 15 y 10 veces la masa del Sol.
¿Qué significó Titan en vuestro proyecto?
 Lentz: Hemos estado en Titan desde el principio del acceso general al supercomputador. Creo que el mayor cambio en el tiempo fue el incremento del número de nodos y procesadores disponibles. Titan nos ha permitió ver adecuadamente la resolución necesaria de las ejecuciones en 3D, particularmente con códigos como el nuestro, donde muchas propiedades físicas evolucionan durante la simulación.
 El crecimiento general de estos supercomputadores de gama alta hace posible las complejas simulaciones en 3D que hemos estado haciendo. En particular, en máquinas como Titan hemos aprovechado su cantidad de nodos y eso ha sido realmente crítico. Poder ejecutar con hasta 40.000 núcleos por 1.000 horas por ejecución era una oportunidad extremadamente rara. Simplemente no es algo que esté fácilmente disponible para la mayoría de los investigadores; no es un nivel de poder computacional que se pueda tener en un clúster departamental o institucional. Sin máquinas como ésta, parte de este trabajo sería literalmente imposible. Estamos muy satisfechos con lo que hemos podido hacer en estos años, y nos ha abierto el apetito para hacer más.
¿Puedes contarme sobre los resultados de la última simulación?
 Lentz: Si bien todavía estamos analizando los datos de esa ejecución, podemos ver la naturaleza volátil de las estrellas masivas y cómo colapsan y explotan. También muestra cuánto más tenemos que avanzar para poder seguir aproximándonos a la física del colapso del núcleo con mayor precisión. Estudiar esa simulación final también nos ha ayudado a guiarnos y prepararnos para el salto a Summit.
¿Cómo se va encaminando su trabajo a Summit?
 Lentz: Parte del dilema que tenemos al diseñar una simulación es equilibrar cuán bien resuelta está la simulación vs. el tiempo de ejecución. Creo que uno de los aspectos desafortunados de nuestro trabajo 3D anterior ha sido el tiempo de ejecución: 1.000 horas sólo para comenzar una explosión, ni siquiera para desarrollarla completamente hacia un estado asintótico.
 Desafortunadamente, todas nuestras simulaciones abarcan un solo modelo, lo que significa que realmente no podemos aislar aspectos individuales en ejecuciones más pequeñas. Nos hemos centrado en hacer simulaciones a gran escala e incorporar toda la física lo mejor en que podíamos aproximarnos, y luego continuar mejorando esas aproximaciones y el rendimiento general de la simulación. Sin embargo, ésto nos deja en una posición incómoda donde, para ejecutar simulaciones en 3D es necesaria una computadora grande funcionando durante mucho tiempo.  Así nos fuimos reorientando hacia Summit, a una situación más cómoda que nos permita ejecutar más simulaciones, menos resueltas, pero que nos permitirán ejecuciones de más tiempo y explorar mejor la física.
¿Cuáles son los principales objetivos para ejecutar en Summit?
 Lentz: En este momento, nos estamos enfocando en algunas mejoras finales a nuestro código para cumplir con nuestras metas para el próximo año, y aún queda por hacer más. Con la combinación de los componentes de GPU de Summit y las mejoras en nuestro código, podremos reducir los tiempos de ejecución. Antes, con Titan, ejecutábamos simulaciones modelando de medio a tres cuartos de segundo del colapso de núcleo, con ejecuciones de 1.000 horas. Con Summit, nuestro objetivo es ejecutar un segundo completo en 700 u 800 horas.
 Nuestro código es relativamente maduro en el sentido de que hemos ejecutado simulaciones bastante largas en 2D, por lo que se han capturado muchos desafíos básicos de física, existe la posibilidad de captar simulaciones en 3D. Hemos realizado ocho o nueve ejecuciones en 3D que han sido relativamente largas, y más ejecuciones en 2D que han sido mucho más largas. El próximo año esperamos hacer en Summit: ejecuciones en 3D de más tiempo.

El Laboratorio Nacional Oak Ridge (OLCF) depende del Departamento de Energía de los Estados Unidos y es administrado por UT-Battelle.

Contacto: