Resumen:
|
[ES] Atlas es el detector de partículas de propósito general más grande del Large Hadron Collider, un acelerador de partículas situado en el CERN. Este experimento, entre otros, fue creado porque el Modelo Estándar, que ...[+]
[ES] Atlas es el detector de partículas de propósito general más grande del Large Hadron Collider, un acelerador de partículas situado en el CERN. Este experimento, entre otros, fue creado porque el Modelo Estándar, que es el marco teórico más ampliamente aceptado en física, no puede explicar algunos comportamientos fundamentales de la materia debido a algunas limitaciones.
Para resolver estas cuestiones, se crearon detectores en busca de señales de Nueva Física utilizando el LHC. Estas señales son extensiones del modelo actual que podrían explicar potencialmente fenómenos desconocidos. Comparando datos experimentales reales con datos simulados de modelos teóricos, podría ser posible detectar estas señales y validar nuevos descubrimientos.
Sin embargo, simular datos con métodos tradicionales es temporal y computacionalmente costoso. Para reducir estos costes y hacer que el descubrimiento de Nueva Física sea más accesible, es posible utilizar modelos generativos basados en Deep Learning como generadores rápidos de eventos de Monte Carlo en el contexto del LHC.
Este enfoque puede reducir significativamente el tiempo y la energía requeridos respecto a las técnicas existentes en el estado del arte actual. Anteriormente, varios modelos generativos han sido explorados intentando obtener el mejor generador de eventos posible. En este trabajo, profundizamos en el uso de Variational Autoencoders con ese objetivo, y también utilizamos métricas para comparar el rendimiento de estos modelos con otros métodos.
[-]
[EN] Atlas is the largest general-purpose particle detector experiment at the Large Hadron Collider, a particle accelerator located at CERN. This experiment, among others, was created because the Standard Model, which is ...[+]
[EN] Atlas is the largest general-purpose particle detector experiment at the Large Hadron Collider, a particle accelerator located at CERN. This experiment, among others, was created because the Standard Model, which is the most widely accepted theoretical framework in physics, cannot fully explain certain fundamental behaviours of matter due to some limitations.
To address these questions, detectors were created to search for signals of Physics Beyond the Standard Model using the LHC. These signals are extensions of the current model that could potentially explain unknown phenomena. By comparing real experimental data to simulated data from theoretical models, it may be possible to detect these signals and validate new discoveries.
However, simulating data with traditional methods is time-consuming and computationally intensive. To reduce these costs and make the discovery of BSM physics more accessible, generative models based on Deep Learning can be used as fast Monte Carlo event generators in the LHC context.
This approach can significantly reduce the time and energy required with respect to existing state-of-the-art techniques. Previously, several Deep Generative models have been explored in trying to obtain the best possible event generator. In this work, we delve into the use of Variational Autoencoders for that purpose, and we also use numerical metrics to compare the performance of these models to other methods.
[-]
|