Resumen:
|
[CA] Per a superar les limitacions dels models tradicionals de simulació de dades, que són computacionalment costosos i requereixen molt de còmput, proposem utilitzar models generatius del tipus normalitzadors de flux ...[+]
[CA] Per a superar les limitacions dels models tradicionals de simulació de dades, que són computacionalment costosos i requereixen molt de còmput, proposem utilitzar models generatius del tipus normalitzadors de flux basats en aprenentatge profund, com MADE, MAF i IAF. Aquests models poden simular col·lisions de partícules en física d’altes energies de manera més eficient que els mètodes basats en Monte Carlo, per a detectar senyals de la física més enllà del model estàndard, la qual cosa és esencial en l’exploració dels aspectos desconeguts del comportament de la matèria. MADE (Autoencoder Emmascarat per a Estimació de Distribucions), MAF (Flux Autoregressiu Emmascarat) i IAF (Flux Autoregressiu Invers) són exemples de models basats en Normalitzadors de Flux que han demostrat ser altament efectius en la simulació de distribucions de dades complexes. MADE utilitza una xarxa d’autoencoder amb connexions emmascarades per a aproximar qualsevol distribució de probabilitat, la qual cosa el fa adequat per a generar dades d’alta dimensionalitat amb una estructura dispersa. MAF és un model de Flux que modela una distribució objectiu transformant una distribució base simple a través d’una sèrie de transformacions invertibles, la qual cosa permet un mostreig i estimació de densitat eficient. IAF és un altre model del tipus Normalitzadors de Flux que transforma seqüencialment una distribució base amb funcions invertibles per a generar mostres d’una distribució objectiu. Utilitzant aquests models generatius basats en Normalitzadors de Flux, podem simular dades amb alta qualitat i reduir el temps i els costos energètics dels mètodes tradicionals, proporcionant una forma més eficient i precisa de descubrir nous esdeveniments i dissenyar detectors en el context del LHC. A més, aquests models faciliten l’obtenció d’una estimació completa i detallada dels errors sistemàtics, la qual cosa és crucial per a validar amb precisió nous escenaris de física comparant les dades reals obtingudes dels experiments amb dades simulades de models teòrics.
[-]
[ES] Para superar las limitaciones de los modelos tradicionales de simulación de datos, que son computacionalmente costosos y requieren mucho tiempo, proponemos utilizar modelos generativos del tipo normalizadores de flujo ...[+]
[ES] Para superar las limitaciones de los modelos tradicionales de simulación de datos, que son computacionalmente costosos y requieren mucho tiempo, proponemos utilizar modelos generativos del tipo normalizadores de flujo basados en aprendizaje profundo, como MADE, MAF e IAF. Estos modelos pueden simular colisiones de partículas en física de altas energías, de manera más eficiente que los métodos basados en Monte Carlo, para detectar señales de la física más allá del modelo estándar, lo cual es esencial en la exploración de los aspectos desconocidos del comportamiento de la materia.
MADE (Autoencoder Enmascarado para Estimación de Distribuciones), MAF (Flujo Autoregresivo Enmascarado) e IAF (Flujo Autoregresivo Inverso) son ejemplos de modelos basados en Normalizadores de Flujos que han demostrado ser altamente efectivos en la simulación de distribuciones de datos complejas. MADE utiliza una red de autoencoder con conexiones enmascaradas para aproximar cualquier distribución de probabilidad, lo que lo hace adecuado para generar datos de alta dimensionalidad con una estructura dispersa. MAF es un modelo de Flujo que modela una distribución objetivo transformando una distribución base simple a través de una serie de transformaciones invertibles, lo que permite un muestreo y estimación de densidad eficiente. IAF es otro modelo del tipo Normalizadores de Flujo que transforma secuencialmente una distribución base con funciones invertibles para generar muestras de una distribución objetivo.
Utilizando estos modelos generativos basados en Normalizadores de Flujos, podemos simular datos con alta calidad y reducir el tiempo y los costos energéticos de los métodos tradicionales, proporcionando una forma más eficiente y precisa de descubrir nuevos eventos y diseñar detectores en el contexto del LHC. Además, estos modelos facilitan la obtención de una estimación completa y detallada de los errores sistemáticos, lo cual es crucial para validar con precisión nuevos escenarios de física comparando los datos reales obtenidos de los experimentos con datos simulados de modelos teóricos.
[-]
[EN] To overcome the limitations of traditional models for data simulation, which are computationally expensive and time-consuming, we propose using deep generative models based on Normalising Flows such as MADE, MAF, and ...[+]
[EN] To overcome the limitations of traditional models for data simulation, which are computationally expensive and time-consuming, we propose using deep generative models based on Normalising Flows such as MADE, MAF, and IAF. These models can efficiently simulate collisions in high-energy physics, more efficiently than Monte Carlo methods, to detect signals of Physics Beyond the Standard Model, which is essential in the exploration of the unknown aspects of matter's behaviour.
MADE (Masked Autoencoder for Distribution Estimation), MAF (Masked Autoregressive Flow), and IAF (Inverse Autoregressive Flow) are examples of Flow models that have been shown to be highly effective in simulating complex data distributions. MADE uses an autoencoder network with masked connections to approximate any probability distribution, making it suitable for generating high-dimensional data with a sparse structure. MAF is a Flow model that models a target distribution by transforming a simple base distribution through a series of invertible transformations, allowing for efficient sampling and density estimation. IAF is another Flow model that sequentially transforms a base distribution with invertible functions to generate samples from a target distribution.
Using these Flow-based generative models, we can simulate data with high quality and reduce the time and energy costs of traditional methods like Monte Carlo, providing a more efficient and accurate way of discovering new events and designing detectors in the LHC context. Additionally, these models make it easier to obtain a complete and detailed estimation of systematic errors, which is crucial in accurately validating new physics scenarios by comparing real data obtained from experiments with simulated data from theoretical models.
[-]
|