- -

Optimización Bayesiana no miope POMDP para procesos con restricciones de operación y presupuesto finito

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Optimización Bayesiana no miope POMDP para procesos con restricciones de operación y presupuesto finito

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.author Pitarch, José Luis es_ES
dc.contributor.author Armesto, Leopoldo es_ES
dc.contributor.author Sala, Antonio es_ES
dc.date.accessioned 2024-10-22T07:43:55Z
dc.date.available 2024-10-22T07:43:55Z
dc.date.issued 2024-09-27
dc.identifier.issn 1697-7912
dc.identifier.uri http://hdl.handle.net/10251/210651
dc.description.abstract [EN] Improving decision making from the observed results after experimentation is a usual task in many applications, from the research laboratory scale to industrial production systems. However, conducting experiments often takes a non-negligible cost. Consequently, excessive exploration is harmful. Bayesian optimization is a widely used technique in this context, deciding next experiment based on a statistical model. However, this technique does not explicitly account for the actual cost of the experiment, nor whether a limited budget (economic, number of experiments, time, etc.) exists. The problem of decision making under uncertainty and finite sample budget can be cast as a Partially Observable Markov Decision Process (POMDP). This work addresses the experimental optimization problem with operation constraints by a POMDP approach, where the possible actions to make are given by well-known Bayesian optimization heuristics, or any other defined by the user. The strategy consists in building a scenario tree from the (uncertain) knowledge about the system/process, learnt from prior experiments. Such a knowledge is modelled by Gaussian processes, which are updated with each new available observation. The evaluation on the best action to make is realized via dynamic programming. The developed algorithm has been evaluated by comparison with other options in the literature in a synthetic test bench, and to optimize a chemical batch production process. es_ES
dc.description.abstract [ES] Mejorar la toma de decisiones a partir de los resultados observados tras la experimentación es una tarea habitual en muchas aplicaciones, tanto a nivel de investigación en laboratorio como en procesos de producción industriales. Sin embargo, realizar experimentos suele acarrear un coste no despreciable, por lo que una excesiva exploración es perjudicial. La optimización bayesiana es una técnica muy utilizada en este contexto, decidiendo la siguiente experimentación en base a un modelo estadístico.No obstante, está técnica no tiene en cuenta explícitamente el coste real de realizar un experimento, ni si existe un presupuesto (o número de experimentos, tiempo, etc.) máximo. El problema de toma de decisiones bajo  incertidumbre y presupuesto finito puede plantear como un Proceso de Decisión de Márkov Parcialmente  observable (POMDP, por sus siglas en inglés). Este trabajo aborda el problema de optimización experimental sujeta a restricciones de operación con un enfoque POMDP, donde las posibles decisiones vienen proporcionadas por heurísticas de la optimización bayesiana, o de otra índole definida por el usuario. La estrategia consiste en construir un árbol de posibles escenarios partir del conocimiento (incierto) acerca del proceso/sistema aprendido a partir de experimentos previos. Dicho conocimiento se modela mediante procesos Gaussianos, que se actualizan con cada nueva observación. La evaluación sobre la mejor decisión a tomar se realiza mediante programación dinámica. El algoritmo desarrollado ha sido evaluado mediante comparación con otras opciones de la literatura en un banco de pruebas sintético, y para optimizar un proceso químico de producción por lotes. es_ES
dc.description.sponsorship Esta investigación se ha desarrollado en el marco del proyecto LOCPU (PID2020-116585GB-I00) financiado por MCIN/AEI/10.13039/501100011033. es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.relation info:eu-repo/grantAgreement/AEI/Plan Estatal de Investigación Científica y Técnica y de Innovación 2017-2020/PID2020-116585GB-I00/ES/APRENDIZAJE, CONTROL OPTIMO Y PLANIFICACION BAJO INCERTIDUMBRE EN APLICACIONES INDUSTRIALES/ es_ES
dc.relation.ispartof Revista Iberoamericana de Automática e Informática industrial es_ES
dc.rights Reconocimiento - No comercial - Compartir igual (by-nc-sa) es_ES
dc.subject Dynamic programming es_ES
dc.subject Process optimisation es_ES
dc.subject Gaussian processes es_ES
dc.subject Optimisation under uncertainty es_ES
dc.subject Programación dinámica es_ES
dc.subject Optimización de procesos es_ES
dc.subject Procesos Gaussianos es_ES
dc.subject Optimización bajo incertidumbre es_ES
dc.title Optimización Bayesiana no miope POMDP para procesos con restricciones de operación y presupuesto finito es_ES
dc.title.alternative POMPD non-myopic Bayesian optimisation for processes with operation constraints and a finite budget es_ES
dc.type Artículo es_ES
dc.identifier.doi 10.4995/riai.2024.21142
dc.rights.accessRights Abierto es_ES
dc.description.bibliographicCitation Pitarch, JL.; Armesto, L.; Sala, A. (2024). Optimización Bayesiana no miope POMDP para procesos con restricciones de operación y presupuesto finito. Revista Iberoamericana de Automática e Informática industrial. 21(4):328-338. https://doi.org/10.4995/riai.2024.21142 es_ES
dc.description.accrualMethod OJS es_ES
dc.relation.publisherversion https://doi.org/10.4995/riai.2024.21142 es_ES
dc.description.upvformatpinicio 328 es_ES
dc.description.upvformatpfin 338 es_ES
dc.type.version info:eu-repo/semantics/publishedVersion es_ES
dc.description.volume 21 es_ES
dc.description.issue 4 es_ES
dc.identifier.eissn 1697-7920
dc.relation.pasarela OJS\21142 es_ES
dc.contributor.funder Agencia Estatal de Investigación es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem