- -

In-the-wild Material Appearance Editing using Perceptual Attributes

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

In-the-wild Material Appearance Editing using Perceptual Attributes

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Morillas Gómez, Samuel es_ES
dc.contributor.advisor Lagunas Arto, Manuel es_ES
dc.contributor.author Subías Sarrato, José Daniel es_ES
dc.date.accessioned 2022-09-16T10:17:05Z
dc.date.available 2022-09-16T10:17:05Z
dc.date.created 2022-07-25
dc.date.issued 2022-09-16 es_ES
dc.identifier.uri http://hdl.handle.net/10251/186181
dc.description.abstract [ES] Editar intuitivamente la apariencia de los materiales, solo a partir de una sola imagen, es una tarea desafiante dada la complejidad y ambigüedad de las interacciones entre luz y materia. Este problema se ha resuelto tradicionalmente mediante la estimación de factores de la escena como la geometría o la iluminación, resolviendo así un problema de renderizado inverso donde se necesita modelar la interacción de la luz y la materia. En este trabajo, presentamos un marco de edición de apariencia de una sola imagen que permite modificar intuitivamente la apariencia material de un objeto aumentando o disminuyendo los atributos de percepción de alto nivel que describen la apariencia (por ejemplo, brillante o metálico). Nuestro marco utiliza solo una imagen real como entrada, donde la geometría o la iluminación no se controlan. Nos basamos en redes neuronales generativas y, en particular, sobre Redes Adversarias Generativas de Transferencia Selectiva (STGAN) que permiten conservar los detalles de alta frecuencia de la imagen de entrada en la editada. Para entrenar nuestro modelo combinamos pares de imágenes sintéticas, renderizadas con algoritmos de trazado físicos y sus correspondientes calificaciones de los atributos de alto nivel, dadas por humanos a través de estudios de usuarios de fuentes múltiples. Además, aunque usemos imágenes sintéticas en el entrenamiento, demostramos la aplicabilidad de nuestro método en imágenes del mundo real obtenidas de catálogos en línea y tomados manualmente usando nuestros teléfonos móviles. es_ES
dc.description.abstract [EN] Intuitively editing the appearance of materials, just from a single image, is a challenging task given the complexity and ambiguity of the interactions between light and matter. This problem has been traditionally solved by estimating additional factors of the scene like geometry or illumination, thus solving an inverse rendering problem where the interaction of light and matter needs to be modelled. Instead, in this Master Thesis, we present a single-image appearance editing framework that allows to intuitively modify the material appearance of an object by increasing or decreasing high-level perceptual attributes describing appearance (e.g., glossy or metallic). Our framework uses just an in-the-wild image as the input, where geometry or illumination are not controlled. We rely on generative neural networks and, in particular, on Selective Transfer Generative Adversarial Networks (STGAN) that allow to preserve high-frequency details from the input image in the edited one. To train our model we combine pairs of synthetic images, rendered with physically-based ray tracing algorithms, and their corresponding ratings of the high-level attributes, given by humans through crowd-sourced user studies. Last, although trained on synthetic images, we demonstrate the applicability of our method on real-world photographs downloaded from online catalogs and manually taken using our mobile phones. es_ES
dc.format.extent 88 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Render algorithms es_ES
dc.subject Image reconstruction es_ES
dc.subject Apariencia de materiales es_ES
dc.subject Renderizado inverso es_ES
dc.subject Edición automática es_ES
dc.subject Material appearance es_ES
dc.subject Automatic editing es_ES
dc.subject Inverse rendering es_ES
dc.subject Reconstrucción de imágenes es_ES
dc.subject Algoritmos de renderización es_ES
dc.subject.classification MATEMATICA APLICADA es_ES
dc.subject.other Máster Universitario en Investigación Matemática-Màster Universitari en Investigació Matemàtica es_ES
dc.title In-the-wild Material Appearance Editing using Perceptual Attributes es_ES
dc.title.alternative Edición de apariencia de materiales reales usando atributos perceptuales es_ES
dc.title.alternative Edició d'aparença de materials reals usant atributs perceptius es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Matemática Aplicada - Departament de Matemàtica Aplicada es_ES
dc.description.bibliographicCitation Subías Sarrato, JD. (2022). In-the-wild Material Appearance Editing using Perceptual Attributes. Universitat Politècnica de València. http://hdl.handle.net/10251/186181 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\148580 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem