- -

La imagen como forma de (des)conocimiento en la era del deepfake

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

La imagen como forma de (des)conocimiento en la era del deepfake

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.author León-Mendoza, Raúl es_ES
dc.date.accessioned 2022-10-05T11:54:18Z
dc.date.available 2022-10-05T11:54:18Z
dc.date.issued 2022-09-30
dc.identifier.uri http://hdl.handle.net/10251/187067
dc.description.abstract [EN] The machines that produce deepfakes do not need the real world to produce plausible representations. This should produce a veracity crisis of the image. However, institutions such as justice maintain confidence in the image as an epistemological tool. In a social context of deep suspicion about any type of representation, the image is still used to determine what is true and what is false.Since the appearance of deepfake, measures and countermeasures have been taking place, mostly dependent on artificial intelligence, aimed to maintain the images as part of the methods we use to interpret the world.In this article, through different case studies, bibliography and relevant documents on the subject, the different methods of authentication of images as faithful representations of reality are described. These unite the old fake pictures, with the new phenomenon of deepfake.We conclude by questioning whether at present images are a simple reflection of our desire to see what we wish. So all images are an artistic agency. At the same time that we have abandoned completely and handed over to machines our critical capacity for determining truth. In this context, reality is decided by its plausible appearance, but not by its meaning. es_ES
dc.description.abstract [ES] Las máquinas que producen deepfakes no necesitan del mundo real para producir representaciones verosímiles. Esto debería producir la crisis del viejo contrato de veridicción que mantenemos con las imágenes. La irrupción del deepfake convierte la totalidad de las imágenes en materiales para una agencia artística. Sin embargo, instituciones como la justicia mantienen la confianza en la imagen como dispositivo de conocimiento. En un contexto social de profunda sospecha sobre cualquier tipo de representación, la imagen aún se utiliza para determinar lo verdadero y lo falso. Desde la aparición del deepfake se suceden medidas y contramedidas, cada vez más dependientes de la inteligencia artificial, destinadas a seguir manteniendo a las imágenes como parte del aparato epistemológico que empleamos para conocer el mundo.En este artículo, a través de diferentes estudios de caso, bibliografía y documentos relevantes sobre el tema, se traza una línea sobre el esfuerzo por comprobar la autenticidad de las imágenes como representaciones fieles de la realidad. Esta línea une las viejas fake pictures, con el nuevo fenómeno del deepfake. Concluimos cuestionándonos si las imágenes no son ya sólo un simple reflejo de nuestros deseos de ver, al tiempo que hemos abandonado y entregado totalmente a las máquinas nuestro aparato crítico de determinación de la verdad. En este contexto, lo que es real se dirime en una conversación en entre máquinas (GAN) por su apariencia verosímil, pero no por su contenido. es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.relation.ispartof ANIAV - Revista de Investigación en Artes Visuales es_ES
dc.rights Reconocimiento (by) es_ES
dc.subject Image es_ES
dc.subject Representation es_ES
dc.subject Knowledge es_ES
dc.subject Deepfake es_ES
dc.subject Truth es_ES
dc.subject Artificial intelligence es_ES
dc.subject Imagen es_ES
dc.subject Representación es_ES
dc.subject Conocimiento es_ES
dc.subject Verdad es_ES
dc.subject Inteligencia artificial es_ES
dc.title La imagen como forma de (des)conocimiento en la era del deepfake es_ES
dc.title.alternative The image as a form of (un)knowing in the era of deepfake es_ES
dc.type Artículo es_ES
dc.identifier.doi 10.4995/aniav.2022.17309
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Escultura - Departament d'Escultura es_ES
dc.contributor.affiliation Universitat Politècnica de València. Facultad de Bellas Artes - Facultat de Belles Arts es_ES
dc.description.bibliographicCitation León-Mendoza, R. (2022). La imagen como forma de (des)conocimiento en la era del deepfake. ANIAV - Revista de Investigación en Artes Visuales. (11):53-70. https://doi.org/10.4995/aniav.2022.17309 es_ES
dc.description.accrualMethod OJS es_ES
dc.relation.publisherversion https://doi.org/10.4995/aniav.2022.17309 es_ES
dc.description.upvformatpinicio 53 es_ES
dc.description.upvformatpfin 70 es_ES
dc.type.version info:eu-repo/semantics/publishedVersion es_ES
dc.description.issue 11 es_ES
dc.identifier.eissn 2530-9986
dc.relation.pasarela OJS\17309 es_ES
dc.description.references Adjer, Henry, Giorgio Patrini, Francesco Cavalli, y Laurence Cullen. 2019. «The state of deepfakes. Landscape, threats, and impact». https://regmedia.co.uk/2019/10/08/deepfake_report.pdf es_ES
dc.description.references Aldama, Juan Alonso. 2020. «Regímenes de veridicción y simulacros de la política». deSignis, n.o 33: 47‐55. https://doi.org/10.35659/designis.i33p47‐55 es_ES
dc.description.references «Análisis forense de imágenes». s. f. Text. https://peritos.online. Accedido 9 de abril de 2021. https://peritos.online/peritos‐judiciales/analisis‐forense‐de‐imagenes.html es_ES
dc.description.references BBC News Mundo. s. f. «Especial BBC: las "escalofriantes" grabaciones secretas del asesinato del periodista Jamal Khashoggi». Accedido 14 de abril de 2021. https://www.bbc.com/mundo/noticias‐internacional‐49892850 es_ES
dc.description.references Bregler, Christoph, Michele Covell, y Malcolm Slaney. 1997. «Video Rewrite: Driving Visual Speech with Audio», 8. https://doi.org/10.1145/258734.258880 es_ES
dc.description.references Cruz, Albano. 2019. «Seminario Deepfakes: ficción, política y algoritmos». En Madrid: Media‐Lab Prado. https://www.youtube.com/watch?v=BF27cuQ3MO0 es_ES
dc.description.references F. Casal, Ángela. s. f. «Vídeos y audios "deepfake": un paso más hacia el engaño en las redes sociales». UOC (Universitat Oberta de Catalunya). Accedido 28 de marzo de 2021. https://www.uoc.edu/portal/es/news/actualitat/2020/419‐videos‐audiosdeepfake.html es_ES
dc.description.references Fontcuberta, Joan. 1997. El beso de Judas: fotografía y verdad. G. Gili. es_ES
dc.description.references Gandasegui, Vicente Díaz. 2012. «Espectadores de Falsos Documentales: Los falsos documentales en la Sociedad de la Información». Athenea Digital: revista de pensamiento e investigación social 12 (3): 153‐62. https://doi.org/10.5565/rev/athenead/v12n3.993 es_ES
dc.description.references García Martínez, Alberto Nahum. 2007. «La traición de las imágenes: mecanismos y estrategias retóricas de la falsificación audiovisual». Zer (Bilbao, Spain), n.o 22. es_ES
dc.description.references Ges, Marcel. 2001. «Imágenes para la confusión». En Imágenes para la sospecha: falsos documentales y otras piruetas de la no‐ficción. Barcelona: Glénat. es_ES
dc.description.references Gloe, Thomas, Matthias Kirchner, Antje Winkler, y Rainer Böhme. 2007. «Can we trust digital image forensics?» En Proceedings of the 15th ACM international conference on Multimedia, 78‐86. MM '07. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/1291233.1291252 es_ES
dc.description.references González‐García, Ricardo. 2019. «Entre Fakes y Factoids: La Condición de Lo Falso En La Difusa Esfera Del Arte Contemporáneo Tras La Era de La Posverdad». Artnodes, n.o 24: 101‐10. https://doi.org/10.7238/a.v0i24.3287 es_ES
dc.description.references Lewis, Mark. 2019. A los gatos, ni tocarlos: Un asesino en internet. Documental. Netflix. https://www.filmaffinity.com/es/film700281.html es_ES
dc.description.references Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil. s. f. Accedido 9 de abril de 2021. https://www.boe.es/buscar/act.php?id=BOE‐A‐2000‐323 es_ES
dc.description.references Ley Orgánica 10/1995, de 23 de noviembre, del Código Penal. s. f. Accedido 9 de abril de 2021. https://www.boe.es/buscar/act.php?id=BOE‐A‐1995‐25444 es_ES
dc.description.references López Cantos, Francisco. 2010. «La imagen científica: tecnología y artefacto», agosto. https://doi.org/10.14198/MEDCOM2010.1.1.09 es_ES
dc.description.references López‐Cantos, Francisco, y Alejandro Maestre Gasteazi. 2019. «FAKE PICTURES. FALSIFICACIÓN DE IMÁGENES CIENTÍFICAS Y AVANCES ACTUALES EN EL ANÁLISIS FORENSE. ANÁLISIS DE CASOS». Perspectivas de la comunicación 12 (1): 209‐26. https://doi.org/10.4067/S0718‐48672019000100209 es_ES
dc.description.references Martínez, Víctor Cerdán, y Graciela Padilla Castillo. 2019. «Historia del "fake" audiovisual: "deepfake" y la mujer en un imaginario falsificado y perverso». Historia y Comunicación Social 24 (2): 505‐20. https://doi.org/10.5209/hics.66293 es_ES
dc.description.references Marzo, Jorge Luis (coord ). 2019. «La gestión matemática de la sinceridad. Algoritmos y veridicción». Artnodes, n.o 24: 1‐12. https://doi.org/10.7238/a.v0i24.3306 es_ES
dc.description.references Mendoza, Miguel Ángel. 2016. «Técnicas de análisis forense en imágenes digitales». es_ES
dc.description.references WeLiveSecurity. 9 de diciembre de 2016. https://www.welivesecurity.com/laes/2016/12/09/analisis‐forense‐imagenes‐digitales/. es_ES
dc.description.references Merino, Marcos. 2019. «Así es posible saber si un vídeo es un deepfake con sólo un abrir y cerrar de ojos, literalmente». Xataka. 3 de febrero de 2019. es_ES
dc.description.references https://www.xataka.com/inteligencia‐artificial/posible‐saber‐video‐deepfake‐soloabrir‐cerrar‐ojos‐literalmente‐quizas‐eso‐no‐sea‐suficiente. es_ES
dc.description.references Navarro, Jordi Sánchez, y Andrés Hispano. 2001. Imágenes para la sospecha: falsos documentales y otras piruetas de la no‐ficción. Glénat. es_ES
dc.description.references «New Steps to Combat Disinformation». 2020. Microsoft On the Issues. 1 de septiembre de 2020. https://blogs.microsoft.com/on‐the‐issues/2020/09/01/disinformationdeepfakes‐newsguard‐video‐authenticator/. es_ES
dc.description.references Nichols, Bill. 1997. La representación de la realidad: cuestiones y conceptos sobre el documental. Grupo Planeta (GBS). es_ES
dc.description.references O'Neil, Cathy. 2018a. Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros. es_ES
dc.description.references ---. 2018b. «Víctimas civiles: la justicia en la era del big data». En Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros. es_ES
dc.description.references Redi, Judith A., Judith A. Redi, Wiem Taktak, Wiem Taktak, Jean‐Luc Dugelay, y Jean‐Luc Dugelay. 2011. «Digital Image Forensics: A Booklet for Beginners». Multimedia Tools and Applications 51 (1): 133‐62. https://doi.org/10.1007/s11042-010-0620-1 es_ES
dc.description.references Tagg, John. 2005. «Un medio de vigilancia: la fotografía como prueba jurídica.» En El peso de la representación: ensayos sobre fotografías e historias. Gustavo Gili. «Talk to Transformer - InferKit». s. f. Accedido 18 de abril de 2021. https://app.inferkit.com/demo es_ES
dc.description.references Veiligheid, Ministerie van Justitie en. 2013. «Finding the Link between Camera and Image Camera Individualisation with PRNU Compare Professional from the Netherlands Forensic Institute». Brochure. Ministerie van Justitie en Veiligheid. https://www.forensicinstitute.nl/documents/publications/2017/03/06/brochureprnucompare‐professional. es_ES
dc.description.references Viúdez, Juana. 2015. «Causas "ágiles" y sin "preculpables"». El País, 13 de marzo de 2015, sec. Politica. https://elpais.com/politica/2015/03/13/actualidad/1426257058_210835.html es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem