Mostrar el registro sencillo del ítem
dc.contributor.author | León-Mendoza, Raúl![]() |
es_ES |
dc.date.accessioned | 2022-10-05T11:54:18Z | |
dc.date.available | 2022-10-05T11:54:18Z | |
dc.date.issued | 2022-09-30 | |
dc.identifier.uri | http://hdl.handle.net/10251/187067 | |
dc.description.abstract | [EN] The machines that produce deepfakes do not need the real world to produce plausible representations. This should produce a veracity crisis of the image. However, institutions such as justice maintain confidence in the image as an epistemological tool. In a social context of deep suspicion about any type of representation, the image is still used to determine what is true and what is false.Since the appearance of deepfake, measures and countermeasures have been taking place, mostly dependent on artificial intelligence, aimed to maintain the images as part of the methods we use to interpret the world.In this article, through different case studies, bibliography and relevant documents on the subject, the different methods of authentication of images as faithful representations of reality are described. These unite the old fake pictures, with the new phenomenon of deepfake.We conclude by questioning whether at present images are a simple reflection of our desire to see what we wish. So all images are an artistic agency. At the same time that we have abandoned completely and handed over to machines our critical capacity for determining truth. In this context, reality is decided by its plausible appearance, but not by its meaning. | es_ES |
dc.description.abstract | [ES] Las máquinas que producen deepfakes no necesitan del mundo real para producir representaciones verosímiles. Esto debería producir la crisis del viejo contrato de veridicción que mantenemos con las imágenes. La irrupción del deepfake convierte la totalidad de las imágenes en materiales para una agencia artística. Sin embargo, instituciones como la justicia mantienen la confianza en la imagen como dispositivo de conocimiento. En un contexto social de profunda sospecha sobre cualquier tipo de representación, la imagen aún se utiliza para determinar lo verdadero y lo falso. Desde la aparición del deepfake se suceden medidas y contramedidas, cada vez más dependientes de la inteligencia artificial, destinadas a seguir manteniendo a las imágenes como parte del aparato epistemológico que empleamos para conocer el mundo.En este artículo, a través de diferentes estudios de caso, bibliografía y documentos relevantes sobre el tema, se traza una línea sobre el esfuerzo por comprobar la autenticidad de las imágenes como representaciones fieles de la realidad. Esta línea une las viejas fake pictures, con el nuevo fenómeno del deepfake. Concluimos cuestionándonos si las imágenes no son ya sólo un simple reflejo de nuestros deseos de ver, al tiempo que hemos abandonado y entregado totalmente a las máquinas nuestro aparato crítico de determinación de la verdad. En este contexto, lo que es real se dirime en una conversación en entre máquinas (GAN) por su apariencia verosímil, pero no por su contenido. | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.relation.ispartof | ANIAV - Revista de Investigación en Artes Visuales | es_ES |
dc.rights | Reconocimiento (by) | es_ES |
dc.subject | Image | es_ES |
dc.subject | Representation | es_ES |
dc.subject | Knowledge | es_ES |
dc.subject | Deepfake | es_ES |
dc.subject | Truth | es_ES |
dc.subject | Artificial intelligence | es_ES |
dc.subject | Imagen | es_ES |
dc.subject | Representación | es_ES |
dc.subject | Conocimiento | es_ES |
dc.subject | Verdad | es_ES |
dc.subject | Inteligencia artificial | es_ES |
dc.title | La imagen como forma de (des)conocimiento en la era del deepfake | es_ES |
dc.title.alternative | The image as a form of (un)knowing in the era of deepfake | es_ES |
dc.type | Artículo | es_ES |
dc.identifier.doi | 10.4995/aniav.2022.17309 | |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Escultura - Departament d'Escultura | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Facultad de Bellas Artes - Facultat de Belles Arts | es_ES |
dc.description.bibliographicCitation | León-Mendoza, R. (2022). La imagen como forma de (des)conocimiento en la era del deepfake. ANIAV - Revista de Investigación en Artes Visuales. (11):53-70. https://doi.org/10.4995/aniav.2022.17309 | es_ES |
dc.description.accrualMethod | OJS | es_ES |
dc.relation.publisherversion | https://doi.org/10.4995/aniav.2022.17309 | es_ES |
dc.description.upvformatpinicio | 53 | es_ES |
dc.description.upvformatpfin | 70 | es_ES |
dc.type.version | info:eu-repo/semantics/publishedVersion | es_ES |
dc.description.issue | 11 | es_ES |
dc.identifier.eissn | 2530-9986 | |
dc.relation.pasarela | OJS\17309 | es_ES |
dc.description.references | Adjer, Henry, Giorgio Patrini, Francesco Cavalli, y Laurence Cullen. 2019. «The state of deepfakes. Landscape, threats, and impact». https://regmedia.co.uk/2019/10/08/deepfake_report.pdf | es_ES |
dc.description.references | Aldama, Juan Alonso. 2020. «Regímenes de veridicción y simulacros de la política». deSignis, n.o 33: 47‐55. https://doi.org/10.35659/designis.i33p47‐55 | es_ES |
dc.description.references | «Análisis forense de imágenes». s. f. Text. https://peritos.online. Accedido 9 de abril de 2021. https://peritos.online/peritos‐judiciales/analisis‐forense‐de‐imagenes.html | es_ES |
dc.description.references | BBC News Mundo. s. f. «Especial BBC: las "escalofriantes" grabaciones secretas del asesinato del periodista Jamal Khashoggi». Accedido 14 de abril de 2021. https://www.bbc.com/mundo/noticias‐internacional‐49892850 | es_ES |
dc.description.references | Bregler, Christoph, Michele Covell, y Malcolm Slaney. 1997. «Video Rewrite: Driving Visual Speech with Audio», 8. https://doi.org/10.1145/258734.258880 | es_ES |
dc.description.references | Cruz, Albano. 2019. «Seminario Deepfakes: ficción, política y algoritmos». En Madrid: Media‐Lab Prado. https://www.youtube.com/watch?v=BF27cuQ3MO0 | es_ES |
dc.description.references | F. Casal, Ángela. s. f. «Vídeos y audios "deepfake": un paso más hacia el engaño en las redes sociales». UOC (Universitat Oberta de Catalunya). Accedido 28 de marzo de 2021. https://www.uoc.edu/portal/es/news/actualitat/2020/419‐videos‐audiosdeepfake.html | es_ES |
dc.description.references | Fontcuberta, Joan. 1997. El beso de Judas: fotografía y verdad. G. Gili. | es_ES |
dc.description.references | Gandasegui, Vicente Díaz. 2012. «Espectadores de Falsos Documentales: Los falsos documentales en la Sociedad de la Información». Athenea Digital: revista de pensamiento e investigación social 12 (3): 153‐62. https://doi.org/10.5565/rev/athenead/v12n3.993 | es_ES |
dc.description.references | García Martínez, Alberto Nahum. 2007. «La traición de las imágenes: mecanismos y estrategias retóricas de la falsificación audiovisual». Zer (Bilbao, Spain), n.o 22. | es_ES |
dc.description.references | Ges, Marcel. 2001. «Imágenes para la confusión». En Imágenes para la sospecha: falsos documentales y otras piruetas de la no‐ficción. Barcelona: Glénat. | es_ES |
dc.description.references | Gloe, Thomas, Matthias Kirchner, Antje Winkler, y Rainer Böhme. 2007. «Can we trust digital image forensics?» En Proceedings of the 15th ACM international conference on Multimedia, 78‐86. MM '07. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/1291233.1291252 | es_ES |
dc.description.references | González‐García, Ricardo. 2019. «Entre Fakes y Factoids: La Condición de Lo Falso En La Difusa Esfera Del Arte Contemporáneo Tras La Era de La Posverdad». Artnodes, n.o 24: 101‐10. https://doi.org/10.7238/a.v0i24.3287 | es_ES |
dc.description.references | Lewis, Mark. 2019. A los gatos, ni tocarlos: Un asesino en internet. Documental. Netflix. https://www.filmaffinity.com/es/film700281.html | es_ES |
dc.description.references | Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil. s. f. Accedido 9 de abril de 2021. https://www.boe.es/buscar/act.php?id=BOE‐A‐2000‐323 | es_ES |
dc.description.references | Ley Orgánica 10/1995, de 23 de noviembre, del Código Penal. s. f. Accedido 9 de abril de 2021. https://www.boe.es/buscar/act.php?id=BOE‐A‐1995‐25444 | es_ES |
dc.description.references | López Cantos, Francisco. 2010. «La imagen científica: tecnología y artefacto», agosto. https://doi.org/10.14198/MEDCOM2010.1.1.09 | es_ES |
dc.description.references | López‐Cantos, Francisco, y Alejandro Maestre Gasteazi. 2019. «FAKE PICTURES. FALSIFICACIÓN DE IMÁGENES CIENTÍFICAS Y AVANCES ACTUALES EN EL ANÁLISIS FORENSE. ANÁLISIS DE CASOS». Perspectivas de la comunicación 12 (1): 209‐26. https://doi.org/10.4067/S0718‐48672019000100209 | es_ES |
dc.description.references | Martínez, Víctor Cerdán, y Graciela Padilla Castillo. 2019. «Historia del "fake" audiovisual: "deepfake" y la mujer en un imaginario falsificado y perverso». Historia y Comunicación Social 24 (2): 505‐20. https://doi.org/10.5209/hics.66293 | es_ES |
dc.description.references | Marzo, Jorge Luis (coord ). 2019. «La gestión matemática de la sinceridad. Algoritmos y veridicción». Artnodes, n.o 24: 1‐12. https://doi.org/10.7238/a.v0i24.3306 | es_ES |
dc.description.references | Mendoza, Miguel Ángel. 2016. «Técnicas de análisis forense en imágenes digitales». | es_ES |
dc.description.references | WeLiveSecurity. 9 de diciembre de 2016. https://www.welivesecurity.com/laes/2016/12/09/analisis‐forense‐imagenes‐digitales/. | es_ES |
dc.description.references | Merino, Marcos. 2019. «Así es posible saber si un vídeo es un deepfake con sólo un abrir y cerrar de ojos, literalmente». Xataka. 3 de febrero de 2019. | es_ES |
dc.description.references | https://www.xataka.com/inteligencia‐artificial/posible‐saber‐video‐deepfake‐soloabrir‐cerrar‐ojos‐literalmente‐quizas‐eso‐no‐sea‐suficiente. | es_ES |
dc.description.references | Navarro, Jordi Sánchez, y Andrés Hispano. 2001. Imágenes para la sospecha: falsos documentales y otras piruetas de la no‐ficción. Glénat. | es_ES |
dc.description.references | «New Steps to Combat Disinformation». 2020. Microsoft On the Issues. 1 de septiembre de 2020. https://blogs.microsoft.com/on‐the‐issues/2020/09/01/disinformationdeepfakes‐newsguard‐video‐authenticator/. | es_ES |
dc.description.references | Nichols, Bill. 1997. La representación de la realidad: cuestiones y conceptos sobre el documental. Grupo Planeta (GBS). | es_ES |
dc.description.references | O'Neil, Cathy. 2018a. Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros. | es_ES |
dc.description.references | ---. 2018b. «Víctimas civiles: la justicia en la era del big data». En Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros. | es_ES |
dc.description.references | Redi, Judith A., Judith A. Redi, Wiem Taktak, Wiem Taktak, Jean‐Luc Dugelay, y Jean‐Luc Dugelay. 2011. «Digital Image Forensics: A Booklet for Beginners». Multimedia Tools and Applications 51 (1): 133‐62. https://doi.org/10.1007/s11042-010-0620-1 | es_ES |
dc.description.references | Tagg, John. 2005. «Un medio de vigilancia: la fotografía como prueba jurídica.» En El peso de la representación: ensayos sobre fotografías e historias. Gustavo Gili. «Talk to Transformer - InferKit». s. f. Accedido 18 de abril de 2021. https://app.inferkit.com/demo | es_ES |
dc.description.references | Veiligheid, Ministerie van Justitie en. 2013. «Finding the Link between Camera and Image Camera Individualisation with PRNU Compare Professional from the Netherlands Forensic Institute». Brochure. Ministerie van Justitie en Veiligheid. https://www.forensicinstitute.nl/documents/publications/2017/03/06/brochureprnucompare‐professional. | es_ES |
dc.description.references | Viúdez, Juana. 2015. «Causas "ágiles" y sin "preculpables"». El País, 13 de marzo de 2015, sec. Politica. https://elpais.com/politica/2015/03/13/actualidad/1426257058_210835.html | es_ES |