Aula Virtual

Mapa web
Accesibilidad
Actualidad
Blog
 
Blog de la URJC online. La información más cerca en URJC online.
Miércoles, 20 Mayo 2020 08:59

Deepfakes. Las falsificaciones audiovisuales, una nueva arma al servicio de la desinformación

Escrito por
Valora este artículo
(4 votos)

Internet y los medios de comunicación sociales se han convertido en un canal privilegiado para la desinformación y las falsificaciones digitales.

Rubén Arcos y Manuel Gértrudix

La lucha contra la desinformación, incluido su uso como herramienta en campañas de influencia hostil por parte de Estados y actores no-estatales, es un eje prioritario en la acción de la Unión Europea, de los gobiernos, de entidades no gubernamentales, asociaciones y organizaciones periodísticas de todo el mundo. El alcance de iniciativas como EUvsDisinfo del Servicio Europeo de Acción Exterior, el Plan de Acción de la Unión Europea contra la Desinformación, el Centro Europeo de Excelencia para Combatir las Amenazas Híbridas – Hybrid CoE, el SOMA (Social Observatory for Disinformation and Social Media Analysis), o la licitación para la creación del Observatorio Europeo de Medios Digitales de la Dirección General de Sociedad de la Información y Medios de Comunicación de la Unión Europea muestran la notable preocupación que genera.

 La pandemia del COVID-19 ha supuesto un nuevo estadio en este proceso de creciente desorden informativo con una propagación sin precedentes de desinformación, teorías conspiratorias y especulaciones que están siendo enfrentadas con campañas dirigidas por los principales organismos internacionales como la Organización Mundial de la Salud (OMS) o la Unión Europea o nacionales como la Oficina de Seguridad del Internauta.

En este contexto, los contenidos audiovisuales se han convertido en el nuevo caballo de batalla de este proceso. Las denominadas deepfakes suponen una manipulación de vídeos, audios o fotos para atribuir, habitualmente a una persona pública, manifestaciones o acciones que no ha realizado con finalidades diversas como denostar su reputación, generar confusión, introducir incertidumbre o generar reacciones impulsivas. Aunque la mayor parte de la desinformación que circula por la red actualmente es escrita, parece que "a medida que se siga avanzando en la generación de lenguaje natural, los agentes malintencionados serán cada vez más capaces de generar, de forma controlada y a escala, propaganda audiovisual con un aspecto muy realista" (Zellers et al., 2019).

"Los denominados #deepfakes suponen una manipulación de vídeos, audios o fotos para atribuir, habitualmente a una persona pública, manifestaciones o acciones que no ha realizado" @RubenArcosM @gertrudix @CRESCEnt_EU #URJCx Twittea esto

La democratización de la tecnología para la edición de fotografías y videos ya permite su uso malintencionado por parte de diferentes actores con el objetivo de influir en cogniciones, actitudes y decisiones. Sin embargo, el desarrollo de la Inteligencia Artificial puede suponer un nuevo nivel para la desinformación y abrir un escenario de inevitable diseminación de noticias falsas y falsificaciones en formatos audiovisuales. Como señala Herb Lin, esto puede presentar en el futuro un problema mayor que la simple desinformación basada en texto ya que las falsificaciones audiovisuales profundas pueden desencadenar fuertes emociones en los destinatarios (Bayer 2019). Incluso aunque posteriormente se compruebe la falta de fiabilidad y credibilidad de la fuente, el contenido audiovisual puede ser recordado de manera que sea difícil deshacer la impresión que el primer impacto información visual haya generado. La investigación científica ha demostrado ya el extraordinario poder de las imágenes para generar impacto y recuerdo (Medina, 2014). El conocido efecto de superioridad de la imagen (Stenberg, 2006) muestra cómo las imágenes y los vídeos, por su carácter simbólico, pueden desencadenar respuestas emocionales y, por lo tanto, ser utilizados por actores malintencionados en campañas de propaganda y desinformación. La capacidad de codificación dual de las imágenes (Paivio, 1991) las convierte, así, en un arma especialmente valiosa para la desinformación y para acrecentar el desorden informativo, puesto que, cuando se trata de medios sociales, sabemos por las estadísticas que los artículos, posts, tweets y similares con imágenes son más compartidos. Además, este tipo de desinformación audiovisual puede contribuir a incrementar la sensación de incertidumbre que reduzca la confianza en la información distribuida en redes sociales, lo que aumenta la indeterminación y el cinismo de los ciudadanos ante los hechos (Vaccari & Chadwick, 2020), minando la credibilidad de las instituciones democráticas.

 

 

Imágenes fuente: This person does not exist. Hints adaptados de McDonald 2018

Es muy probable que los futuros avances en la tecnología Deepfake dificulten o hagan necesario mucho tiempo y cierto entrenamiento para detectar imágenes o vídeos falsos y que sólo con la ayuda de la Inteligencia Artificial podamos detectar estas falsificaciones. La mejora de la tecnología deepfake, como las Redes Neuronales Generativas Adversarias (GANs), hace cada vez más sencillo producir imágenes falsas con resultados en los que resulta complejo distinguir el engaño. Un ejemplo de ello podemos verlo en el sitio web "Esta persona no existe" que muestra imágenes de personas generadas mediante estas tecnologías de forma que, cada vez que se actualiza el navegador, el sitio web muestra una imagen de alguien que no existe. Pero también mediante la creación de voice skins o el clonado de voces.

La investigación forense de imágenes, visuales y sonoras, será necesaria para detectar algunas de estas manipulaciones y se convertirá en una habilidad importante con la proliferación de la desinformación y la propaganda en línea. De la misma manera que la inteligencia artificial y el aprendizaje profundo pueden ser utilizados de manera maliciosa para crear deepfakes, también pueden ser utilizados para ayudar a detectar dichas manipulaciones. En esta línea, las iniciativas desarrolladas por Facebook (Enforcing Against Manipulated Media), Twitter (Synthetic and manipulated media policy) y Google (herramienta Assembler), o las aplicaciones para la "detección de manipulación maliciosa con imágenes digitales" (Fridrich, Soukal, y Lukáš, 2003) como Forensically, desarrollada por Jonas Wagner, representan una primera línea de contención tan necesaria como útil.

Marcelo Knobel recordaba recientemente el papel fundamental que las instituciones de Educación Superior tienen en formar y educar a sus estudiantes y a la sociedad en general para una información basada en la evidencia. En ese compromiso, el MOOC Strategic Communication to Counter Security Threats in the Disinformation Era, desarrollado dentro del proyecto CRESCEnt (Mind the Gap in media coverage and strategic communication in case of security threats - the development of critical thinking and responsible reaction), con la cofinanciación del Programa Erasmus+ de la Unión Europea, ofrece herramientas para que los portavoces institucionales, los periodistas y los futuros comunicadores mejoren sus conocimientos y competencias clave para desarrollar resiliencia ante la desinformación, las noticias falsas y las campañas híbridas de influencia a través de la información. ¿Te lo vas a perder?

Referencias:

Bayer, Judit et al. (2019). Disinformation and propaganda – impact on the functioning of the rule of law in the EU and its Member States

Gabriel, M. (2018): “Europe and Disinformation”, en Fondation Robert Schuman/European Issues, 524:1-6. Disponible en: https://www.robert-schuman.eu/en/european-issues/0524-europe-and-disinformation

Paivio, A. (1991). Dual coding theory: Retrospect and current status. Canadian Journal of Psychology/Revue canadienne de psychologie, 45(3), 255.

Lin, Herb (2018) “The Danger of Deep Fakes: Responding to Bobby Chesney and Danielle Citron,” Lawfare Blog

Li, H. O. Y., Bailey, A. M., Huynh, D., & Chan, J. W. (2020). YouTube as a Source of Information on COVID-19: A Pandemic of Misinformation?

Medina, John. Brain Rules (Updated and Expanded): 12 Principles for Surviving and Thriving at Work, Home, and School. Kindle version.Seattle: Pear Press.

Stenberg, Georg (2006). “Conceptual and perceptual factors in the picture superiority effect,” European Journal of Cognitive Psychology, 18:6, 813-847, DOI: 10.1080/09541440500412361

Vaccari, C., & Chadwick, A. (2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society. https://doi.org/10.1177/2056305120903408

Zellers, Rowan et al. (2019). Defending against neural fake news. arXiv preprint. Available at: Arxiv

Imágenes fuente: This person does not exist. Hints adaptados de McDonald 2018.

 

Visto 148 veces