Apocalipsis informativo: Todo sobre los deepfakes
VÍDEO: Las imágenes manipuladas, los vídeos falsos y las noticias generadas por computadora son más fáciles que nunca de crear y distribuir. He aquí por qué debe preocuparse y qué puede hacer.
Manténgase informado
Suscríbase al boletín de noticias de Knowable en español
Hoy en día, la potencia de las computadoras y la inteligencia artificial han democratizado la creación de contenidos falsos. Se pueden sintetizar imágenes, manipular vídeos, imitar el audio y escribir textos, todo ello mediante redes neuronales de aprendizaje profundo. A continuación, pueden difundirse en las plataformas de las redes sociales, distorsionando nuestra realidad compartida. El experto en imagen digital Hany Farid, de la Universidad de Berkeley, analiza cómo se crean las formas falsas de medios de comunicación, cómo proliferan, los peligros que plantean y lo que la gente puede hacer para protegerse de ellas.
Transcripción del vídeo:
Hany Farid (investigador forense de imágenes digitales, Escuela de Información de la UC Berkeley): “Estamos en un apocalipsis de la información. Y el hecho es que la mayoría de la gente obtiene ahora sus noticias de Facebook y de las redes sociales. Eso debería asustar a todo el mundo”.
“Hace veinte años, en mi laboratorio, empezamos a centrarnos en el desarrollo de estas técnicas forenses para autentificar contenidos. De hecho, ese era un campo de nicho, y algo extraño y asombroso sucedió en 20 años, que es que Internet explotó, los teléfonos celulares, los dispositivos móviles explotaron, los medios sociales explotaron, y entonces empezamos a ver información errónea y desinformación diseñada para perturbar las elecciones democráticas y así los disturbios civiles, la pornografía no consentida, y el fraude a pequeña y gran escala que están teniendo un gran impacto en nuestra economía”.
“La manipulación fotográfica no es nueva. Si miran hacia atrás en la historia, es conocido el hecho de que Stalin eliminó a personas de las fotografías con un aerógrafo. Mao lo hizo. Hitler lo hizo. Literalmente, tomaban imágenes en las que un día eran sus amigos y luego caían en desgracia y simplemente desaparecían de las fotografías. Pero, cuando Stalin lo hizo, había probablemente 10 personas en el mundo que podían hacerlo, así que estaba en manos de unos pocos y, por supuesto, no teníamos el mecanismo de distribución que tenemos hoy”.
Imagen deepfake de Kim Kardashian: “Realmente amo el proceso de manipular a la gente en Internet por dinero”.
Hany Farid: “Hay cuatro ramas de los deepfakes: texto, audio, imagen y vídeo. Ahora tenemos la capacidad de escribir un titular, y después entregar ese titular a un sistema informático, y este escribirá un artículo — un artículo completo, de arriba a abajo— basado en el titular, y es realmente bueno. ¿Y por qué deberíamos preocuparnos por eso? Bueno, imagine que quiero crear campañas de desinformación y puedo entrenar a estas cosas para que escriban artículos con una voz determinada, y puedo bombardear Internet con estas cosas”.
“En el ámbito del audio, tenemos tecnología para sintetizar el discurso en la voz de una persona. Así que se grabaría un par de horas de mí hablando, y luego se haría lo que se llama 'texto a voz'. Yo teclearía y la computadora me sintetizaría diciendo cualquier cosa que usted quiera que diga. Tenemos tecnología que sintetizará imágenes de personas que nunca han existido. Hay un sitio web increíble que se llama thispersondoesnotexist.com (esta persona no existe), y cuando usted va a ese sitio, haciendo honor a su nombre, le mostrará una imagen de una persona que no existe: hombres, mujeres, diferentes razas, diferentes edades, gafas, vello facial, increíblemente bien hecho. Y ya hemos visto los primeros usos nefastos de esa tecnología en la creación de perfiles falsos en Twitter, en YouTube, en Facebook y en LinkedIn para empezar a promover noticias falsas, para sembrar disturbios civiles, para cometer fraudes. Y luego, quizá la mayor amenaza sea el vídeo falso”.
Imagen deepfake de Jeff Bezos: “Hola, soy Deepfake Bezos”.
Imagen deepfake del presidente Obama: “El presidente Trump es un total y completo beep”.
Hany Farid: “Hay tres tipos de deepfakes hoy en día. Hay face-swap (cambio de cara), lip-sync (sincronización de labios) y puppet master (marioneta). El face-swap, como su nombre indica, tomo un vídeo mío hablando y pongo la cara de otra persona, desde las cejas hasta la barbilla aproximadamente, sobre la mía, fotograma tras fotograma tras fotograma, y parece otra persona. El deepfake de sincronización labial es cuando usted me toma hablando como lo estoy haciendo ahora y tiene una nueva pista de audio sintetizada, y simplemente reemplaza mi boca para que sea consistente con esa pista de audio. Así que habré estado diciendo una cosa, pero el vídeo falso soy yo diciendo algo completamente diferente”.
Imágenes deepfake del presidente Obama: “La NBC se alegra. ¿Por qué? Los idiotas de Fox TV preguntan al Primer Ministro”.
Hany Farid: “Y el deepfake del titiritero —en cierto modo, la mayor amenaza— tomas una sola imagen estática de mí, y luego tienes a un titiritero sentado frente a la cámara y habla y se mueve, y entonces mi cara se anima de acuerdo con sus movimientos. Y luego, por supuesto, le añades la pista de audio”.
“Así que puede ver por qué la gente está preocupada por el vídeo deepfake en particular y por el audio, porque se pueden poner literalmente palabras en la boca de las personas”.
Imagen deepfake del presidente Obama: “Verá, yo nunca diría estas cosas, al menos no en un discurso público, pero alguien más lo haría, alguien...”
Jordan Peele: “... como Jordan Peele”.
Hany Farid: “Ya sea que un candidato presidencial diga algo como “He lanzado armas nucleares” o algo racista o ilegal, o que sea un CEO que diga: “Nuestras ganancias han bajado un 10 %” y el mercado de valores mueve miles de millones de dólares instantáneamente, o cualquier cosa entre esas cosas”.
Imagen deepfake de Mark Zuckerberg: “Imagine esto por un segundo: un hombre con el control total de los datos robados de miles de millones de personas —todos sus secretos, sus vidas, sus futuros—”.
Hany Farid: “¿Cómo funciona? En realidad, tiene dos sistemas informáticos, dos algoritmos: uno se llama motor de síntesis y el otro se llama detector. Y el motor de síntesis, su trabajo es generar una imagen de una persona. Así que esto es lo que hace: toma una imagen, y le pone un montón de píxeles. Son solo píxeles al azar en la imagen, cierto, así que, si lo miraras, dirías: “Esto no es nada”. Y la entrega a un detector, y el trabajo del detector, es decir: ‘¿Es esto una persona?’ Y lo que tiene a su disposición es un montón de imágenes de personas reales, y entonces las compara; dice: ‘¿Sabes qué? Puedo notar la diferencia’. Y entonces vuelve al motor de síntesis y dice: ‘No, esto no es una persona’. Y el motor de síntesis modifica unos cuantos píxeles y los devuelve, y hacen eso unos cuantos millones, cientos de millones de veces, y finalmente lo que ocurrirá es que el motor de síntesis —no totalmente por ensayo y error, pero sí un poco por ensayo y error— acabará creando una imagen en la que el detector diga: ‘Sí, esto se parece a todas estas otras personas’, y es una persona que no existe. Eso es todo”.
“Y así, la razón por la que lo llamamos 'síntesis' es que se está sintetizando toda la materia. Y eso es cierto, por cierto, ya sea texto, audio, imagen o vídeo: esa misma tecnología subyacente subyace a todo ello”.
“Entonces, ¿hacia dónde vamos como sociedad, como democracia, como grupo de personas que tienen que tener un conjunto compartido de hechos de lo que ocurre en el mundo? Tenemos diferentes opiniones, pero tenemos que tener un conjunto común de hechos. Y si todos pueden simplemente empezar a afirmar que las noticias que no les gustan son falsas, y todo el mundo vive en estas cámaras de eco de las redes sociales, donde ven las cosas que se ajustan a sus puntos de vista previos, ¿dónde estamos como democracia en esta sociedad? ¿Cómo vamos a entender a la gente que es diferente a nosotros? ¿Cómo vamos a tener una democracia? Y ahí radica, en mi opinión, la mayor amenaza del deepfake —es parte de un continuo, pero realmente lo que es, es que estamos llegando a este punto en el que el texto y el audio y la imagen y el vídeo en línea simplemente ya no son de confianza”.
Imagen deepfake del presidente Nixon: “El destino ha ordenado que los hombres que fueron a la Luna para explorar en paz se queden en la Luna para descansar en paz”.
Hany Farid: “Hemos analizado qué tan bien puede detectar las personas los contenidos manipulados: somos terribles en eso, somos simplemente malos. Y lo que es especialmente peligroso en este caso es que, como estamos tan expuestos a las imágenes digitales y al vídeo digital, creemos que somos buenos en ello, pero no lo somos”.
“Dos consejos: Vaya más despacio y tenga una buena dosis de escepticismo. Lo de ‘ir más despacio’ es importante, cierto, porque somos muy rápidos en línea, respondemos muy rápido, porque estamos siendo manipulados. Pero la otra es que solo tenemos que devolver el viejo adagio de que las afirmaciones excepcionales requieren pruebas excepcionales. ¿Realmente tenemos que tener una conversación sobre si Hillary Clinton está dirigiendo una red de pornografía infantil desde una pizzería en DC? Quiero decir, ¿es este realmente el mundo que estamos ocupando ahora?”
“Aquí está la tercera: elimine su cuenta de Facebook, elimine su cuenta de Twitter y salga de YouTube, porque honestamente la podredumbre que son las redes sociales está pudriendo su cerebro, está pudriendo nuestra sociedad y está destruyendo nuestra democracia. Así que, si usted pudiera escoger una sola cosa, simplemente abandonaría las redes sociales, porque creo que cualquier cosa buena que hubiera salido de ellas hace tiempo que nos ha superado, y ahora es en gran medida negativa y deberíamos abandonarlas. Es un experimento fallido, y deberíamos ir y tratar de hacer otra cosa. Por cierto, recibo financiamiento de Facebook, solo debería [decirlo], para una completa transparencia, así que ya saben, veremos si esa subvención se renueva”.
Artículo traducido por Debbie Ponchner
10.1146/knowable-082922-4
Apoye a la revista Knowable
Ayúdenos a hacer que el conocimiento científico sea accesible para todos
DONAREXPLORE MÁS | Lea artículos científicos relacionados