Si tocan a Taylor, nos tocan a todas: la respuesta de las swifties a los deepfakes de la cantante

En un episodio lamentablemente recurrente, las imágenes falsas de Taylor Swift circularon rápidamente y acumularon millones de visualizaciones en cuestión de horas.

febrero 3, 2024 Escrito por Sara G. Pacho

Redactora de Bloom especializada en salud femenina, estilo de vida y feminismo. Licenciada en Sociología por la Universidad de Salamanca y en Periodismo por la Universidad Carlos III de Madrid. Máster en Comunicación como Agente Histórico-Social, especialidad en Lenguaje Audiovisual por la Universidad de Valladolid.

Revisado por el equipo de expertas de Bloom, plataforma especializada en salud femenina.

Ha vuelto a pasar: otra vez la red se ha llenado de desnudos explícitos falsos generados con inteligencia artificial. Igual que pasó hace unos meses con Rosalía, hace unos días fue Taylor Swift quien se encontró con la terrible sorpresa. Según la cadena NBC, los deepfakes de la cantante acumularon más de 27 millones de visitas y 260.000 likes en las 19 horas que estuvieron disponibles, antes de que la cuenta que los publicó fuera suspendida. El jefe de operaciones comerciales de X, Joe Benarroch, explicó que, además, la red bloqueó temporalmente las búsquedas que incluyeran el nombre de la estadounidense. 

La palabra deepfake hace referencia a archivos de vídeo, imagen o voz que han sido manipulados con IA para que parezcan reales. Puede utilizarse para “devolver a la vida” a personas que ya han muerto a partir de imágenes pasadas, como hizo una conocida marca de cerveza con la mismísima Lola Flores.

#ProtectTaylorSwift: la lección sorora de las swifties

A pesar de los esfuerzos por frenar la difusión de estos deepfakes, ocurrió todo lo contrario. Es lo que se conoce como “efecto Streisand”, cuyo nombre se debe a un incidente que protagonizó la actriz y cantante en 2003 cuando exigió a un fotógrafo que retirase de la red una imagen en la que aparecía en primer plano su casa en Malibú, que acabó dando la vuelta al mundo. 

La proliferación de este tipo de contenidos tiene sus raíces en grupos de Telegram y utiliza generadores de inteligencia artificial gratuitos de empresas como Microsoft, lo que plantea muchos interrogantes sobre la responsabilidad de las grandes corporaciones en este tema.

Tras el bloqueo en X, las imágenes fake de Swift se viralizaron aún más. Pero si de algo puede presumir la cantante es de tener una legión de fans absolutamente incondicionales. Las swifties, así se las conoce, no solo criticaron a la plataforma por permitir que esas imágenes fueran difundidas y participaron activamente en la campaña de denuncia masiva, sino que llenaron la red de clips reales de la artista utilizando el mismo hashtag, Taylor Swift IA, para enterrar todas esas fotos falsas, y generaron nuevas etiquetas de apoyo a su ídolo. Bravas.

taylor swift deepfake

Si no hay consentimiento es violencia

El uso de deepfakes presenta muchas amenazas: nos la pueden colar, por ejemplo, poniendo en boca de alguien palabras que no han dicho, pero una de las más preocupantes es precisamente esta, la generación de material pornográfico no consentido. El 99% de las víctimas de esta forma de violencia somos, por supuesto, las mujeres. Y es que el porno se utiliza, una vez más, como medio para intimidarnos o como instrumento de venganza. Ya no hace falta ni que cometamos el error de enviar una foto a quien no sabe respetar ni proteger nuestra privacidad para que nos hundan la vida. 

boobs-separator

Un estudio reciente de EEUU revela que ante el aumento del porno creado por IA los hombres, oh-sorpresa, no están tan preocupados como las mujeres y admiten consumirlo.

Esta forma de violencia se está volviendo cada vez más habitual no solo para las celebrities. Basta recordar el caso de las 22 denuncias en Almendralejo (Badajoz) para comprobar que se ejerce también en las esferas más íntimas y cercanas: menores de entre 12 y 14 años generaron y difundieron imágenes pornográficas creadas con un software de IA de sus propias compañeras. 

¿Es posible parar esto?

Esta alarmante ola de deepfakes no consentidos supone la invasión de la privacidad y un potente arma para atormentar a personas (sobre todo, mujeres) de cualquier ámbito. ¿Cómo se puede frenar esta forma de violencia? El uso de marcas de agua se plantea como una solución técnica, aunque son sistemas aún en desarrollo que no se aplican de manera generalizada. Otra barrera planteada es el uso de herramientas que actúen como escudos, distorsionando imágenes de manera que no puedan ser manipuladas con IA, pero serían soluciones temporales: las nuevas versiones de la generación de imágenes podrán, seguramente, sortear este obstáculo. 

¿Es la regulación la última línea de defensa que nos queda? ¿Cómo de efectiva sería? Tras el escándalo de Taylor Swift, una de las personas más populares en EEUU (si no la que más), en el país norteamericano parece que se quieren poner las pilas para evitar que algo así vuelva a suceder. 

taylor swift IA

No es Black Mirror: está pasando

A finales del año pasado, Sophie Compton y Reuben Hamlyn presentaron ‘Another Body’, un documental (disponible en Filmin) que aborda el caso de una estudiante de ingeniería (que casualmente se llama Taylor) que descubre, aterrorizada, que hay un vídeo pornográfico de ella circulando por internet. Pero no es ella, en realidad: se trata de una cinta manipulada para reemplazar la imagen de la actriz por la suya. Se trata de otra manera más de denunciar los deepfakes, enfatizando en el hecho de que las víctimas rara vez llegan a conocer al autor de esta agresión y que se trata de un daño difícilmente irreparable: lo que llega a internet se queda allí para siempre. 

Los creadores de este documental han creado, además, un movimiento cultural para abordar este uso de imágenes íntimas. Con #MyImageMyChoice quieren seguir señalando las consecuencias devastadoras que tienen los deepfakes: «El abuso de la imagen íntima puede tener impactos devastadores e incluso potencialmente mortales. Pero los gobiernos y las plataformas tecnológicas no están haciendo nada para abordarlo. Los sitios web de abuso de imágenes íntimas, basados en la violación del consentimiento, se han convertido en prósperos negocios en línea.«

En Europa, el Instituto Europeo para la Igualdad de Género considera estas creaciones una forma más de agresión machista, según lo dispuesto en su informe sobre ciberviolencia contra las mujeres.

Imagen: Wikimedia

¿Te ha gustado este post?

¡Queremos saberlo!