imagenes_explicitas_y_falsas_de_taylor_swift_se_esparcen_en_redes_7817634ccb
Escena

Imágenes explícitas y falsas de Taylor Swift se esparcen en redes

Imágenes falsas sexualmente explícitas y abusivas de la cantante estadounidense Taylor Swift comenzaron a circular ampliamente esta semana en la plataforma X.


  • 26
  • Enero
    2024

Imágenes pornográficas de Taylor Swift circulan en internet, lo que convierte a la cantante en la víctima más famosa de un flagelo que las plataformas tecnológicas que los grupos antiabuso luchan por solucionar.

Imágenes falsas sexualmente explícitas y abusivas de Swift comenzaron a circular ampliamente esta semana en X (antes Twitter).

Su ferviente base de fans se movilizó rápidamente, lanzando una contraofensiva en la plataforma con el hashtag #ProtectTaylorSwift para inundarla con imágenes más positivas de la estrella del pop. Algunos dijeron que estaban reportando cuentas que compartían los deepfakes (imágenes manipuladas mediante inteligencia artificial).

El grupo de detección de deepfakes, Reality Defender, dijo que rastreó una avalancha de material pornográfico no consensuado que representaba a Swift, particularmente en X. Algunas imágenes también llegaron a Facebook y a otras plataformas de redes sociales.

“Desafortunadamente, se extendieron a millones y millones de usuarios, incluso para cuando algunas de ellas fueron eliminadas”, dijo Mason Allen, jefe de crecimiento de Reality Defender.

Los investigadores encontraron más de una veintena de imágenes generadas por IA. Las más compartidas estaban relacionadas con el fútbol, mostraban a Swift pintada o ensangrentada de una forma que la cosificaba y, en algunos casos, infligía un daño violento a su imagen de deepfake.

Los investigadores han dicho que el número de deepfakes explícitos ha crecido en los últimos años, ya que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar.

En 2019, un informe publicado por la empresa de inteligencia artificial DeepTrace Labs mostró que estas imágenes se usaban abrumadoramente contra las mujeres. La mayoría de las víctimas, dijo, eran actrices de Hollywood y cantantes de K-pop.

Brittany Spanos, reportera sénior de Rolling Stone que imparte un curso sobre Swift en la Universidad de Nueva York, dice que los fans de Swift se movilizan rápidamente en apoyo a la artista, especialmente aquellos que se toman muy en serio su fanatismo y en situaciones en las que haya una conducta inapropiada.

“Esto podría ser un gran problema si ella realmente lo lleva a los tribunales”, dijo.

Spanos dice que el problema de la pornografía deep fake se suma a otros que Swift ha enfrentado en el pasado, señalando su demanda de 2017 contra un DJ de una estación de radio que supuestamente la manoseó.

Los miembros del jurado otorgaron a Swift 1 dólar en daños y perjuicios, una suma que su abogado, Douglas Baldridge, calificó como “un solo dólar simbólico, cuyo valor es inconmensurable para todas las mujeres en esta situación” en medio del movimiento MeToo.

Allen dijo que los investigadores están 90% seguros de que las imágenes fueron creadas por modelos de difusión, que son un tipo de modelo de inteligencia artificial generativa que puede producir imágenes nuevas y fotorrealistas a partir de indicaciones escritas. Las más conocidas son Stable Diffusion, Midjourney y DALL-E de OpenAI. El grupo de Allen no trató de determinar la procedencia.


Comentarios

publicidad
×