Las plataformas digitales han sido invadidas por imágenes sexualmente explícitas de la influyente cantante estadounidense Taylor Swift, generadas mediante inteligencia artificial (IA) conocidas como deepfakes porno.
Estas falsificaciones, que no son nuevas pero han ido en aumento, suscitaron gran atención cuando una cuenta verificada en la red social X compartió las imágenes, acumulando millones de visualizaciones antes de ser suspendida por violar las políticas de la plataforma.
Aunque la cuenta original fue bloqueada, la propagación de las imágenes continuó en otras, desafiando los esfuerzos de las plataformas por contener el contenido. Taylor Swift, según informes, está considerando emprender acciones legales contra la web responsable de la primera publicación. Este incidente destaca los riesgos y desafíos asociados con la proliferación de pornografía falsa generada por IA, especialmente dirigida a mujeres.
Incluso después de la intervención de X, el término «Taylor Swift AI» se volvió tendencia, evidenciando la persistencia del problema. La empresa emitió un comunicado reiterando su política de «tolerancia cero» y asegurando la eliminación activa de imágenes, así como medidas contra las cuentas responsables.
Este caso no es aislado, ya que tanto celebridades como mujeres anónimas han sido víctimas de deepfakes. Incidentes anteriores, como el de menores en Almendralejo, España, han suscitado preocupaciones públicas sobre los riesgos asociados con esta tecnología. La cantante Rosalía y estudiantes en México también han sido afectadas, señalando la necesidad de abordar el problema a nivel global.
El origen de las imágenes de Taylor Swift se vincula a un grupo en Telegram, donde usuarios comparten contenido explícito generado por IA a través de un generador gratuito de Microsoft. El responsable de difundir los deepfakes, @Zvbear, ha enfrentado la crítica de los seguidores de Swift, llevándolo a hacer privada su cuenta.
El fenómeno de la pornificación mediante inteligencia artificial ha crecido en los últimos meses, pero un estudio en Estados Unidos revela que los hombres no parecen preocuparse.
Casi la mitad de los encuestados ha visto pornografía falsa, y la mayoría no se siente culpable al consumirla. Esto indica que los deepfakes se están normalizando en las preferencias de entretenimiento para adultos, presentando un desafío adicional para detener su propagación.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024







0 comentarios