Imágenes falsas y explícitas de Taylor Swift arrasan en las redes sociales

Imágenes falsas y sexualmente explícitas de Taylor Swift probablemente generadas por inteligencia artificial se difundieron rápidamente en las plataformas de redes sociales esta semana, perturbando a los fanáticos que las vieron y reavivando los llamados de los legisladores para proteger a las mujeres y tomar medidas enérgicas contra las plataformas y la tecnología que difunden tales imágenes.

Una imagen compartida por un usuario en X fue vista 47 millones de veces antes de que se suspendiera la cuenta el jueves. X suspendió varias cuentas que publicaron imágenes falsas de la Sra. Swift, pero las imágenes se compartieron en otras plataformas de redes sociales y continuaron difundiéndose a pesar de los esfuerzos de esas empresas por eliminarlas.

Mientras X dijo que estaba trabajando para eliminar las imágenes, los fanáticos de la superestrella del pop inundaron la plataforma en protesta. Publicaron palabras clave relacionadas, junto con la frase «Protege a Taylor Swift», en un esfuerzo por ahogar las imágenes explícitas y hacerlas más difíciles de encontrar.

Reality Defender, una empresa de ciberseguridad centrada en la detección de IA, determinó con un 90 por ciento de confianza que las imágenes fueron creadas utilizando un modelo de difusión, una tecnología impulsada por IA accesible a través de más de 100.000 aplicaciones y modelos disponibles públicamente, dijo Ben Colman, coautor de la compañía. fundador y director ejecutivo.

A medida que la industria de la inteligencia artificial ha crecido, las empresas se han apresurado a lanzar herramientas que permitan a los usuarios crear imágenes, videos, texto y grabaciones de audio con indicaciones simples. Las herramientas de inteligencia artificial son muy populares, pero han hecho que sea más fácil y económico que nunca crear los llamados deepfakes, que retratan a personas haciendo o diciendo cosas que nunca han hecho.

Los investigadores ahora temen que los deepfakes se estén convirtiendo en una poderosa fuerza de desinformación, que permita a los usuarios cotidianos de Internet crear imágenes de desnudos no consensuados o representaciones vergonzosas de candidatos políticos. Se utilizó inteligencia artificial para crear llamadas automáticas falsas del presidente Biden durante las primarias de New Hampshire, y la Sra. Swift apareció este mes en anuncios falsos que venden utensilios de cocina.

«Siempre ha habido una corriente oscura en Internet, la pornografía no consensuada de varios tipos», dijo Oren Etzioni, profesor de informática en la Universidad de Washington que trabaja en la detección de deepfake. «Ahora es una nueva cepa que es particularmente nociva».

“Vamos a ver un tsunami de estas imágenes explícitas generadas por IA. Las personas que generaron esto lo ven como un éxito”, afirmó Etzioni.

X dijo que tenía una política de tolerancia cero hacia el contenido. «Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas», dijo un representante en un comunicado. «Estamos monitoreando de cerca la situación para asegurarnos de que cualquier infracción adicional se aborde de inmediato y se elimine el contenido».

X ha experimentado un aumento en el contenido problemático, incluido el acoso, la desinformación y el discurso de odio desde que Elon Musk compró el servicio en 2022. Relajó las reglas de contenido del sitio web y despidió, despidió o aceptó las renuncias de los miembros del personal que trabajaron para eliminar dicho contenido. La plataforma también restableció cuentas que habían sido previamente prohibidas por violar las reglas.

Aunque muchas de las empresas que producen herramientas de IA generativa prohíben a sus usuarios crear imágenes explícitas, la gente encuentra formas de romper las reglas. «Es una carrera armamentista, y parece que cada vez que a alguien se le ocurre una barandilla, alguien más descubre cómo escapar», dijo Etzioni.

Las imágenes se originaron en un canal de la aplicación de mensajería Telegram que se dedica a producir este tipo de imágenes, según 404 Medio, un sitio de noticias de tecnología. Pero los deepfakes atrajeron amplia atención después de ser publicados en X y otros servicios de redes sociales, donde se propagaron rápidamente.

Algunos estados han restringido los deepfakes pornográficos y políticos. Pero las restricciones no han tenido un impacto fuerte y no existen regulaciones federales para este tipo de falsificaciones, dijo Colman. Las plataformas han intentado abordar los deepfakes pidiendo a los usuarios que los denuncien, pero ese método no ha funcionado, añadió. Cuando se marcan, millones de usuarios ya los han visto.

«La pasta de dientes ya está fuera del tubo», dijo.

El publicista de Swift, Tree Paine, no respondió de inmediato a las solicitudes de comentarios el jueves por la noche.

Los deepfakes de la Sra. Swift provocaron nuevos llamados a la acción por parte de los legisladores. El representante Joe Morelle, un demócrata de Nueva York que presentó un proyecto de ley el año pasado que convertiría el intercambio de imágenes de este tipo en un delito federal, dijo en X que la difusión de las imágenes era «espantosa» y añadió: «Le está sucediendo a las mujeres en todas partes, todos los días». .”

“He advertido repetidamente que la IA podría usarse para generar imágenes íntimas no consensuadas”, dijo el senador Mark Warner, demócrata de Virginia y presidente del Comité de Inteligencia del Senado, sobre las imágenes de X. “Esta es una situación deplorable. «

La representante Yvette D. Clarke, demócrata de Nueva York, dijo que los avances en inteligencia artificial habían hecho que la creación de deepfakes fuera más fácil y barata.

«Lo que le pasó a Taylor Swift no es nada nuevo», dijo.