El uso de inteligencia artificial (IA) para crear imágenes con contenido sexual explícito desató fuertes críticas en el último año, con Taylor Swift y Rosalía como las famosas más atacadas por los “deepfakes”. Este fenómeno no solo afectó a estas artistas, sino que también puso sobre la mesa un debate sobre la seguridad digital y la ética en el uso de esta tecnología.
Una publicación en X de un usuario en particular que mostraba imágenes deepfake de Swift y Rosalía, alcanzó más de 35 millones de visualizaciones y 24,000 reenviados en un tiempo récord. Y aunque la cuenta ya fue suspendida, el contenido fue extraído y continúa circulando por redes sociales.
La proliferación de estas imágenes manipuladas es una muestra de la creciente amenaza que representa para la privacidad personal, especialmente para las mujeres. Aunque las redes sociales implementaron políticas de “tolerancia cero” hacia el contenido falso, la efectividad de estas medidas fue ampliamente cuestionada debido a que el material puede ser rápidamente replicado.
Este problema no se limita a las celebridades, ya que también afectó a individuos menos conocidos. En Almendralejo, España, varios menores de edad fueron víctimas de deepfakes que alteraron sus fotos para crear contenido explícito, gracias al fácil acceso a esta tecnología.
A pesar de que los expertos llevan mucho tiempo advirtiendo que la situación solo empeorará si no se toman medidas más estrictas, la realidad es que se requiere una combinación de legislación robusta, tecnologías de detección avanzadas y políticas de moderación eficaces para combatir el uso indebido de los deepfakes y proteger la integridad y privacidad de todos los usuarios.
Por su parte, las redes sociales deben reforzar sus políticas de moderación, así como eliminar rápidamente todo el material ofensivo y sancionar severamente a los responsables. De igual manera, es necesario crear campañas de concientización que eduquen al público sobre los riesgos, señales y consecuencias de los deepfakes.