Los deepfakes han cobrado una serie de víctimas de alto perfil, elevando los riesgos de los medios manipulados a la conversación pública antes de el inminente ciclo electoral en Estados Unidos.
Imágenes pornográficas de la cantante Taylor Swift, llamadas con la voz del presidente estadounidense Joe Biden y videos de niños y adolescentes muertos que detallan sus propias muertes, se han vuelto virales, pero ninguno de ellos era real.
El audio y las imágenes engañosas, creados con inteligencia artificial, no son novedad, pero los recientes avances en la tecnología los han hecho más fáciles de crear y más difíciles de detectar.
El flujo de incidentes muy publicitados apenas unas semanas después de 2024 ha aumentado la preocupación sobre la tecnología entre legisladores y ciudadanos comunes.
La difusión de contenido falso generado por IA en las redes sociales ha puesto a prueba la capacidad de las plataformas para controlarlo.
La semana pasada, imágenes explícitas de Taylor Swift generadas por IA acumularon decenas de millones de visitas en X. Aunque estos sitios tienen reglas que prohíben compartir contenido sintético y manipulado, las publicaciones que representan a Swift tardaron horas en eliminarse.
Una permaneció activa durante aproximadamente 17 horas y tuvo más de 45 millones de visitas, una señal de que estas imágenes pueden volverse virales mucho antes de que se tomen medidas para detenerlas.
El episodio de Swift provocó la furia entre sus legiones de fanáticos y otros usuarios en X, lo que llevó a que la frase ‘proteger a Taylor Swift’ se convirtiera en tendencia en la plataforma social.
A finales de 2023, los 10 principales sitios web de deepfake albergaban alrededor de 1,000 videos que hacían referencia a ‘Taylor Swift’.
Los usuarios de Internet injertaban su rostro en el cuerpo de artistas pornográficos o ofrecían a los clientes que pagan la posibilidad de ‘desnudar’ a las víctimas, utilizando tecnología de inteligencia artificial.