En el contexto del reciente avance de la inteligencia artificial (IA), ha habido un alarmante aumento en la creación de videos deepfake de contenido pornográfico no consensuado.
Según una investigación llevada a cabo por la analista independiente Geneviève Oh, la cantidad de estos videos se ha multiplicado por nueve desde 2019.
De acuerdo con el análisis de Oh, se identificaron cerca de 150,000 videos que acumularon un total de 3,800 millones de visitas en 30 sitios web durante mayo de 2023.
Algunos de estos sitios albergan bibliotecas de software deepfake que presentan rostros de celebridades como Emma Watson o Taylor Swift superpuestos en cuerpos de actores de la industria pornográfica.
Otros sitios ofrecen a sus clientes, mediante pagos, la posibilidad de crear imágenes sexualmente explícitas de mujeres conocidas por ellos, como compañeras de clases o colegas.
Empresas de renombre en el ámbito tecnológico, incluyendo Google, Amazon, X y Microsoft, han contribuido al incremento de la pornografía deepfake. Google, por ejemplo, es uno de los principales generadores de tráfico hacia sitios ampliamente usados para la distribución de contenido deepfake.
Los usuarios de X, anteriormente conocida como Twitter, también comparten regularmente este tipo de contenido. Amazon, junto con Cloudflare y GitHub de Microsoft, proveen servicios de alojamiento esenciales para estos sitios.
En la actualidad, en Estados Unidos no existe una ley federal que penalice la creación o difusión de pornografía deepfake no consensuada.
Aunque en los últimos años 13 estados han promulgado leyes enfocadas en este tipo de contenido, esto ha resultado en una amalgama de estatutos civiles y penales difíciles de aplicar, según Matiu Ferraro, abogado en Wilmer, Gil LLP.
Hasta la fecha, nadie en Estados Unidos ha sido enjuiciado por la producción de contenido sexual generado por IA sin consentimiento, de acuerdo con la investigación. Como consecuencia, las víctimas se encuentran mayormente desprotegidas.
Sin embargo, un grupo cada vez más amplio de abogados, académicos y víctimas está adoptando una nueva estrategia para abordar esta problemática.
Dado que los sitios web de deepfake dependen de una serie de productos y servicios tecnológicos para atraer usuarios, generar ingresos y operar, muchos de los cuales son proporcionados por grandes corporaciones de tecnología que cotizan en bolsa, se está explorando la posibilidad de presionar a estas empresas para que retiren de sus plataformas el contenido dañino generado por IA.
A pesar de que estos servicios transaccionales están protegidos legalmente en Estados Unidos, los críticos de la industria de deepfake, como Venture, perciben esta dependencia como una potencial vulnerabilidad y están llamando directamente a las empresas de tecnología a retirar dicho contenido.
Carrie Goldbergs, una abogada especializada en casos relacionados con la difusión no consensuada de material sexual, sostiene que, en última instancia, son las plataformas tecnológicas las que tienen un impacto dominante en las víctimas de la pornografía deepfake.
‘Conforme la tecnología ha permeado todos los aspectos de nuestras vidas, también hemos complicado la tarea de responsabilizar a los responsables cuando esa misma tecnología nos causa daño’, señaló Goldberg.