Las compañías quieren evitar la difusión de contenido llamado deepfake porn, que son videos en los que se inserta la cara de una celebridad en escenas pornográficas. Para esto, se emplean redes neuronales de aprendizaje automático que se nutren de cientos de fotos, que después pueden ser extraídas de Google de sus redes sociales, para detectar y replicar facciones en el cuerpo de otras personas.
Algunas actrices que ya han sido víctimas de esta actividad son Emma Watson y la cantante Taylor Swift. Este miércoles fue cerrado el canal donde se compartían los videos.
Se ha descubierto que un solo empleado es capaz de crear tomas falsas utilizando herramientas de código abierto accesibles por todo el mundo, como TensorFlow de Google.
“Al 7 de febrero de 2018 hemos realizado dos actualizaciones nuestras políticas sobre contenido pornográfico no consentido o contenido sugestivo que involucre a menores. Las comunidades enfocadas en este tipo de material y los usuarios que contribuyen a ellas serán restringidos”, explicó Reddit en un comunicado.
El portal de pornografía Pornhub también considera los videos falsos como contenido no consentido y asegura que “son eliminados en cuanto se detectan”.
Con información de El País.