Según el Foro Económico Mundial, el número de deepfakes o videos falsos está experimentando un crecimiento anual del 900%.
Esto se debe al uso de redes neuronales y técnicas de aprendizaje profundo, también conocido como Deep Learning, que permiten a cualquier persona crear contenido multimedia realista al alterar digitalmente el rostro o cuerpo de una persona para que parezca otra.
Estos contenidos han sido utilizados por ciberdelincuentes con el propósito de acosar, vengarse, llevar a cabo estafas y cometer otros delitos, lo cual ha generado frecuentes titulares en los medios de comunicación.
Recientemente, Kaspersky descubrió que los cibercriminales ofrecen servicios maliciosos en la Darknet para crear estos videos falsos y se han identificado los tres principales tipos de fraude basados en deepfakes.
1. Fraudes financieros
Los deepfakes han brindado a los ciberdelincuentes la posibilidad de suplantar a celebridades, políticos y empresarios con el fin de engañar fácilmente a las víctimas. Un ejemplo destacado es un video generado artificialmente el año pasado que presentaba a Elon Musk como protagonista. En dicho video, el fundador de Tesla prometía grandes ganancias a aquellos que siguieran una serie de consejos para invertir en criptomonedas. El contenido se volvió viral y muchos usuarios terminaron perdiendo su dinero como resultado.
Para crear deepfakes de este tipo, los estafadores utilizan imágenes de personas de interés y combinan videos antiguos. Luego, publican estos videos o transmisiones en vivo en redes sociales, ofreciendo beneficios como la duplicación de cualquier pago realizado en criptomonedas. Esta estrategia les permite aprovechar la confianza que las personas tienen en figuras conocidas para perpetrar sus engaños.
2. Deepfakes pornográficos
El uso malintencionado de fotografías permite a individuos inescrupulosos crear contenido comprometedor en el que sus víctimas parecen estar en situaciones comprometedoras.
Recientemente, el FBI emitió una advertencia sobre la manipulación de fotos y videos publicados en línea para la creación de contenido explícito y esquemas de extorsión. Se han identificado casos en los que se utilizan imágenes de personas reconocidas, así como de personas anónimas, lo que conlleva graves consecuencias para las víctimas.
Estos ataques afectan la reputación de los individuos involucrados y violan sus derechos. Un ejemplo reciente es el caso de la cantante Rosalía, quien fue víctima de una foto falsa en la que supuestamente aparecía haciendo topless.
3. Estafas empresariales
Los deepfakes también representan una amenaza para las empresas, ya que pueden ser utilizados para extorsión, chantaje o espionaje industrial. Un ejemplo impactante es el caso en el que los ciberdelincuentes lograron engañar al gerente de un banco en Emiratos Árabes Unidos, robando así 35 millones de dólares. Utilizando una breve grabación de voz, crearon una locución que les permitió estafar al responsable del banco. En otro incidente, los criminales intentaron engañar a Binance, la plataforma de criptomonedas más grande del mundo. Crearon un deepfake de uno de los directivos y lo utilizaron durante una reunión en línea para hablar en su nombre.
Además, el FBI ha advertido a los departamentos de recursos humanos sobre el uso de deepfakes por parte de candidatos que solicitan empleo para trabajar de forma remota. En el caso de Binance, los atacantes utilizaron imágenes de personas encontradas en Internet para crear videos falsos y los incluyeron en los currículums. Si logran engañar a los responsables de recursos humanos y reciben una oferta de trabajo, pueden acceder a datos confidenciales de la empresa.
«Uno de los mayores riesgos de los deepfakes para las empresas no solo radica en el robo de datos. Las consecuencias reputacionales pueden ser muy graves. Basta con la publicación de un video en el que aparentemente un ejecutivo hace declaraciones sesgadas sobre temas delicados. Esto podría provocar, por ejemplo, la caída de la empresa en los mercados bursátiles. Sin embargo, la probabilidad de que estos ataques ocurran sigue siendo baja debido al alto costo de crear deepfakes realistas», explica Dmitry Anikin, experto senior en seguridad de Kaspersky.
«Es importante estar atentos a los detalles que puedan indicar que un video es falso y mantener siempre una actitud escéptica. También es crucial asegurarse de que los empleados comprendan qué son los deepfakes y cómo reconocerlos», agrega.
Para protegerse de este tipo de engaño, Kaspersky recomienda:
- Revisar las prácticas de seguridad en la empresa, tanto en temas de software como de capacitación del personal. Además de utilizar herramientas como Kaspersky Threat Intelligence para estar al tanto de las últimas amenazas.
- Crear un “muro humano” informando al empleado sobre lo que es un deepfake y los riesgos que implica. Kaspersky Automated Security Awareness Platform mantiene a la plantilla informada sobre las últimas amenazas al tiempo que aumenta la alfabetización digital.
- Usar fuentes de información fiables. La desinformación es clave para la proliferación de los deepfakes.
- Ser escéptico frente a videos o grabaciones de voz es importante para ayudar a reducir las probabilidades de caer en la estafa.
- Tener en cuenta las características que puedan indicar que un video es falso: movimientos bruscos, cambios en la iluminación y en el tono de la piel, parpadeo extraño o falta de éste, labios mal sincronizados respecto a la voz o baja calidad de la reproducción.