El número de imágenes de contenido pedófilo en internet generadas por inteligencia artificial ha aumentado, según un informe publicado hoy por Internet Watch Foundation (IWF).
El estudio señala que grupos de pedófilos están utilizando la tecnología de IA para crear y compartir imágenes de menores, algunas de las cuales se generan a partir de víctimas reales, mientras que otras se basan en fotografías de personajes famosos.
El informe advierte que en foros en la llamada dark web se están distribuyendo imágenes de cientos de víctimas reales de abuso infantil creadas con generadores personalizados de IA.
Además, la investigación de IWF encontró imágenes manipuladas de una cantante conocida para hacerla parecer una niña, así como imágenes de actores infantiles que fueron retocadas para objetivos sexualizantes.
Los expertos de la fundación benéfica dedicaron un mes a analizar un solo sitio en la dark web y encontraron casi 3,000 imágenes artificiales que son consideradas ilegales en el Reino Unido.
Un hallazgo particularmente preocupante fue una carpeta que contenía 501 imágenes de una víctima real que había sufrido abuso sexual cuando tenía 9 o 10 años, junto con una herramienta de IA que permitía a los usuarios crear sus propias imágenes.
La IWF destacó que la mayoría de las imágenes de famosos convertidos en menores corresponden a mujeres cantantes y actrices, y son tan realistas que resulta difícil distinguirlas de las imágenes auténticas.
Susie Hargreaves, la directora ejecutiva de la fundación, expresó su preocupación por el aumento en la proliferación de imágenes de IA que se asemejan a menores reales que sufren abuso sexual.
Aunque algunas de estas imágenes no involucran directamente a menores reales, pueden normalizar comportamientos depredadores y desencadenar investigaciones policiales basadas en personas ficticias.