La Comisión Europea presentó su plan para luchar contra el material de abuso sexual infantil en línea, que incluye exigir a las empresas tecnológicas más grandes del mundo que escaneen, detecten y denuncien a los organismos encargados de hacer cumplir la ley
Las medidas anunciadas permiten a los tribunales de la Unión Europea exigir a las redes sociales que rastreen e informen los esfuerzos de sus usuarios para preparar a los niños a través de herramientas de mensajería.
- Uso de verificación de edad para identificar a los menores que se unen a una plataforma.
- Comprobación del contenido generado por el usuario en busca de señales de imágenes de abuso.
- Implementación de inteligencia artificial para detectar patrones de lenguaje asociados con el grooming.
- Reportar el material ofensivo descubierto a las agencias legales para investigar.
Se creará una nueva agencia europea similar al centro nacional para niños desaparecidos y explotados de Estados Unidos, que trabajará junto con Europol, para que las empresas informes de sus hallazgos.
Los tribunales de la UE podrían exigir a las empresas que eliminen el material marcado o bloqueen el acceso a las direcciones web. Las empresas podrán apelar dichas órdenes.
YIva Johansson, la comisionada de asuntos internos a cargo de la propuesta, dijo que espera críticas de las empresas porque proteger a los niños tal vez no sea rentable.
Tanto los activistas de la privacidad como los legisladores ya han expresado su preocupación, comparando los planes con tácticas de vigilancia.
Johansson dijo que hay muchos rumores sobre los planes de la comisión, pero que la propuesta no se trata de incrementar o leer las comunicaciones de las personas. Agregó que las empresas tendrán que usar los métodos menos invasivos para detectar el material en línea.
Un portavoz de Meta Platforms, la empresa matriz de Facebook, dijo que es importante que las medidas adoptadas no socaven el cifrado de extremo a extremo, que protege la seguridad y la privacidad de miles de millones de personas, incluidos los niños.
Escanear en busca de material de abuso sexual infantil ha sido controvertido durante mucho tiempo, debido a problemas de privacidad, pero es algo que hacen todas las principales empresas de tecnología y redes sociales. Esto incluye compartir huellas digitales de material ilegal conocido para que pueda detectarse, eliminarse y denunciarse automáticamente. Facebook, Microsoft y muchos otros han hecho esto durante años.
La cantidad de pornografía infantil en línea ha ido en aumento, especialmente durante la pandemia de COVID-19, dijo Johansson.
Los informes citados por la Comisión muestran que 85 millones de fotos y videos en línea que contenían abuso sexual infantil se reportaron en 2021. El grupo de defensa Thorn dijo en marzo que esto fue un aumento del 38% desde 2020.
En parte, la razón por la que la propuesta de la UE va más allá del escaneo convencional en busca de material ofensivo conocido, permitirá que los tribunales exijan a las empresas escanear de manera proactiva en búsqueda de nuevos abusos, ya sean imágenes, videos o manipulación de niños a través del chat. La idea podría usarse, por ejemplo, para hacer llegar la detección de patrones de lenguaje preocupantes, dijo la comisión, pero necesitaría supervisión humana.
El plan de la UE requerirá la aprobación de los países miembros y del Parlamento Europeo, un proceso que puede llevar años, especialmente con una propuesta tan controvertida.