A partir de mañana, 19 plataformas y buscadores digitales, incluyendo TikTok, X (anteriormente conocido como Twitter), Google y Facebook, deberán implementar medidas de moderación de contenido en cumplimiento con las disposiciones de la Ley de Servicios Digitales de la Unión Europea (UE).
Esta nueva regulación, lejos de ser una herramienta de censura, tiene como objetivo salvaguardar la libertad de expresión y proteger los derechos de los ciudadanos.
Conocida como DSA, esta ley busca garantizar tanto la libertad de expresión como la seguridad de los ciudadanos y las democracias, según destacó Thierry Breton, comisario europeo de Mercado Interior.
Aunque la ley entró en vigor el 16 de noviembre pasado, a partir del 25 de agosto, 19 compañías de gran envergadura deben ajustarse a ella.
Estas empresas tienen más de 45 millones de usuarios activos mensuales e incluyen a X, TikTok, Instagram, Wikipedia, Zalando, AliExpress, Amazon, la AppStore de Apple, Bing, Booking, Facebook, Google Search, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat y YouTube.
Las compañías deberán cumplir con los nuevos requisitos que se centran en la transparencia del contenido en línea y en la protección de los menores.
Según Breton, ‘la moderación de contenido no implica censura. En Europa, no habrá una entidad de control de la verdad. Más bien, se promoverá la transparencia en los procesos algorítmicos, los bots y la publicidad personalizada’.
Esta legislación se extenderá a plataformas de menor tamaño en febrero, mientras que las 19 empresas más grandes deberán presentar sus primeros informes de transparencia en dos meses.
Breton subrayó que estas empresas han tenido tiempo suficiente para adaptar sus sistemas a las nuevas obligaciones, que incluyen transparencia, privacidad, eliminación de contenido ilegal, protección de usuarios vulnerables y combate contra la desinformación.
La Comisión Europea ha ofrecido pruebas de estrés a estas empresas para ayudarlas a comprender sus nuevas responsabilidades, y según el comisario, ‘ahora comienza la verdadera prueba’. Durante los últimos meses, Breton ha visitado las sedes de las principales plataformas para abordar la implementación de las nuevas normativas.
En resumen, la Ley de Servicios Digitales requiere que las plataformas eliminen rápidamente contenido ilegal y aclaren si muestran contenido falso con riesgo para la salud. La protección de los menores y la lucha contra la desinformación son prioridades. Si se modera contenido, los autores pueden apelar, y si tienen razón, la plataforma debe restaurar el contenido y pagar los costos.
Las empresas también deben explicar por qué recomiendan cierto contenido y deben indicar claramente si algo es publicidad. La ley prohíbe la publicidad personalizada para menores. Las empresas deben realizar informes anuales para demostrar el cumplimiento, y las autoridades pueden acceder a los algoritmos que determinan el contenido que los usuarios ven.
La ley contempla multas de hasta el 6 % de la facturación anual global en caso de incumplimiento. La Comisión Europea ha lanzado el Centro Europeo por la Transparencia Algorítmica para evaluar el cumplimiento.
En definitiva, estas medidas buscan garantizar la seguridad y la transparencia en línea y no son un castigo, sino una oportunidad para que estas plataformas refuercen su reputación de confiabilidad.