Inicio Inteligencia Artificial China alerta sobre riesgos por contaminación de datos en modelos de IA

China alerta sobre riesgos por contaminación de datos en modelos de IA

China advirtió que el uso de información falseada en el entrenamiento de modelos de IA puede generar decisiones erróneas y afectar sectores como salud o seguridad

China advirtió este martes sobre los riesgos que representa lo que denomina contaminación de datos en los sistemas de inteligencia artificial (IA), y llamó a las empresas tecnológicas a reforzar los controles sobre la información utilizada para entrenar sus modelos.

En un comunicado difundido por el Ministerio de Seguridad del Estado, se señala que la proliferación de textos, imágenes y videos generados por IA está aumentando la posibilidad de que contenido falseado, sesgado o repetitivo se integre en nuevos conjuntos de entrenamiento. Esto podría provocar errores de juicio, decisiones automáticas incorrectas o manipulación de la opinión pública.

Las autoridades citaron estudios que indican que basta con que 1 de cada 10,000 muestras sea falsa para que el volumen de respuestas dañinas de un modelo aumente de manera significativa.

Ese efecto en cascada, donde un contenido generado artificialmente alimenta a otro sistema, genera preocupación entre los responsables de sectores clave como salud, finanzas o seguridad pública, ya que decisiones basadas en datos erróneos tendrían consecuencias directas sobre la población, advirtió el ministerio.

Para reducir estos riesgos, la dependencia recordó que desde enero está vigente una regulación que obliga a las plataformas de IA generativa a llevar a cabo auditorías de seguridad, identificar de forma clara los contenidos creados con IA y eliminar periódicamente la información que no cumpla con las normas establecidas.

El organismo estatal ya había alertado en julio sobre los peligros que representa el uso inadecuado de esta tecnología, señalando que podría convertirse en una amenaza para la estabilidad social, la protección de datos sensibles y la seguridad nacional si llegara a manos de actores hostiles al país.

Desde 2023, China obliga a que los servicios de inteligencia artificial se alineen con los valores socialistas fundamentales y prohíbe generar contenido que atente contra la seguridad nacional, la unidad territorial o el orden social.

Aunque gigantes tecnológicos chinos como Alibaba, DeepSeek, Tencent y ByteDance han desarrollado sus propios chatbots, todavía existen dudas sobre el avance de esta tecnología dentro de un entorno fuertemente controlado por la censura.

Desde ese mismo año, el Ministerio de Seguridad del Estado publica en su cuenta de WeChat casos relacionados con espionaje y recomienda a la población mantenerse alerta ante ofertas de trabajo o solicitudes de información provenientes del extranjero.

También ha llamado a una movilización general de la sociedad para prevenir y combatir el espionaje, así como fortalecer la defensa nacional, advirtiendo sobre los riesgos de compartir datos sensibles en línea.