El Parlamento Europeo está avanzando en la elaboración de normas para reducir los riesgos asociados con sistemas tecnológicos como ChatGPT.
Las comisiones de Mercado Interior y de Libertades Civiles acordaron una posición para negociar nuevas normas que aborden los posibles riesgos que pueden generar estos sistemas, como la propagación de noticias falsas o la violación de los derechos de autor.
Estas normas se incluirán en la ley de inteligencia artificial que se está negociando en Bruselas. Si se incorporan a la ley final, los desarrolladores de estos sistemas tendrán que demostrar que han reducido los riesgos para la salud, los derechos fundamentales y el sistema democrático, y someterse al análisis de expertos independientes.
Además, se requiere que los usuarios informen al resto de ciudadanos si generan o manipulan videos, imágenes o sonidos que puedan inducir a error.
Los creadores de la tecnología también deberán publicar un resumen detallado de los datos protegidos con derechos de autor que utilizan para entrenar a los sistemas de inteligencia artificial.
La ley de inteligencia artificial también prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos, salvo para prevenir delitos y localizar a posibles víctimas, y veta los modelos que se sirvan de técnicas subliminales para alterar el comportamiento de una persona sin que sea consciente de ello.
La Eurocámara busca que las empresas que incumplan la normativa puedan pagar una multa de hasta el 7% de su facturación anual mundial.
El pleno del Parlamento Europeo confirmará su posición negociadora para esta norma el próximo mes de junio y la Eurocámara tendrá que negociar con la Comisión Europea y el Consejo de la UE el texto definitivo de la ley de inteligencia artificial.