La ley de inteligencia artificial de la Unión Europea entra en vigor este jueves, con el propósito de regular el uso de esta tecnología según el riesgo que represente para las personas y, al mismo tiempo, impulsar la industria europea frente a competidores como China y Estados Unidos.
‘Esta ley guiará el desarrollo de una inteligencia artificial (IA) en la que los europeos puedan confiar y brindará apoyo a las pymes y startups europeas para que lleven al mercado soluciones de IA innovadoras’, afirmó la presidenta de la Comisión Europea, Ursula von der Leyen.
La legislación regula o prohíbe el uso de la inteligencia artificial en función del riesgo que representa para las personas, identificando sistemas de alto riesgo que solo podrán utilizarse si respetan los derechos fundamentales.
Específicamente, la ley clasifica los sistemas de IA en varias categorías: aquellos con ‘riesgo inaceptable’, que estarán prohibidos por ser una amenaza para los derechos fundamentales; sistemas de ‘alto riesgo’, que deberán cumplir con estrictos requisitos; IA con riesgos de transparencia, como los chatbots; y sistemas de riesgo ‘mínimo’, que no estarán sujetos a normas específicas.
Bajo esta clasificación, la ley prohíbe todos los sistemas de categorización biométrica basados en creencias políticas, religiosas, filosóficas, raza y orientación sexual; los que evalúan a las personas según su comportamiento y características personales; y la IA diseñada para manipular el comportamiento humano.
También se prohíben los sistemas que expanden o crean bases de datos faciales mediante la recolección indiscriminada de datos a través de internet o grabaciones audiovisuales, así como los sistemas de reconocimiento emocional en lugares de trabajo y escuelas.
En términos generales, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, aunque permite que, en ciertos casos, las fuerzas del orden utilicen cámaras de identificación biométrica con previa autorización judicial, una de las negociaciones más arduas entre la Eurocámara y los Estados para alcanzar un acuerdo.
Así, se autoriza el uso de estos sistemas para prevenir una amenaza terrorista inminente, identificar a personas que hayan cometido delitos como terrorismo, tráfico de personas, explotación sexual o crímenes medioambientales, así como para buscar a las víctimas de estos delitos.
El reglamento también señala sistemas de alto riesgo que solo podrán comercializarse si sus desarrolladores aseguran que respetan los derechos fundamentales, como aquellos que pueden influir en el resultado de elecciones o los utilizados por entidades financieras para evaluar la solvencia y calificación crediticia de los clientes.
Además, establece obligaciones para los sistemas de inteligencia artificial de uso general, como ChatGPT de OpenAI o Bard de Google, que deberán especificar si un texto, canción o fotografía ha sido generado por inteligencia artificial y garantizar que los datos utilizados para entrenar los sistemas respetan los derechos de autor.
Las empresas que incumplan enfrentarán multas de hasta el 7% de su facturación global anual para infracciones graves, hasta el 3% para otras obligaciones y hasta el 1.5% por proporcionar información incorrecta.
Los Estados de la UE tienen hasta el 2 de agosto de 2025 para designar la autoridad responsable de aplicar la ley a nivel nacional, mientras que a nivel europeo la responsabilidad recaerá en una nueva Oficina de IA en la Comisión Europea.
La mayoría de las disposiciones de la ley se aplicarán a partir del 2 de agosto de 2026, excepto la prohibición de sistemas de riesgo inaceptable, que será efectiva en seis meses, y las normas para IA de uso general, que lo serán en un año.