En una jornada intensa, las instituciones de la Unión Europea consensuaron una ley pionera en inteligencia artificial, que regula el uso de esta tecnología en función de los riesgos que pueda representar para las personas y busca potenciar la industria europea frente a competidores como China y Estados Unidos.
‘La legislación sobre inteligencia artificial de la UE marca un precedente a nivel global. Se trata de un marco legal único para el desarrollo de la inteligencia artificial en el que se puede confiar’, declaró Ursula von der Leyen, presidenta de la Comisión Europea.
Este acuerdo, alcanzado tras 36 horas de negociaciones, deberá ser ratificado por el Parlamento Europeo y el Consejo de la UE, la entidad que representa a los Gobiernos europeos.
Vigilancia en tiempo real
Uno de los aspectos más sensibles durante las negociaciones fue el uso que las fuerzas del orden podrán dar a las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional.
Con autorización judicial previa, estas cámaras podrán utilizarse para prevenir amenazas terroristas ‘genuinas y previsibles’ o ‘genuinas y presentes’, es decir, aquellas que estén ocurriendo en ese momento. Además, podrán emplearse para localizar o identificar a individuos involucrados en delitos como terrorismo, tráfico de personas, explotación sexual, crímenes medioambientales, entre otros.
La legislación prohíbe específicamente sistemas de categorización biométrica basados en creencias políticas, religiosas, filosóficas, raza u orientación sexual. También se prohíben sistemas que puntúen a las personas según su comportamiento o características personales, así como la inteligencia artificial capaz de manipular el comportamiento humano.
Se prohíbe la expansión o creación de bases de datos faciales mediante la captación indiscriminada de datos a través de internet o grabaciones audiovisuales. Además, en centros de trabajo o escuelas, se prohíben sistemas de inteligencia artificial capaces de reconocer emociones.
IA generativa
Otro tema crucial en las negociaciones fue la regulación de los sistemas de inteligencia artificial generativa, como los utilizados por modelos como ChatGPT de OpenAI o Bard de Google.
Estos sistemas deberán cumplir con criterios de transparencia, como especificar si un texto, una canción o una fotografía fueron generados mediante inteligencia artificial, y garantizar que los datos utilizados para entrenar los sistemas respeten los derechos de autor.
Aunque la ley inicialmente no estaba destinada a regular este tipo de sistemas, la popularidad creciente, evidenciada por el auge de ChatGPT el año pasado, llevó a las instituciones comunitarias a incluir disposiciones para su regulación.
El reglamento no prohíbe el uso de estos sistemas, pero establece criterios para identificar modelos de alto riesgo según el contexto de su uso y exige a los desarrolladores cumplir con salvaguardias más estrictas antes de lanzarlos al mercado.
Las negociaciones fueron apasionadas, ya que el objetivo de la ley es regular una tecnología con amplias posibilidades para la sociedad pero que también plantea dudas y preguntas aún sin respuesta por parte de los desarrolladores de inteligencia artificial, según fuentes familiarizadas con los debates.
La legislación permite o prohíbe el uso de la inteligencia artificial según el riesgo que represente para las personas, identificando sistemas de alto riesgo que solo podrán utilizarse demostrando que respetan los derechos fundamentales. Por ejemplo, aquellos utilizados para influir en resultados electorales o por entidades financieras para evaluar solvencia y calificación crediticia.
La legislación contempla la creación de la Oficina Europea de Inteligencia Artificial, encargada de coordinar el uso de la tecnología entre las autoridades nacionales y asesorada por un panel de científicos y organizaciones de la sociedad civil.
Se espera que la ley entre en vigor en 2026, pero su implementación será gradual: la oficina europea se establecerá de inmediato, la prohibición de sistemas de inteligencia artificial prohibidos llegará en seis meses y los requisitos para sistemas y modelos de IA generativa, en 12.
La regulación prevé multas que oscilan entre 35 millones de euros (37.6 millones de dólares) o el 7% del volumen de negocios global de las empresas, hasta 7.5 millones de euros (8 millones de dólares) o el 1.5% del volumen global de negocios.