Este martes, la Unión Europea (UE) ratificó de manera definitiva la ley de inteligencia artificial, la cual se implementará de forma gradual hasta 2026, cuando entrará en plena vigencia.
‘Momento histórico’, declaró Mathieu Michel, secretario de Estado de Digitalización de Bélgica, país que ostenta la presidencia rotatoria de la UE este semestre.
A partir de noviembre próximo, se prohibirán los sistemas de inteligencia artificial que realicen categorizaciones biométricas basadas en creencias políticas, religiosas, filosóficas, así como en raza y orientación sexual.
Igualmente, no se permitirán los sistemas que puntúen a las personas según su comportamiento o características personales, ni aquellos capaces de manipular el comportamiento humano.
Además, estarán vetados, entre otros, los sistemas que expandan o creen bases de datos faciales captadas indiscriminadamente a través de internet o de grabaciones audiovisuales.
No obstante, la normativa permite excepciones, permitiendo que las fuerzas de seguridad utilicen cámaras de identificación biométrica con autorización judicial para prevenir amenazas terroristas inminentes.
Este punto ha sido uno de los más controvertidos durante las negociaciones entre el Parlamento Europeo y los Estados miembros, quienes argumentaron la necesidad de ciertos usos para garantizar la seguridad nacional. Así, estos sistemas podrán usarse para localizar a responsables de delitos de terrorismo, tráfico de personas, explotación sexual, así como para buscar a las víctimas.
Dentro de un año, entrarán en vigor los criterios de transparencia que deberán cumplir los sistemas de inteligencia artificial generativa, otro de los principales puntos de discusión en pleno auge de programas como ChatGPT.
Estos modelos deberán especificar si un texto, una canción o una fotografía se han generado mediante inteligencia artificial y garantizar que los datos utilizados para entrenar a los sistemas respetan los derechos de autor.
En general, el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que representa para las personas, identificando sistemas de alto riesgo que solo podrán usarse si se demuestra que respetan los derechos fundamentales.
Por ejemplo, aquellos que puedan influir en el resultado de unas elecciones o los utilizados por entidades financieras para evaluar la solvencia y establecer la calificación crediticia.
Para quienes incumplan la normativa, se prevén multas que oscilan entre los 35 millones de euros (37.6 millones de dólares) o el 7% del volumen global de negocio de las empresas, hasta los 7,5 millones de euros (8 millones de dólares) o el 1.5% del volumen global de negocio.