La Unión Europea se encuentra preparada para implementar un plan de ley que imponga restricciones adicionales a los sistemas de inteligencia artificial más grandes, en el marco de la próxima legislación sobre IA.
Los negociadores de la Comisión Europea, el Parlamento Europeo y los países miembros de la UE están debatiendo un enfoque que abordaría las inquietudes planteadas por los potentes modelos de lenguaje de gran tamaño, que son la base de tecnologías como los chatbots de IA y los GPT-4 de OpenAI.
Al mismo tiempo, se busca asegurar que las startups no se vean abrumadas por la regulación.
Fuentes anónimas revelaron que el acuerdo es preliminar y aún no se ha redactado en un borrador escrito, por lo que está sujeto a cambios.
Este enfoque se asemeja al adoptado en la reciente Ley de Servicios Digitales de la UE.
Mientras que la DSA requiere que todas las plataformas y sitios web tomen medidas para proteger los datos de los usuarios y supervisar actividades ilegales, las regulaciones más estrictas se aplicarían a las grandes empresas, incluyendo a Alphabet y Meta Platforms.
Si se implementa, la UE podría convertirse en el primer gobierno occidental en establecer normas obligatorias sobre la inteligencia artificial a través de su Ley de IA propuesta.
Según esta ley, las empresas de IA deberían llevar a cabo evaluaciones de riesgos y etiquetar los deepfakes, entre otros requisitos.
Los negociadores tienen como objetivo finalizar la legislación para fines de año y esperan llegar a un acuerdo definitivo en la próxima reunión programada para el 25 de octubre.
Sin embargo, todavía quedan algunas cuestiones clave por resolver, como la regulación precisa de la IA generativa y la posibilidad de prohibir por completo el escaneo facial en vivo en eventos públicos.
El Parlamento Europeo ha respaldado una prohibición total de esta vigilancia biométrica, aunque muchos países de la UE se han manifestado en contra de esta medida.