Un total de veinticinco empresas se unieron de manera voluntaria al código de buenas prácticas para el uso responsable de la inteligencia artificial, promovido por la Comisión Europea.
Entre las compañías que lo adoptaron se encuentran Google, Amazon, IBM, Microsoft y OpenAI, mientras que las ausencias más notorias incluyen a Meta, que ya había adelantado que no participaría, y varias firmas chinas como Alibaba, Baidu y Deepseek.
Elon Musk, propietario de la empresa xAI, decidió suscribir únicamente el apartado relacionado con seguridad, dejando fuera los capítulos sobre derechos de autor y transparencia.
La lista de empresas adheridas incluye a Accexible, AI Alignment Solutions, Aleph Alpha, Almawave, Amazon, Anthropic, Bria AI, Cohere, Cyber Institute, Domyn, Dweve, Euc Inovação Portugal, Fastweb, Google, Humane Technology, IBM, Lawise, Microsoft, Mistral AI, Open Hippo, OpenAI, Pleias, Re-AuditIA, ServiceNow, Virtuo Turing y Writer. Sin embargo, se espera que otras compañías puedan sumarse más adelante.
Aquellas empresas que no hayan firmado este código voluntario tendrán que demostrar por otros medios que cumplen con la legislación europea.
Este sábado entraron en vigor las nuevas reglas de la Unión Europea para los modelos de inteligencia artificial generativa. Estas normas obligan a sistemas como ChatGPT, de OpenAI, o Gemini, de Google, a respetar los contenidos protegidos por derechos de autor y a evitar la difusión de información que discrimine o viole derechos fundamentales.
Estas obligaciones forman parte de la ley europea sobre inteligencia artificial, que fue aprobada el año pasado y se implementará de forma gradual hasta 2027.
La normativa, considerada pionera a nivel mundial, regula el uso de la tecnología con base en el nivel de riesgo que represente para las personas. Hace dos semanas, la Comisión Europea publicó las directrices que deberán seguir los sistemas de inteligencia artificial generativa para ajustarse a la ley.
Estados Unidos ha expresado su inconformidad con las recientes leyes europeas que buscan limitar el poder de las grandes tecnológicas, en su mayoría con sede en territorio estadounidense.
Además de la ley de inteligencia artificial, la UE también ha aprobado la ley de mercados digitales, que promueve la competencia justa entre plataformas, y la ley de servicios digitales, que obliga a las tecnológicas a combatir contenidos ilegales.
Bruselas pide que los sistemas de inteligencia artificial generativa, especialmente aquellos considerados de alto riesgo por su capacidad de cómputo, no sean entrenados con datos protegidos por derechos de autor y que evalúen los posibles riesgos que representan para los usuarios.
Se busca que estos sistemas analicen si pueden facilitar violaciones a los derechos humanos o generar otros riesgos, como pérdida de control humano o accidentes químicos, biológicos o nucleares.
Cualquier actualización de modelos de inteligencia artificial que llegue al mercado deberá cumplir con la normativa. En caso de incumplimiento, Bruselas podrá iniciar procedimientos sancionadores a partir del 2 de agosto de 2026.
La fecha se aplaza un año para todas las versiones de chats ya disponibles, y la vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, dejó abierta la posibilidad de retrasar aún más la aplicación de la ley.
Mientras tanto, cuarenta organizaciones europeas e internacionales de artistas, editores y titulares de derechos han manifestado esta semana su inconformidad con el código de conducta, al considerarlo una oportunidad perdida para ofrecer una protección efectiva a la propiedad intelectual.