Inicio Inteligencia Artificial California refuerza protección de artistas frente a la IA

California refuerza protección de artistas frente a la IA

California promulga dos leyes para evitar el uso indebido de imágenes y actuaciones digitales de artistas generadas por IA

El gobernador de California, Gavin Newsom, firmó dos nuevas leyes destinadas a proteger a los artistas del uso no autorizado de sus imágenes y actuaciones digitales generadas mediante inteligencia artificial (IA).

Según la Oficina de Newsom, esta legislación busca garantizar el uso responsable de la IA y otras tecnologías digitales en la industria del entretenimiento, proporcionando a los trabajadores mayores salvaguardas.

La primera ley, conocida como AB 1836, establece que el uso comercial de réplicas digitales de artistas fallecidos en medios como películas, programas de televisión, videojuegos y grabaciones de sonido, entre otros, requerirá el consentimiento de los herederos de dichos artistas.

La normativa tiene como fin evitar que se empleen de manera no autorizada actuaciones digitalmente recreadas de artistas que ya han fallecido.

Por otro lado, la ley AB 2602 refuerza las protecciones en los contratos de los artistas, exigiendo a los estudios y empleadores obtener un permiso específico antes de crear réplicas digitales de los mismos.

Newsom firmó estas leyes en la sede del sindicato de actores SAG-AFTRA, una organización que ha sido una de las principales impulsoras de la regulación del uso de la IA en la industria del entretenimiento.

El año pasado, la creciente preocupación por el uso de la IA fue uno de los temas clave que motivó la huelga de Hollywood, que paralizó la industria durante 118 días.

La presidenta de SAG-AFTRA, Fran Drescher, destacó que este es un momento crucial para los miembros del sindicato y otros profesionales del sector, ya que estas nuevas protecciones amplían los derechos frente al uso de la IA.

Además de estas leyes, en California está en discusión la iniciativa SB-1047, que busca establecer pruebas de seguridad para los modelos avanzados de IA con el objetivo de prevenir posibles ‘incidentes desastrosos’.