Inicio Inteligencia Artificial Tecnológicas de IA tienen responsabilidad ética con usuarios

Tecnológicas de IA tienen responsabilidad ética con usuarios

Las empresas líderes en el desarrollo de inteligencia artificial deben garantizar la seguridad de los productos que utilicen esa tecnología

Inteligencia artificial
Inteligencia artificial

La vicepresidenta de Estados Unidos, Kamala Harris, se reunió con los líderes de cuatro empresas líderes en el desarrollo de la inteligencia artificial para enfatizar la importancia de garantizar la seguridad de los productos que utilicen esa tecnología.

Harris destacó que el sector privado tiene una responsabilidad ética, moral y legal en este aspecto, y enfatizó que cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense.

La reunión se llevó a cabo en la Casa Blanca con los directores ejecutivos de Microsoft, Google, Anthropic y OpenAI, donde se discutió sobre cómo la inteligencia artificial puede mejorar la vida de las personas, pero también sobre cómo puede aumentar las amenazas a la seguridad y la privacidad, así como erosionar la confianza pública y la fe en la democracia.

La Administración de Joe Biden anunció que las empresas de inteligencia artificial se someterán a una evaluación pública de sus sistemas durante el evento DEF CON 31, y el Gobierno también invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación en inteligencia artificial que promoverán la innovación responsable y asegurarán que los avances sirvan al bien común.

Además, se emitirán nuevas directrices sobre el uso de la IA por parte de las agencias gubernamentales y federales para garantizar que respeten los derechos y la seguridad de los ciudadanos estadounidenses.