Sundar Pichai, CEO de Alphabet y Google, opina que la historia está llena de ejemplos de cómo las virtudes de la tecnología no están garantizadas y que estas lecciones nos enseñan que tenemos que estar alertas a lo que puede estar mal.
‘No podemos limitarnos a construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado sean las que determinen cómo se usan’, dijo Pichai en un artículo para el Financial Times.
El ejecutivo admite que hay preocupación real sobre las potenciales consecuencias negativas de la inteligencia artificial (IA), desde los llamados deep fakes hasta los usos viles del reconocimiento facial.
‘Ya ha habido trabajo en este sentido para atacar estas preocupaciones, pero habrá inevitablemente más retos que ninguna compañía o industria pueda resolver por sí misma’.
Pichai recuerda que tanto la Unión Europea como Estados Unidos están empezando a desarrollar propuestas regulatorias. El viernes pasado, de hecho, se filtró un libro blanco que prepara la Comisión Europea en el que se plantea la posibilidad de prohibir el uso de la tecnología de reconocimiento facial en lugares públicos por un periodo de hasta cinco años, con el fin de avanzar en el desarrollo de soluciones que mitiguen los riesgos que supone.
‘Para llegar ahí, necesitamos acuerdos en valores clave. Compañías como la nuestra no pueden solo construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado sean las que determinen cómo se usan’.
Por eso, Google publicó sus propios principios para asegurar el desarrollo ético de la inteligencia artificial, asegura Sundar Pichai en el artículo.
‘Estas pautas nos ayudarán a evitar los prejuicios, realizar pruebas rigurosas de seguridad, diseñar teniendo en cuenta la privacidad y hacer que la tecnología rinda cuentas a las personas’.
Pero los principios que quedan en el papel no tienen sentido, explica. ‘Por lo tanto, también hemos desarrollado herramientas para ponerlas en práctica, como probar las decisiones de IA para ser justos y realizar evaluaciones independientes de los derechos humanos en los nuevos productos’.
El directivo manifestó que han ido aún más lejos y han puesto estas herramientas y el código abierto relacionados y ampliamente disponibles, lo que permitirá a otros usar IA para siempre.
‘Creemos que cualquier empresa que desarrolle nuevas herramientas de IA también debe adoptar principios rectores y procesos de revisión rigurosos. No tengo dudas de que la inteligencia artificial debe ser regulada; la cuestión es cómo’, concuyó Pichai.