Inicio Tecnología. Preocupa uso del aprendizaje profundo en China

Preocupa uso del aprendizaje profundo en China

El Gobierno chino ha comenzado a utilizar cámaras de video de circuito cerrado y reconocimiento facial para monitorear lo que hacen sus ciudadanos en público

Videovigilancia
Videovigilancia

En China, hay preocupación sobre la forma en que se utiliza la inteligencia artificial (IA) para la vigilancia y el control político en el país asiático.

Joshua Bengio, un científico informático canadiense y también cofundador de Element IA, compañía de inteligencia artificial con sede en Montreal, dijo que estaba preocupado por la tecnología que ayudó él mismo crear y que ahora se usa para vigilar y controlar el comportamiento e influir en las mentes de las personas en China.

En una entrevista, el cientfífico comentó que ‘este es el escenario del Big Brother de 1984. Creo que se está volviendo cada vez más aterrador’.

Bengio es además profesor de la Universidad de Montreal, y es considerado como uno de los tres ‘padrinos’ del aprendizaje profundo, junto con Yan LeCun y Geoff Hinton.

Se trata de una tecnología que utiliza redes neuronales, un tipo de software basado libremente en aspectos del cerebro humano, para hacer predicciones basadas en datos.

Es responsable de los avances recientes en reconocimiento facial, procesamiento de lenguaje natural, traducción y algoritmos de recomendación.

El aprendizaje profundo requiere una gran cantidad de datos para proporcionar ejemplos de los cuales aprender, pero China, con su vasta población y sistema de registros estatales, tiene mucho de eso avanzado.

El Gobierno chino ha comenzado a utilizar cámaras de video de circuito cerrado y reconocimiento facial para monitorear lo que hacen sus ciudadanos en público, desde el jaywalking hasta la participación en la disidencia política.

China también creó una Plataforma Nacional de Intercambio de Información de Crédito, que se utiliza para incluir en una lista negra a los pasajeros aéreos y ferroviarios por su comportamiento antisocial, y está considerando expandir los usos de este sistema a otras situaciones.

‘La utilización de la cara para rastrearla debe ser altamente regulada’, dijo Bengio.

Esta preocupación es compartida, entre otros, por el multimillonario George Soros, quien recientemente pronunció un discurso en el Foro Económico Mundial del 24 de enero, para destacar los riesgos que se corren cuando esta tecnología en cuanto a los derechos humanos y las libertades civiles.

El científico, quien también dirige el Instituto de Algoritmos de Aprendizaje en Montreal (Mila), ha resistido la tentación de trabajar para una gran empresa de tecnología orientada a la publicidad. Comentó que el desarrollo responsable de la IA puede requerir que algunas grandes compañías que cambien la forma en que operan.

Bengio agregó que si bien hay muchas maneras en las que el software de aprendizaje profundo puede utilizarse para buenas obras, también existe el riesgo de que la implementación de la IA pueda causar pérdidas de empleos en una escala y a una velocidad diferente de lo que ha sucedido con otras inovaciones tecnológicas.

Indicó que los gobiernos deberían ser proactivos al pensar en estos riesgos, incluso al considerar nuevas formas de redistribuir la riqueza dentro de la sociedad.

‘La tecnología, a medida que se vuelve más poderosa, fuera de otras influencias, solo conduce a una mayor concentración de poderes. Eso es malo para la democracia, es malo para la justicia social y para el bienestar general de la mayoría de la gente’, indicó Bengio.

Opinión