Aunque la visión artificial se utiliza en áreas como redes sociales, vehículos autónomos o robótica, un nuevo estudio señala que gran parte de esta tecnología está siendo dirigida al desarrollo de sistemas de vigilancia masiva, lo que representa un riesgo para la privacidad y las libertades individuales.
Investigadores de la Universidad de Stanford, en un análisis publicado en la revista Nature, revisaron más de 40 mil artículos científicos y las patentes derivadas de ellos. Su conclusión: la mayoría de las aplicaciones de visión artificial se enfocan en detectar y analizar el comportamiento humano.
El número de estudios vinculados a patentes para vigilancia se multiplicó por cinco entre los años noventa y 2010. En particular, las tecnologías analizadas incluyen reconocimiento facial, monitoreo de actividades cotidianas y análisis de espacios habitados, como hogares, oficinas o calles.
En una muestra aleatoria de 100 trabajos y patentes, 9 de cada 10 artículos científicos y el 86% de las patentes estaban orientados a recolectar información sobre personas.
Estados Unidos y China encabezan la lista de países con mayor producción de estudios y patentes relacionadas con vigilancia mediante visión por computadora.
Los autores del estudio también advierten sobre el uso de términos ambiguos para disfrazar estas aplicaciones. En muchos casos, se emplean expresiones técnicas que minimizan el hecho de que se trata de monitoreo de personas, por ejemplo, al referirse a los individuos como objetos.
El análisis subraya que estas prácticas ponen en riesgo derechos fundamentales como la privacidad, la libertad de expresión y la libre circulación. Además, se destaca la creciente normalización de este tipo de vigilancia, impulsada tanto por instituciones académicas como por actores militares, corporativos y gubernamentales.