Apple planea una herramienta analizar iPhones en Estados Unidos en busca de imágenes que muestren abuso infantil, informó el diario Financial Times.
El sistema representa un uso poderoso de la tecnología para detectar delitos violentos y sexuales, pero también plantea preguntas alarmantes sobre la privacidad y la vigilancia corporativa de los teléfonos de millones de personas.
La compañía describió su herramienta propuesta, más conocida como neuralMatch, a académicos estadounidenses esta semana, informó el periódico, citando dos investigadores de seguridad no identificados.
Ésta alertará a los supervisores humanos sobre imágenes potencialmente ilegales, quienes posteriormente notificarán a las fuerzas del orden, según el informe.