La reciente decisión de Google de activar por defecto el acceso de su IA Gemini a aplicaciones de terceros como WhatsApp ha generado fuertes preocupaciones en torno a la privacidad.
Las apps de mensajería son de los espacios digitales más delicados para las personas, ya que suelen contener conversaciones privadas, datos personales e incluso información sensible. Dar acceso automático a una herramienta de inteligencia artificial sin un consentimiento claro y directo pone en juego la confianza de los usuarios.
Aunque Google asegura que esta función busca hacer más fluidas las interacciones, el hecho de aplicar un modelo de exclusión en lugar de inclusión voluntaria podría provocar que muchas personas no se den cuenta de que sus chats están siendo procesados por una IA.
Desde el punto de vista de la ciberseguridad, este escenario enciende alertas. Los ciberdelincuentes ya están utilizando inteligencia artificial para sofisticar ataques de ingeniería social y recolectar información personal. Si actores maliciosos logran explotar estas integraciones, podrían abrirse nuevas rutas para cometer fraudes, robos de identidad y otros delitos.
Especialistas como Marc Rivero, analista principal del equipo global de investigación en Kaspersky, señalan que la inteligencia artificial debería utilizarse para proteger la privacidad, no para debilitarla. Dar acceso por defecto a datos personales sin contar con medidas sólidas de protección sienta un precedente peligroso.
Las compañías deben enfocarse en brindar a las personas control total sobre su información y ser claras en la forma en que la utilizan, priorizando siempre la privacidad en cada implementación tecnológica.