El uso de herramientas de inteligencia artificial generativa, como ChatGPT, por parte de las empresas, podría poner en riesgo la información confidencial de los clientes y los secretos comerciales, según Team8.
El informe, elaborado por la empresa de riesgo con sede en Israel, advierte que la adopción generalizada de nuevos chatbots de IA y herramientas de escritura podría dejar a las empresas vulnerables a filtraciones de datos y demandas.
Se teme que los piratas informáticos puedan explotar los chatbots para acceder a información corporativa confidencial o realizar acciones en contra de la empresa. Además, existe la preocupación de que las empresas de inteligencia artificial puedan utilizar en el futuro la información confidencial que se introduce en los chatbots.
Las principales empresas de tecnología, como Microsoft y Alphabet, están compitiendo por agregar capacidades generativas de inteligencia artificial para mejorar los chatbots y los motores de búsqueda, entrenando sus modelos con datos extraídos de Internet para brindarles a los usuarios una ventanilla única para sus consultas. Sin embargo, si estas herramientas se alimentan de datos confidenciales o privados, será muy difícil borrar la información, según el reporte.
Team8 describe el riesgo como ‘alto’ y advierte que el uso empresarial de la llamada GenAI puede resultar en el acceso a procesamiento de información confidencial, propiedad intelectual, código fuente, secretos comerciales y otros datos, a través de la entrada directa del usuario o la API, incluida la información privada del cliente y la información confidencial. El documento subraya la necesidad de introducir las salvaguardas adecuadas para gestionar estos riesgos.
El informe también fue respaldado por Michael Rogers, ex jefe de la Agencia de Seguridad Nacional de Estados Unidos y el Comando Cibernético de este país.
Además, el documento destaca la mayor amenaza de que la información se comparta cada vez más a través de aplicaciones de terceros, lo que podría proporcionar acceso al correo electrónico y al navegador web, y permitir que un atacante tome medidas en nombre de un usuario.
Microsoft ha incorporado algunas funciones de chatbot de IA en su motor de búsqueda Bing y en las herramientas de Microsoft 365.