Zoom se encuentra en medio de una controversia debido a la manera en que emplea los datos de sus usuarios para mejorar sus herramientas de inteligencia artificial (IA).
Esta controversia surgió luego de que la empresa actualizara sus políticas de uso, permitiendo que los datos se utilicen con fines de entrenamiento voluntariamente.
Después de que un medio especializado analizara en detalle estas políticas y compartiera sus hallazgos en Twitter y foros en línea, la plataforma de videoconferencias tuvo que responder a las preocupaciones generadas.
En respuesta, la empresa ajustó su documento de consentimiento expreso y afirmó que los usuarios tienen la opción de decidir si desean o no compartir contenido con Zoom para mejorar su IA.
De acuerdo con los términos de uso, los usuarios aceptan que Zoom pueda recolectar datos con el propósito de entrenar y ajustar algoritmos y modelos de IA. La empresa también obtiene una licencia perpetua para utilizar ese contenido con diversos propósitos en todo el mundo.
Gabriella Coleman, profesora de la Universidad de Harvard especializada en asuntos relacionados con internet, expresó su descontento en Twitter al afirmar que Zoom pretende utilizar a sus usuarios para el entrenamiento de su IA. Su mensaje generó un amplio debate en línea y motivó a la compañía a actualizar sus políticas de uso.
En una declaración en su sitio web corporativo, Zoom explicó los cambios recientes en sus términos de servicio, particularmente en lo que respecta a sus nuevas herramientas de IA. La empresa ofrece dos servicios basados en esta tecnología: uno que resume contenido de reuniones y otro que ayuda en la redacción de mensajes. Según la empresa, los propietarios y administradores de cuentas tienen el control de si desean activar estas herramientas.
La empresa también destacó que, al usar estas herramientas, los usuarios pasan por un ‘proceso de consentimiento transparente’ que autoriza el uso de datos para el entrenamiento de los modelos de IA.
Y aseguró que el contenido de los usuarios se utiliza exclusivamente para mejorar el rendimiento y la precisión de sus servicios de IA, y que incluso si se comparten los datos, no se emplearán para entrenar modelos de terceros.
En un contexto global en el que están surgiendo nuevos modelos de IA, se ha generado un debate relevante sobre las implicaciones en áreas como la privacidad y los derechos de propiedad intelectual.