Facebook presentó nuevas herramientas de inteligencia artificial para marcar publicaciones que potencialmente contienen información falsa y enfrentar así uno de sus mayores problemas.
No obstante, la red social reconoce que un sistema de este tipo podría potencialmente ser manipulado, particularmente en países donde la mayoría de las fuentes de noticias tienen sesgos políticos, o que los usuarios se unan para marcar una información precisa como falsa.
‘Esta es una gran preocupación. Es muy importante no permitir que el sesgo fluya hacia las etiquetas en sí’, dijo Joaquín Qinonero Candela, representante de la compañía.
Además de desarrollar su inteligencia artificial, Facebook ha tratado de solucionar el problema mediante la contratación de miles de revisores humanos, a menudo a través de contratistas.
Mark Zuckerberg, director ejecutivo de Facebook, dijo en repetidas ocasiones a los legisladores de Estados Unidos que la inteligencia artificial pronto podrá filtrar automáticamente el contenido de los 2,000 millones de usuarios de al red social para marcar publicaciones censurables. Pero, hoy, la tecnología sigue siendo demasiado inmadura para hacerlo correctamente.
Candela informó que incluso si se pudiera determinar la verdad básica, Facebook necesitaba protegerse contra el sesgo en la forma en que el algoritmo clasifica el contenido y en cómo los moderadores deciden actuar cuando se enfrentan con el contenido marcado como un falso, extremo u odioso.
Por ejemplo, cierto lenguaje puede ser inaceptable para que un extraño lo use al referirse a un miembro de grupo en particular, pero es adecuado dentro del mismo grupo.
Candela comentó que la compañía sabe que no hay respuestas fáciles para tantas preguntas.
Al referirse al tiempo que pasó aprendiendo las complejas matemáticas que sustentan los algoritmos de aprendizaje automático y comparándolas con el espinoso problema de la moderación del contenido, Candela dijo: ‘Siento que cuando estaba haciendo cálculos súper complicados, me parecía mucho más fácil que en la realidad’.