Gracias el perfeccionamiento de los filtros, el spam está más controlado con el aprendizaje profundo.
Hace 10 años, el spam colapsaba las bandejas de entrada, en tanto que ahora, de la mano del aprendizaje profundo (Deep Learning) se ha mejorado la capacidad de rastreo de las fake news de los algoritmos.
Así lo interpreta Juan Gómez, integrante de investigación y profesor de Ciencias de la Computación en la Universidad de Granada, quien reconoce que la complejidad de los mensajes dificulta hallar las estructuras de veracidad y falsedad.
‘Hay recursos visuales simples y llamativos, como los emoticonos y las mayúsculas, que son pistas relevantes para identificar las fake news; pero su ingeniería también evoluciona. Es decir, los datos de entrenamiento que usamos en un determinado contexto ahora no pueden aplicarse’.
Al igual que las capacidades de la inteligencia artificial evolucionan, la maquinaria de los bulos lo hace incluso más rápidamente.
Ante esta situación, Claire Wardle, directora de investigación de FirstDraft, huye de un único concepto de desinformación. En su opinión, por lo menos nos encontramos delante de siete escenarios diferentes, que van desde la noticia inventada o manipulada, hasta la sátira –no tiene intención de dañar, pero cuenta con un potencial elevado de engaño–.
El estudio del MIT ‘Initiatives on The Digital Economy’, que había analizado unos 126,000 hilos de Twitter, determinó que la verdad tarda aproximadamente seis veces más que la mentira para alcanzar a 1,500 personas. Se difunde más lejos y más rápidamente.
Para mejorar la capacidad de rastreo de las fake news de los algoritmos, al menos así lo interpreta Gómez, ha llegado el momento de que el aprendizaje profundo brille.
‘Puede tener la llave de algunas estructuras más sólidas. Nosotros nos hemos dado cuenta de que las técnicas de deep learning, como las que procesa el lenguaje natural, mejoran las estadísticas’.
Ricardo Baeza-Yates, director de Ciencia de Datos en North University y catedrático de informática de la Universidad Pompeu Fabra, pone un ejemplo elemental: El código html ‘es una señal valiosa para identificar las estructuras falsas y que no está precisamente al alcance de las personas’. Incluso el exceso de coherencia representa un marcador determinante; y estos algoritmos enseguida dan la voz de alarma.
El margen de mejora de los algoritmos es muy amplio, aún con todos los avances logrados recientemente. Un margen algo estrecho si atendemos a las consideraciones de Baeza-Yates. Su nivel de acierto depende de los datos, con lo que alguien ha de ser mejor que la máquina para enseñar. ‘Si somos incapaces de encontrar artículos más complejos, no podremos entrenar algoritmos para que detecten bulos más y más sofisticados’, concluye.
La propia evolución de las fake news también reduce el futuro que afrontar el Machine Lerning.
Gómez destaca que la idea inicial con la que se creaban las fake news partía de cambiar la opinión sobre un hecho. Una vez que constaba, el salto ha sido mantener en alerta a una comunidad y fidelizar a los simpatizantes.
‘Muchos textos son de consumo propio. ¿Cómo controlamos esto? ¿Cómo logra aprenderlo la inteligencia artificial?’, se pregunta.
Nadie pretende que la tecnología sea la única responsable de diferenciar entre falso y verídico, pero sí una herramienta que ayude a decidir.