Inicio Web. Inteligencia artificial, el peor escenario para la ciberseguridad

Inteligencia artificial, el peor escenario para la ciberseguridad

La seguridad informática enfrenta el peor escenario con el uso de inteligencia artificial en los ataques cibernéticos

Ciberataques

La seguridad informática enfrenta el peor escenario con el desembarco al mercado de los primeros programas de inteligencia artificial que pueden aprender a evadir todo tipo de escudos de ciberseguridad.

Los investigadores de seguridad lanzaron la advertencia por un equipo de IBM que utilizó la técnica de inteligencia artificial, conocida como aprendizaje automático (machine learning) para elaborar programas de hackeo que podrían vulnerar las mejores medidas defensivas.

Las defensas más modernas generalmente recurren al examen de lo que está haciendo el software de ataque, en vez de la técnica más común de analizar la programación en busca de señales de peligro.

Sin embargo, el nuevo tipo de programas que usan inteligencia artificial puede ser entrenado para permanecer inactivo hasta que alcance un objetivo muy específico, lo que hace que sea muy difícil detectarlos.

Nadie se ha jactado de haber captado un software malicioso que dependiera claramente del aprendizaje automático y otras variantes de la inteligencia artificial, pero eso podría deberse simplemente a que los programas son demasiado avanzados como para ser detectados.

Los investigadores sostienen que, en el mejor de los casos, la llegada de este tipo de ataques es solo cuestión de tiempo. Los bloques de construcción gratuitos de inteligencia artificial para programas de entrenamiento están disponibles en el buscador Google y otras fuentes, y las ideas funcionan muy bien en la práctica.

Jon DiMaggio, analista senior de amenazas de la empresa especialista de seguridad informática Symantec, comentó: ‘creo absolutamente que vamos en ese sentido. Va a ser mucho más difícil de detectar programas de ataque informático que se sirven de inteligencia artificial’.

El esfuerzo de IBM para detener estos ataques se llama Deeplocker, y ha probado que puede haber un nivel similar de precisión disponible para aquellos con mucho menos recursos que un Gobierno Nacional.

En una demostración, usando fotografías disponibles públicamente de un objetivo de muestra, el equipo usó una versión manipulada para videoconferencias que solo entró en acción cuando detectó el rostro de un objetivo.