La inteligencia artificial está permitiendo a los estafadores llevar a cabo ataques más sofisticados contra empresas financieras, según un informe del Departamento del Tesoro de EU.
Los avances recientes en IA significan que los delincuentes pueden imitar de manera realista la voz o el vídeo para hacerse pasar por clientes en instituciones financieras y acceder a cuentas, según la agencia.
Además, la inteligencia artificial permite a los delincuentes crear ataques de phishing por correo electrónico cada vez más sofisticados, con mejor formato y menos errores tipográficos.
Nelly Liang, subsecretaria de finanzas internas, afirmó que ‘la inteligencia artificial está redefiniendo la ciberseguridad y el fraude en el sector de servicios financieros’.
El informe del Departamento del Tesoro incluyó 42 entrevistas con personas de los sectores de servicios financieros y tecnología de la información, proveedores de datos y empresas antifraude y antilavado de dinero.
Una preocupación destacada fue la posible ‘fragmentación regulatoria’ a medida que las agencias federales y estatales establecían reglas básicas para la IA.
El informe también señala que las empresas financieras más pequeñas, a diferencia de las empresas más grandes, tienen menos recursos de TI y menos experiencia para desarrollar sistemas de IA internamente. Suelen depender de terceros y tienen acceso a menos datos internos para entrenar modelos de IA para prevenir el fraude.
Para abordar esta brecha, la Asociación Estadounidense de Banqueros está diseñando un programa piloto para facilitar el intercambio de información de la industria sobre fraude y otras actividades ilícitas.
El gobierno de EU también podría ayudar proporcionando acceso a informes históricos de fraude para entrenar modelos de inteligencia artificial, sugiere el Tesoro.
Además, el Tesoro estableció una serie de otros pasos que el gobierno y la industria deberían considerar, incluido el desarrollo de un lenguaje común en torno a la IA y el uso de descripciones estandarizadas para ciertos sistemas de IA proporcionados por los proveedores, con el fin de identificar qué datos se utilizaron para entrenar el modelo y de dónde provienen.