OpenAI, creadora de la herramienta de inteligencia artificial ChatGPT, alertó que ha identificado campañas de propaganda encubierta por parte de Rusia, China, Irán e Israel que utilizan su tecnología para influir en el discurso político.
‘En los últimos tres meses, hemos desmantelado cinco operaciones de influencia encubierta (IO) que empleaban nuestros modelos para respaldar actividades engañosas en Internet’, declaró Ben Nimmo, el principal investigador del equipo de OpenAI, en un informe sobre estas campañas.
OpenAI mencionó la interrupción de dos operaciones rusas: una que difundía contenido sobre Ucrania en internet y otra que operaba ‘principalmente en Telegram y tenía como objetivo Ucrania, Moldavia, los Estados bálticos y Estados Unidos’.
La empresa también identificó un actor chino persistente que publicaba contenido en línea ‘para elogiar a China y criticar a sus detractores’, y un actor iraní que lanzaba contenido en contra de Israel y Estados Unidos.
Asimismo, se detectó una empresa comercial en Israel que generaba contenidos sobre el conflicto de Gaza y, en menor medida, sobre la organización sindical Histadrut en Israel y las elecciones indias, según el informe.
El contenido difundido por estas operaciones abarcaba temas como la guerra en Ucrania y el conflicto en Gaza, además de asuntos como las elecciones generales en la India, la política en Europa y EU, y críticas al gobierno chino por parte de disidentes y gobiernos extranjeros.
Los atacantes intentaban influir en la opinión pública mediante la creación de contenido con errores de idioma, la combinación de contenido nuevo con antiguo y la generación de respuestas a sus propias publicaciones para simular participación y aumentar la productividad.
Sin embargo, estas operaciones ‘no parecen haber obtenido una mayor participación o alcance de audiencia como resultado de nuestros servicios’, concluyó Nimmo.