Y a partir de ello hacen lo que los expertos llaman un consenso sintético. “Una vez infiltrado un grupo en línea, los enjambres de IA maliciosa pueden crear la ilusión de un amplio consenso público en torno a las narrativas que están programados para promover“, plantea el informático. “Esto explota un fenómeno psicológico conocido como prueba social: los humanos tendemos naturalmente a creer algo si percibimos que ‘todo el mundo lo dice’“, agrega.
Lee también... Ramón López de Mántaras, experto en IA: "Nos encontraremos personas casi analfabetas de tanto usarla" Jueves 22 Enero, 2026 | 10:12 Ante esta amenaza creciente, los investigadores sugieren medidas de mitigación, como regularlos y diseñar sistemas para detectarlos que puedan implementarse en las redes sociales. Cabe señalar que, a diferencia de los bots que copian y pegan, estos enjambres realizan acciones variadas, lo que dificulta su identificación.
“Tanto la IA como las redes sociales deberían adoptar estándares más rigurosos para aplicar marcas de agua al contenido generado por IA, así como reconocer y etiquetar dicho contenido”, señala Menczer. También apunta a restringir la monetización en las redes para estas interacciones no auténticas, lo que “reduciría los incentivos financieros para que las operaciones de influencia y otros grupos maliciosos utilicen el consenso sintético”. “La amenaza de enjambres de IA maliciosa ya no es teórica: nuestras pruebas sugieren que estas tácticas ya se están implementando.
Creo que los responsables políticos y los tecnólogos deberían aumentar el coste, el riesgo y la visibilidad de este tipo de manipulación“, concluye. Referencia: Daniel Thilo Schroeder y otros autores. How malicious AI swarms can threaten democracy.
Revista Science, 2026.