Rusia y China utilizaban ChatGPT para campañas de propaganda

La empresa creadora, OpenAI, ha identificado operaciones vinculadas a ambos gobiernos, conocidas por llevar a cabo campañas de desinformación. Asimismo, se han cancelado usuarios de una compañía iraní y otra israelí.

El Mundo Editor
open AI

 
OpenAI, la empresa creadora de ChatGPT, confirmó este jueves que grupos de Rusia, Irán, China e Israel han estado utilizando su herramienta para producir y difundir propaganda maliciosa. Esta revelación se produce semanas antes de las elecciones europeas y los comicios presidenciales en Estados Unidos, en medio de los conflictos en Oriente Medio y Ucrania.

Según la empresa, las cuentas implicadas estaban asociadas con operaciones de propaganda de Moscú, Beijing y Teherán, junto con una empresa de campaña política de Tel Aviv y un grupo ruso previamente desconocido. Estos usuarios utilizaron la tecnología para escribir publicaciones, traducirlas a varios idiomas y crear software que les permitiera publicar automáticamente en redes sociales, acelerando así la difusión de sus mensajes.

Spamouflage, un grupo chino ya conocido por la comunidad internacional, empleó la herramienta para investigar la actividad en redes sociales y escribir publicaciones en chino, coreano, japonés e inglés. El iraní Unión Internacional de Medios Virtuales también la utilizó para crear artículos que luego publicaba en su sitio web. En tanto, el grupo ruso Bad Grammar desarrolló un programa para publicar automáticamente en Telegram y generar publicaciones y comentarios en ruso e inglés, criticando a Estados Unidos y argumentando contra su apoyo a Ucrania.

En cuanto a Israel, se descubrió que la empresa de campaña política Stoic había creado publicaciones pro-Israel utilizando estas tecnologías, dirigidas a audiencias en Canadá, Estados Unidos e Israel. Meta también encontró prácticas similares de Stoic en su plataforma, incluyendo 510 cuentas en Facebook y 32 en Instagram, algunas bajo nombres ficticios y otras pirateadas de usuarios reales. Estas cuentas publicaban comentarios en páginas de figuras públicas y organizaciones de medios, pretendiendo ser estudiantes universitarios pro-Israel o afroamericanos apoyando a las Fuerzas de Defensa de Israel.

Ben Nimmo, líder del equipo de investigaciones de inteligencia de OpenAI, explicó a The Washington Post que estas operaciones generaban texto en mayor volumen y con menos errores que antes. Aunque todas estas cuentas fueron eliminadas, su alcance fue limitado y sus comentarios fuera de contexto. Sin embargo, esto evidencia los riesgos del uso malicioso de la IA y su potencial daño social, dado que otros grupos podrían estar utilizando las herramientas de OpenAI sin ser detectados.

Nimmo advirtió que, aunque no se encontraron indicios de usos más sofisticados del software, como conversaciones personalizadas, no se descarta la posibilidad de ver estos desarrollos en el futuro. Durante años, gobiernos y activistas han combatido el uso de redes sociales para influir y manipular políticamente. Tras las denuncias de interferencia del Kremlin en las elecciones de Estados Unidos en 2016, las plataformas en línea comenzaron a prohibir los esfuerzos encubiertos de influencia y a exigir transparencia en el financiamiento de anuncios.

El avance tecnológico y la rápida adaptación de estos grupos superan la capacidad de respuesta de las empresas, que invierten meses en investigaciones. Con la reciente aparición de herramientas capaces de generar textos, imágenes y videos realistas, las compañías están en una carrera contrarreloj. Ejemplos recientes incluyen un video falso del candidato presidencial taiwanés Terry Gou creado con IA y una llamada falsa del presidente Joe Biden durante las primarias de New Hampshire.

OpenAI, Google y otras empresas ya están desarrollando software para identificar deepfakes, aunque esta tecnología aún no ha sido aprobada y su efectividad es cuestionable.

Te puede interesar
Lo más visto