ChatGPT removió cuentas rusas y chinas que utilizaban su software de inteligencia artificial para campañas de propaganda (AP) (Michael Dwyer/)
OpenAI, la empresa creadora de ChatGPT, confirmó este jueves que grupos de Rusia, Irán, China e Israel se habían estado valiendo de esta herramienta para producir y difundir su propaganda maliciosa. La noticia se confirmó a semanas de que se celebren las elecciones europeas y los comicios presidenciales en Estados Unidos, así como en medio de las guerras en Oriente Medio y en Ucrania.
Según informó la empresa, se trató de cuentas asociadas con conocidas operaciones de propaganda de Moscú, Beijing y Teherán, junto con una empresa de campaña política de Tel Aviv y el grupo ruso desconocido hasta el momento. Estos usuarios se valieron de la tecnología durante varios años para escribir publicaciones, traducirlas a diversos idiomas y crear un software que les permita publicarlas de forma automática en las redes sociales, propagando el mensaje a una mayor velocidad.
Spamouflage, un grupo chino que ya había estado bajo la lupa de la comunidad internacional, utilizó la herramienta para investigar la actividad en redes sociales y escribir publicaciones en chino, coreano, japonés e inglés, basándose en esos datos. El iraní Unión Internacional de Medios Virtuales también la empleó en la creación de artículos que, luego, publicó en su sitio web.
En tanto, a Bad Grammar, la agrupación rusa descubierta gracias a esta trama, le sirvió para crear un programa capaz de publicar automáticamente en Telegram y, a su vez, generar publicaciones y comentarios tanto en ruso como en inglés, que apuntaban contra Estados Unidos y daban argumentos sobre por qué no debería ayudar más a Ucrania en la guerra.
En referencia a Israel, se encontró que la empresa de campaña política Stoic había generado por medio de estos avances tecnológicos publicaciones en favor del país en el marco de la guerra en Gaza, que estuvieron dirigidas a Canadá, Estados Unidos e Israel. A los hallazgos de OpenAI se sumó Meta, que también dio cuenta de prácticas similares de la compañía en su red, por medio de 510 cuentas en Facebook y 32 en Instagram. Según sumaron, algunas de ellas figuraban bajo el nombre de personas ficticias mientras otras habían sido pirateadas de usuarios reales.
Por medio de éstas se crearon reiterados comentarios en páginas de personas y organizaciones de medios de comunicación bajo la fachada de estudiantes universitarios pro israelíes o afroamericanos que apoyaban a las Fuerzas de Defensa y advertían de las amenazas del “Islam radical”.
“Los hemos visto generar texto en un volumen mayor y con menos errores de los que estas operaciones han manejado tradicionalmente”, dijo a The Washington Post Ben Nimmo, investigador principal del equipo de investigaciones de Inteligencia de OpenAI, quien anteriormente trabajó en operaciones de influencia de seguimiento de Meta.
Todas estas cuentas, sin embargo, fueron eliminadas aunque, de todas formas, ninguna de ellas había tenido mucho éxito: consiguieron unos pocos seguidores, su alcance fue bastante limitado y los comentarios quedaban fuera de contexto. No obstante, esto dejó al descubierto los riesgos que implica el uso de la IA con un fin malicioso y todo el daño que puede hacer en la sociedad, dado que no se descarta que existan otros grupos todavía basándose en las herramientas de OpenAI sin el conocimiento de la compañía.
“Este no es momento de complacencia. La historia muestra que operaciones de influencia que durante años no lograron llegar a ninguna parte pueden estallar repentinamente si nadie las busca”, sumó Nimmo.
Durante años, los Gobiernos y grupos de activistas han estado luchando por combatir el uso de las redes sociales como canal de influencia y manipulación política. Luego de las denuncias en 2016 de la interferencia del Kremlin en las elecciones de Estados Unidos, las principales plataformas en línea comenzaron a prohibir a los políticos encubrir sus esfuerzos por influir en los usuarios y hasta se exige que se demuestre quién está detrás del financiamiento de los anuncios.
Noticia en desarrollo…