Comentários que teriam sido gerados por IA foram encontrados no Facebook e no Instagram e elogiavam maneira como Israel conduz guerra em Gaza
Logotipo da Meta AI
20/05/2024 - Reuters/Dado Ruvic/Foto ilustrativa
A Meta disse na quarta-feira (29) que encontrou conteúdo “provavelmente gerado por inteligência artificial” sendo usado de maneira enganosa em suas plataformas Facebook e Instagram, incluindo comentários elogiando a maneira como Israel conduz sua guerra em Gaza publicados embaixo de publicações de organizações globais de notícia e parlamentares norte-americanos.
A empresa de redes sociais, em um relatório trimestral de segurança, afirmou que as contas se fizeram passar por estudantes judeus, afro-americanos e outros cidadãos relacionados, visando o público de Estados Unidos e Canadá. A campanha foi atribuída a uma empresa de marketing político sediada em Tel Aviv chamada STOIC.
A STOIC não respondeu ao pedido por comentários sobre as acusações em um primeiro momento.
Embora a Meta tenha encontrado fotos de perfil básicas geradas por inteligência artificial em operações de influência desde 2019, esse foi o primeiro relatório a revelar o uso de tecnologia de IA generativa baseada em texto desde que surgiu no final de 2022.
Pesquisadores temem que IA generativa, que pode de forma rápida e barata produzir textos e áudios semelhantes aos dos humanos, possa levar a campanhas de desinformação mais eficientes e influenciar eleições.
Em uma teleconferência com a imprensa, executivos de segurança da Meta disseram que removeram a campanha de Israel e que não acham que novas tecnologias de IA impediram sua capacidade de interromper redes de influência, que são tentativas coordenadas de publicar mensagens.
Executivos disseram que não viram imagens de políticos geradas por IA realistas o suficiente para serem confundidas com fotos autênticas.
“Há vários exemplos nessas redes de como eles usam prováveis ferramentas de IA generativa para criar conteúdo. Talvez isso lhes dê a capacidade de fazê-lo mais rapidamente ou com mais volume. Mas não teve um impacto de verdade na nossa habilidade de detectá-los”, disse o chefe de investigações de ameaças da Meta, Mike Dvilyanski.
O relatório destacou seis operações de influência secretas que a Meta interrompeu no primeiro trimestre.
Além da rede STOIC, a Meta fechou uma rede sediada no Irã focada no conflito entre Israel e Hamas, embora não tenha identificado o uso de IA generativa naquela campanha.
A Meta e outras gigantes de tecnologia têm se dedicado a como lidar com o potencial uso inadequado de novas tecnologias de inteligência artificial, especialmente em eleições.
Pesquisadores encontraram exemplos de geradores de imagens de empresas como OpenAI e Microsoft produzindo fotos com desinformação relacionadas a eleições, apesar de essas empresas terem políticas contra esse tipo de conteúdo.
As empresas têm enfatizado sistemas de rotulagem digital para marcar conteúdo gerado por IA no momento em que é criado, mas as ferramentas não funcionam em textos e pesquisadores têm duvidas sobre sua efetividade.
As eleições da União Europeia no começo de junho e dos Estados Unidos em novembro serão testes fundamentais para as defesas da Meta.
*CNN Brasil