O Google suspendeu a função de geração de imagens por inteligência artificial do Gemini nesta quinta-feira (22). A decisão é anunciada após várias críticas por parte dos usuários do serviço, que perceberam erros bizarros ao criar fotografias históricas.
Casos relatados por usuários indicam que a inteligência artificial estava cometendo erros ao fazer representações raciais de figuras históricas, como os Pais Fundadores dos Estados Unidos; em alguns momentos, o serviço criou imagens de soldados alemães negros na era nazista. Os resultados geraram debates sobre possíveis “vieses” do Gemini.
(Imagem: Reprodução/The Verge)
No exemplo acima, o usuário solicitou que a IA criasse a imagem de um soldado alemão em 1943 — ano em que o país estava sob o regime nazista. Um dos quatro resultados fornecidos pelo chatbot inclui um homem negro que, na época, seria considerado um “untermensch” — termo nazista para descrever seu conceito de “povos inferiores”, isto é, não arianos.
Em publicação na conta oficial do Google no X (antes conhecido como Twitter), a empresa afirma que a habilidade do serviço em criar imagens usando inteligência artificial inclui uma “ampla gama de pessoas”, mas reconhece que o “Gemini está mostrando imprecisão em algumas representações históricas na geração de imagens”.
Usuário pede que Gemini crie imagem dos "Pais Fundadores dos Estados Unidos" (Imagem: Reprodução/X)
Em outro caso, um usuário tentou gerar a representação dos Pais Fundadores dos Estados Unidos, figuras históricas tradicionalmente retratadas como homens brancos, e o Gemini representou esses líderes políticos — que incluem George Washington, Thomas Jefferson, John Adams, Benjamin Franklin e outros — como negros ou nativos americanos.
O Google começou a incluir a função generativa de imagens no Gemini (antes conhecido como Google Bard) no início do mês para rivalizar com as propostas da OpenAI. Contudo, publicações de usuários nas redes sociais questionaram uma possível tentativa de manter a diversidade racial e de gênero ao custo da precisão dos resultados gerados.
Alguns dos críticos alegam que os erros estão relacionados a um suposto “viés liberal” por parte do Google. Na publicação de reconhecimento das falhas no perfil da empresa, várias contas acusam a empresa de “racismo” por manipular as características físicas de pessoas brancas historicamente documentadas.
(Imagem: Reprodução)
Em nota relacionada, uma reportagem publicada em novembro de 2023 pelo Washington Post mostrou como a inteligência artificial pode amplificar estereótipos.
Utilizando o Stable Diffusion, outra ferramenta de geração de imagens por inteligência popular no mercado, o jornal mostrou que a esmagadora maioria de imagens de “pessoas produtivas” retratam um homem branco em um escritório, enquanto imagens de “pessoas atraentes” geradas pela IA exibem uma mulher jovem de pele clara.
A expectativa é que, além do Google, outros serviços de inteligência artificial sejam aprimorados com maior precisão de resultados quando o assunto é representação histórica. Muito além de imagens, nos primeiros dias da tecnologia, era consideravelmente mais comum que houvesse casos de desinformação, uso de opiniões políticas e outras questões.
Com isso, as empresas desenvolvedoras por trás dos serviços mais populares trabalham para evitar o uso indevido das tecnologias em cenários específicos. A OpenAI, por exemplo, busca combater o uso do ChatGPT para fins políticos nas eleições nos Estados Unidos que ocorrerão em 2024.
*TudoCelular