Um experimento recente mostrou que IAs generativas replicam informações falsas sobre marcas, mesmo diante de conteúdos oficiais. Isso mostra como as empresas precisam trabalhar ativamente para manter o controle de suas narrativas no contexto da IA.
- IAs priorizam histórias detalhadas, mesmo quando são falsas.
- Modelos como ChatGPT-4/5 citam FAQs, mas a maioria mistura ou ignora dados oficiais.
- Monitoramento e conteúdo específico reduzem riscos de desinformação.
- Cada IA pode apresentar versões diferentes sobre sua marca.
O experimento consistiu em criar uma marca fictícia, Xarumei, com site, imagens e histórias inventadas, além de um FAQ oficial negando rumores. Foram publicadas versões contraditórias sobre a marca em blogs, Reddit e Medium, simulando cenários comuns de desinformação online.
Ao testar oito IAs diferentes, ficou claro que a maioria preferiu narrativas falsas, desde que fossem detalhadas e convincentes. Gemini, Perplexity, Copilot e Grok repetiram dados inventados, como nomes de fundadores, cidades e números de vendas. ChatGPT-4 e ChatGPT-5 foram exceção, citando o FAQ oficial em 84% das respostas, mas ainda assim não evitaram totalmente a propagação de boatos. Claude ignorou a marca, o que não resolve para empresas novas.
O estudo mostrou que, para as IAs, fontes populares como Reddit e Medium têm muito peso, mesmo comparando com o site oficial da marca. Isso ocorre porque esses domínios são frequentemente usados no treinamento dos modelos, tornando suas histórias mais “críveis” para as máquinas. Quando há conflito entre fontes, a IA tende a escolher a versão mais específica, mesmo que seja falsa.
Na prática, marcas podem ter sua reputação distorcida por conteúdos de terceiros, sem controle direto. O risco é maior para empresas com pouca presença digital, pois as IAs preenchem lacunas com qualquer narrativa disponível. Isso afeta diretamente a percepção do público e pode gerar crises de imagem.
Para reduzir riscos, recomenda-se preencher todas as lacunas de informação com conteúdos oficiais, detalhados e atualizados. FAQs devem negar rumores de forma clara e trazer dados objetivos, como datas e números. Páginas de comparação, dados e explicações técnicas ajudam a fortalecer a versão oficial.
É fundamental monitorar menções à marca em fóruns, blogs e redes sociais, usando alertas para termos como “reclamação”, “ex-funcionário” ou “desabafo”. Algumas ferramentas de mercado permitem identificar rapidamente onde e como a marca aparece em respostas de IA.
Outra ação importante é testar periodicamente o que cada IA diz sobre sua marca, já que não existe um índice único. Gemini, Perplexity, ChatGPT e outros podem apresentar versões diferentes. Também é preciso ficar atento a links inventados por IAs, que podem direcionar usuários para páginas inexistentes.
O experimento reforça que a disputa por reputação agora envolve algoritmos que não distinguem facilmente entre verdade e ficção. O trabalho de SEO e conteúdo precisa ser proativo, detalhado e contínuo para garantir que a versão oficial da marca prevaleça nos ambientes de IA.
Para se aprofundar mais no experimento, acesse o artigo “AI vs. Made-Up Brand: I Planted Fake Stories and Watched AI Repeat Them“, publicado pela Ahrefs.
