Conteúdos manipulados estão aparecendo nas respostas do ChatGPT. O problema começa com sites hackeados e domínios antigos reaproveitados para enganar a inteligência artificial e influenciar suas recomendações.
- Sites invadidos viram fontes para recomendações falsas.
- Domínios expirados são comprados e usados para enganar a IA.
- ChatGPT pode citar fontes manipuladas sem perceber.
Uma investigação feita pelo especialista em SEO James Brockbank revelou que o ChatGPT pode recomendar empresas com base em conteúdos publicados em sites comprometidos. Em seus testes, ele identificou casos em que a IA apresentou listas de apostas como se fossem informações legítimas.
Um exemplo envolveu o site de um advogado que atua em casos de violência doméstica na Califórnia. O site foi invadido e passou a exibir conteúdos sobre jogos online. O mesmo ocorreu com páginas de uma ONG da ONU e de um acampamento infantil, que foram usados para esconder esse tipo de material, muitas vezes com técnicas sutis como textos invisíveis para o usuário.
Outro método comum é a compra de domínios expirados que mantêm backlinks valiosos de sites como BBC e CNN. Esses domínios, antes confiáveis, são transformados em páginas de propaganda disfarçada, aproveitando a reputação herdada para enganar a IA.
O ponto é que o ChatGPT tende a priorizar fontes com alta autoridade e conteúdos recentes. Isso faz com que ele cite domínios que, mesmo tendo mudado completamente de propósito, ainda pareçam legítimos por fora.
Esse tipo de manipulação já é conhecida no universo de SEO como black hat. Usar essas táticas para aparecer em recomendações da IA cruza a linha da ética e levanta preocupações sobre a transparência e segurança dessas plataformas.
Para saber mais, acesse o artigo “ChatGPT Recommendations Potentially Influenced By Hacked Sites”, do Search Engine Journal.