ChatGPT erra na atribuição de fontes (e isso é um problema)

Atualizado em 6 de dezembro de 2024
por Rafael Rez.

Um estudo revelou falhas graves na busca do ChatGPT ao atribuir fontes de notícias. Com erros em 76% das respostas, o sistema levanta preocupações sobre a visibilidade dos editores e a confiança nas informações.

  • O sistema frequentemente cita conteúdos copiados em vez das fontes originais.
  • Publishers que colaboram também enfrentam má representação.
  • Essas falhas comprometem o controle editorial sobre o conteúdo.

Ao que tudo indica, o ChatGPT Search está longe de atender às necessidades do jornalismo. Pelo menos é isso que sugere um estudo da Universidade de Columbia. 

Ao usar o ChatGPT como uma ferramenta de busca, os leitores esperam precisão nas informações e respeito pelos autores originais. Infelizmente, nem sempre isso acontece. Em muitos casos, as respostas priorizam sites que copiam conteúdo, prejudicando quem produziu a informação original.

Além disso, mesmo os editores que autorizam o uso de suas informações não têm garantias de visibilidade ou atribuição adequada. Isso pode ser bastante problemático, já que diminui a confiança em veículos sérios e incentiva a circulação de informações imprecisas ou plagiadas.

Resolver problemas como a má atribuição e priorizar fontes confiáveis é essencial para que o ChatGPT seja visto como uma ferramenta de busca confiável, principalmente quando falamos de notícias. 

Para entender mais, acesse o artigo ChatGPT Search Fails Attribution Test, Misquotes News Sources” , do Search Engine Journal.

Gostou do conteúdo? Compartilhe:

Rafael Rez
Fundador da agência de SEO & Conteúdo Web Estratégica e co-Fundador da Nova Escola de Marketing. Autor do livro de marketing: “Marketing de Conteúdo: A Moeda do Século XXI”, publicado no Brasil pela DVS Editora e em Portugal pela Editora Marcador. Possui MBA em Marketing pela Fundação Getúlio Vargas (FGV) em 2013.