Um estudo revelou falhas graves na busca do ChatGPT ao atribuir fontes de notícias. Com erros em 76% das respostas, o sistema levanta preocupações sobre a visibilidade dos editores e a confiança nas informações.
- O sistema frequentemente cita conteúdos copiados em vez das fontes originais.
- Publishers que colaboram também enfrentam má representação.
- Essas falhas comprometem o controle editorial sobre o conteúdo.
Ao que tudo indica, o ChatGPT Search está longe de atender às necessidades do jornalismo. Pelo menos é isso que sugere um estudo da Universidade de Columbia.
Ao usar o ChatGPT como uma ferramenta de busca, os leitores esperam precisão nas informações e respeito pelos autores originais. Infelizmente, nem sempre isso acontece. Em muitos casos, as respostas priorizam sites que copiam conteúdo, prejudicando quem produziu a informação original.
Além disso, mesmo os editores que autorizam o uso de suas informações não têm garantias de visibilidade ou atribuição adequada. Isso pode ser bastante problemático, já que diminui a confiança em veículos sérios e incentiva a circulação de informações imprecisas ou plagiadas.
Resolver problemas como a má atribuição e priorizar fontes confiáveis é essencial para que o ChatGPT seja visto como uma ferramenta de busca confiável, principalmente quando falamos de notícias.
Para entender mais, acesse o artigo “ChatGPT Search Fails Attribution Test, Misquotes News Sources” , do Search Engine Journal.