Tema Jannah A licença não é validada, vá para a página de opções do tema para validar a licença, você precisa de uma única licença para cada nome de domínio.

Mecanismos de busca de IA: eles valem seu tempo? (ChatGPT, Perplexidade, Gêmeos)

Pesquisas sugerem que seus chatbots favoritos têm baixo desempenho nas pesquisas.

Todos nós sabemos que as ferramentas de IA são capazes de muitas coisas hoje em dia. Mas quão boas são essas ferramentas para pesquisar na internet?

É uma questão importante e tem muitas implicações. Porque, de acordo com uma pesquisa da Future (editora do TechRadar), quase um terço dos entrevistados nos EUA dizem que agora usam IA em vez de mecanismos de busca tradicionais, como o Google.

Algumas pessoas recorrem ao ChatGPT e outros chatbots. Enquanto outros usam ferramentas de IA projetadas especificamente para pesquisa e investigação, como o Perplexity. Mesmo que não escolhamos ativamente ferramentas de IA, a IA aparece em nossas pesquisas de qualquer maneira, como aqueles pequenos resumos do Google que agora aparecem no topo dos resultados de pesquisa.

Resumindo, a pesquisa com tecnologia de IA está em todo lugar. Mas a verdadeira questão permanece: isso é realmente bom? É sobre isso que os pesquisadores estão começando a se perguntar e, digamos, as avaliações iniciais não são impressionantes.

Tecnologia de inteligência artificial, um empresário mostra um gráfico virtual da internet global conectado ao ChatGPT. Converse com IA.

O ChatGPT é o novo Google? Não tão rápido...

As pessoas podem usar ferramentas de IA para pesquisa. Mas isso não significa que devam fazê-lo.

Em nossos testes recentes, comparamos quatro dos melhores chatbots de IA entre si para ver o quão bem eles lidam com pesquisas: ChatGPT da OpenAI, Gemini do Google, Claude da Anthropic e Perplexity AI.

Os resultados foram… mistos. Não foi um desastre completo — todos conseguiram recuperar algumas informações relevantes — mas a precisão não foi ótima. E a maneira como eles resumiram essas informações? Muitas vezes, elas são confusas ou não úteis.

Esses resultados apoiam testes mais abrangentes conduzidos pelo Tow Center for Digital Journalism, conforme relatado em Revista de Jornalismo da Columbia. A equipe deles testou oito modelos principais de IA — incluindo ChatGPT, Perplexity, Copilot, Grok e Gemini — e encontrou problemas recorrentes: “apresentação confiante de informações incorretas, atribuição enganosa de conteúdo compartilhado e práticas inconsistentes de recuperação de informações”. Oh meu Deus.

No geral, os modelos de IA forneceram uma resposta incorreta para mais de 60% das consultas. Perplexity foi o mais preciso (o que é consistente com seu marketing como ferramenta de pesquisa), mas ainda assim errou 37% das respostas. Grok teve o pior desempenho, com uma taxa de falha chocante de 94%. Sem comentários.

O Tao Center avaliou os resultados em uma escala de completamente correto a completamente incorreto (ou nenhuma resposta). Alguns dos piores exemplos foram alucinações completas, onde a IA simplesmente... inventa coisas. Mas mesmo quando as respostas não estavam completamente erradas, ainda havia grandes problemas com a forma como as ferramentas repovoavam as notícias e os resultados de pesquisa.

Pesquisa sem fontes não é pesquisa.

O problema fundamental está em reformular a informação dessa maneira. Mesmo que as tecnologias de IA não forneçam informações falsas, elas ainda resumem e reformulam o conteúdo de maneiras inúteis e, muitas vezes, enganosas. Como explica o Tao Center:

“Enquanto os mecanismos de busca tradicionais normalmente agem como intermediários, direcionando os usuários para sites de notícias e conteúdo de alta qualidade, as ferramentas de busca generativas analisam e reempacotam as informações por si mesmas, cortando o fluxo de tráfego para fontes originais.”

“A saída de chat desses bots frequentemente obscurece problemas subjacentes sérios com a qualidade da informação. Há uma necessidade urgente de avaliar como esses sistemas acessam, exibem e citam conteúdo de notícias.”

Um dos problemas mais óbvios é o quão mal as ferramentas de IA citam suas fontes. Por exemplo, o ChatGPT geralmente vincula ao artigo errado, envia você para a página inicial do site ou ignora citações completamente.

Isto é um problema por dois motivos principais. Primeiro, os editores perdem tráfego, mesmo que seu conteúdo esteja sendo usado.

Segundo, a verificação de fatos se torna difícil. Uma das únicas maneiras de verificar os resultados da IA ​​é consultar a fonte original – e isso é mais difícil se ela não for fornecida.

Então, se a IA fornece informações, mas sem uma fonte clara, vale realmente a pena usá-la para pesquisa — especialmente se você acaba verificando tudo no Google? Talvez não.

Sim, as ferramentas de IA estão melhorando o tempo todo. E sim, alguns, como Perplexity, têm melhor desempenho que outros. Mas mesmo os melhores ainda precisam de supervisão humana. Atualmente, quando se trata de pesquisa, os robôs não estão prontos para operar de forma autônoma.

Ir para o botão superior