Embora a IA generativa tenha capturado a atenção do mundo, ela enfrenta um obstáculo persistente e crescente: precisão. Apesar das preocupações relativas ao consumo de energia e à saúde mental, a questão prática mais imediata continua a ser a tendência destes modelos para “alucinarem” ou apresentarem informações incorrectas como factos. Mesmo que gigantes da tecnologia como o Google integrem resumos de IA diretamente nos motores de busca, um estudo recente revela que a escala desses erros é muito maior do que parece superficialmente.
A matemática da desinformação
Um estudo relatado pelo New York Times fornece uma perspectiva séria sobre o recurso “Visão Geral de IA” do Google. Superficialmente, as estatísticas parecem promissoras: a IA fornece resumos corretos e bem fundamentados 90% das vezes. Na maioria dos ambientes acadêmicos ou profissionais, uma taxa de sucesso de 90% seria considerada uma nota de aprovação.
No entanto, quando aplicados à enorme escala do tráfego de pesquisa global, os 10% restantes tornam-se um pesadelo matemático.
- O problema do volume: o Google deverá processar mais de cinco trilhões de pesquisas em 2026.
- A taxa de erro: Com uma taxa de falha de 10%, isso se traduz em dezenas de milhões de respostas questionáveis a cada hora.
- A frequência: Isso equivale a centenas de milhares de erros que ocorrem a cada minuto.
Isso destaca uma tendência crítica na era da IA: uma porcentagem de alta precisão não é igual a um produto seguro quando o tamanho da amostra está na casa dos trilhões.
Imprevisibilidade e confiabilidade da fonte
Um dos aspectos mais desafiadores do uso de visões gerais de IA é sua inconsistência. Um usuário pode realizar uma pesquisa e receber uma resposta errada, apenas para receber um resumo perfeitamente preciso quando repetir exatamente a mesma consulta momentos depois. Esta volatilidade torna quase impossível para os utilizadores preverem quando estão a ser enganados.
Além disso, as fontes em que a IA escolhe confiar são frequentemente problemáticas. Uma pesquisa da empresa de IA de código aberto Oumi identificou um padrão preocupante em relação às citações nas redes sociais:
* Facebook foi citado como fonte de respostas precisas e imprecisas.
* Na verdade, as respostas imprecisas tinham mais probabilidade de citar o Facebook (7%) do que as corretas (5%).
* Reddit também foi classificado como uma das plataformas mais citadas.
Ao depender fortemente de plataformas de redes sociais – onde a desinformação pode espalhar-se rapidamente – a IA corre o risco de amplificar alegações não verificadas em vez de filtrá-las.
A vulnerabilidade a “maus atores”
A arquitetura da pesquisa de IA cria uma nova fronteira para a manipulação digital. Há um risco crescente de que “maus atores” possam estrategicamente manipular o sistema para espalhar falsidades.
O processo é teoricamente simples, mas altamente eficaz:
1. Um indivíduo cria vários posts contendo informações falsas (por exemplo, fatos históricos incorretos).
2. Eles usam métodos artificiais para aumentar o tráfego para esses sites.
3. A IA do Google, vasculhando a web em busca de fontes, detecta esse conteúdo “popular”, mas falso.
4. A IA gera um resumo que apresenta a falsidade como uma visão geral factual.
O Google defendeu seu sistema, afirmando que sua IA de busca usa a mesma classificação e proteções de segurança projetadas para bloquear spam. Um porta-voz observou que muitos dos exemplos de erros citados em estudos envolvem “pesquisas irrealistas” que não refletem o comportamento típico do usuário.
Conclusão
À medida que a IA se torna a principal porta de entrada para informações, a margem de erro diminui. Embora o Google inclua um aviso afirmando que “A IA pode cometer erros”, o grande volume de erros gerados pelo tráfego de pesquisa global sugere que os usuários devem manter um alto nível de ceticismo para evitar serem vítimas de desinformação automatizada.
