La portata dell’errore: perché le panoramiche sull’intelligenza artificiale di Google affrontano una massiccia crisi di accuratezza

15

Sebbene l’intelligenza artificiale generativa abbia catturato l’attenzione del mondo, deve affrontare un ostacolo persistente e crescente: la precisione. Nonostante le preoccupazioni relative al consumo energetico e alla salute mentale, il problema pratico più immediato rimane la tendenza di questi modelli ad “allucinare” o a presentare informazioni errate come fatti. Anche se i giganti della tecnologia come Google integrano i riepiloghi dell’intelligenza artificiale direttamente nei motori di ricerca, uno studio recente rivela che la portata di questi errori è molto più ampia di quanto appaia in superficie.

La matematica della disinformazione

Uno studio riportato dal New York Times fornisce una prospettiva che fa riflettere sulla funzione “Panoramica AI” di Google. A prima vista, le statistiche sembrano promettenti: l’intelligenza artificiale fornisce riepiloghi corretti e basati su fonti attendibili il 90% delle volte. Nella maggior parte dei contesti accademici o professionali, una percentuale di successo del 90% sarebbe considerata un voto positivo.

Tuttavia, se applicato all’enorme scala del traffico di ricerca globale, il restante 10% diventa un incubo matematico.

  • Il problema del volume: si prevede che Google elaborerà oltre cinque trilioni di ricerche nel 2026.
  • Il tasso di errore: con un tasso di fallimento del 10%, ciò si traduce in decine di milioni di risposte discutibili ogni ora.
  • La frequenza: equivale a centinaia di migliaia di errori che si verificano ogni singolo minuto.

Ciò evidenzia una tendenza critica nell’era dell’intelligenza artificiale: un’elevata percentuale di precisione non equivale a un prodotto sicuro quando la dimensione del campione è di trilioni.

Imprevedibilità e affidabilità della fonte

Uno degli aspetti più impegnativi dell’utilizzo delle panoramiche AI è la loro incoerenza. Un utente potrebbe eseguire una ricerca e ricevere una risposta sbagliata, solo per ricevere un riepilogo perfettamente accurato quando ripete esattamente la stessa query pochi istanti dopo. Questa volatilità rende quasi impossibile per gli utenti prevedere quando verranno ingannati.

Inoltre, le fonti di cui l’IA sceglie di fidarsi sono spesso problematiche. La ricerca della società di intelligenza artificiale open source Oumi ha identificato un modello preoccupante per quanto riguarda le citazioni sui social media:
* Facebook è stato citato come fonte sia per le risposte accurate che per quelle imprecise.
In effetti, le risposte imprecise avevano più probabilità di citare Facebook (7%) rispetto a quelle precise (5%).
*
Reddit * si è classificata anche come una delle piattaforme più frequentemente citate.

Facendo molto affidamento sulle piattaforme dei social media, dove la disinformazione può diffondersi rapidamente, l’intelligenza artificiale rischia di amplificare le affermazioni non verificate anziché filtrarle.

La vulnerabilità ai “cattivi attori”

L’architettura della ricerca AI crea una nuova frontiera per la manipolazione digitale. Esiste un rischio crescente che i “cattivi attori” possano strategicamente ingannare il sistema per diffondere falsità.

Il processo è teoricamente semplice ma altamente efficace:
1. Un individuo crea più post sul blog contenenti informazioni false (ad esempio, fatti storici errati).
2. Usano metodi artificiali per aumentare il traffico verso questi siti.
3. L’intelligenza artificiale di Google, esplorando il web alla ricerca di fonti, rileva questo contenuto “popolare” ma falso.
4. L’intelligenza artificiale genera un riepilogo che presenta la falsità come una panoramica fattuale.

Google ha difeso il suo sistema, affermando che la sua intelligenza artificiale di ricerca utilizza lo stesso ranking e le stesse protezioni di sicurezza progettate per bloccare lo spam. Un portavoce ha osservato che molti degli esempi di errori citati negli studi riguardano “ricerche non realistiche” che non riflettono il comportamento tipico degli utenti.

Conclusione

Man mano che l’intelligenza artificiale diventa la porta d’accesso principale alle informazioni, il margine di errore si riduce. Sebbene Google includa un disclaimer in cui si afferma che “L’intelligenza artificiale può commettere errori”, l’enorme volume di errori generati dal traffico di ricerca globale suggerisce che gli utenti devono mantenere un alto livello di scetticismo per evitare di cadere vittime della disinformazione automatizzata.