Hoewel generatieve AI de aandacht van de wereld heeft getrokken, wordt zij geconfronteerd met een hardnekkig en groeiend obstakel: nauwkeurigheid. Ondanks zorgen over het energieverbruik en de geestelijke gezondheid blijft het meest directe praktische probleem de neiging van deze modellen om onjuiste informatie te ‘hallucineren’ of als feit voor te stellen. Zelfs nu technologiegiganten als Google AI-samenvattingen rechtstreeks in zoekmachines integreren, blijkt uit een recent onderzoek dat de omvang van deze fouten veel groter is dan op het eerste gezicht lijkt.
De wiskunde van verkeerde informatie
Een onderzoek gerapporteerd door de New York Times biedt een ontnuchterend perspectief op Google’s ‘AI Overview’-functie. Op het eerste gezicht zien de statistieken er veelbelovend uit: de AI levert 90% van de tijd correcte, goed onderbouwde samenvattingen. In de meeste academische of professionele omgevingen wordt een slagingspercentage van 90% als voldoende beschouwd.
Wanneer het echter wordt toegepast op de enorme omvang van het wereldwijde zoekverkeer, wordt de resterende 10% een wiskundige nachtmerrie.
- Het volumeprobleem: Google zal naar verwachting in 2026 meer dan vijf biljoen zoekopdrachten verwerken.
- Het foutenpercentage: Bij een mislukkingspercentage van 10% vertaalt dit zich in tientallen miljoenen twijfelachtige antwoorden per uur.
- De frequentie: Dit komt neer op honderdduizenden fouten die elke minuut voorkomen.
Dit benadrukt een cruciale trend in het AI-tijdperk: een hoog nauwkeurigheidspercentage staat niet gelijk aan een veilig product als de steekproefomvang in de biljoenen loopt.
Onvoorspelbaarheid en bronbetrouwbaarheid
Een van de meest uitdagende aspecten van het gebruik van AI-overzichten is hun inconsistentie. Het kan zijn dat een gebruiker een zoekopdracht uitvoert en een verkeerd antwoord krijgt, om vervolgens een perfect nauwkeurige samenvatting te krijgen als hij even later precies dezelfde zoekopdracht herhaalt. Deze volatiliteit maakt het voor gebruikers vrijwel onmogelijk om te voorspellen wanneer ze worden misleid.
Bovendien zijn de bronnen die de AI vertrouwt vaak problematisch. Uit onderzoek van het open-source AI-bedrijf Oumi is een verontrustend patroon gebleken met betrekking tot citaten op sociale media:
* Facebook werd aangehaald als bron voor zowel nauwkeurige als onnauwkeurige antwoorden.
In feite was de kans groter dat onnauwkeurige antwoorden Facebook citeerden (7%) dan nauwkeurige antwoorden (5%).
* Reddit * wordt ook gerangschikt als een van de meest genoemde platforms.
Door sterk te vertrouwen op sociale-mediaplatforms – waar desinformatie zich snel kan verspreiden – dreigt de AI niet-geverifieerde claims te versterken in plaats van ze te filteren.
De kwetsbaarheid voor “slechte acteurs”
De architectuur van AI-zoekopdrachten creëert een nieuwe grens voor digitale manipulatie. Er bestaat een groeiend risico dat ‘slechte actoren’ het systeem strategisch kunnen bespelen om onwaarheden te verspreiden.
Het proces is theoretisch eenvoudig maar zeer effectief:
1. Een individu maakt meerdere blogposts met valse informatie (bijvoorbeeld onjuiste historische feiten).
2. Ze gebruiken kunstmatige methoden om het verkeer naar deze sites te stimuleren.
3. De AI van Google zoekt op internet naar bronnen en pikt deze ‘populaire’ maar valse inhoud op.
4. De AI genereert een samenvatting die de onwaarheid presenteert als een feitelijk overzicht.
Google heeft zijn systeem verdedigd door te stellen dat zijn zoek-AI dezelfde rangschikking en veiligheidsbescherming gebruikt die is ontworpen om spam te blokkeren. Een woordvoerder merkte op dat veel van de foutvoorbeelden die in onderzoeken worden aangehaald, betrekking hebben op “onrealistische zoekopdrachten” die niet het typische gebruikersgedrag weerspiegelen.
Conclusie
Naarmate AI de belangrijkste toegangspoort tot informatie wordt, wordt de foutmarge kleiner. Hoewel Google een disclaimer bevat waarin staat dat “AI fouten kan maken”, suggereert het enorme aantal fouten dat door het wereldwijde zoekverkeer wordt gegenereerd dat gebruikers een hoge mate van scepsis moeten handhaven om te voorkomen dat ze het slachtoffer worden van geautomatiseerde desinformatie.
