Skala błędu: dlaczego przeglądy sztucznej inteligencji Google stoją w obliczu poważnego kryzysu dokładności

3

Choć generatywna sztuczna inteligencja przyciągnęła uwagę świata, napotyka stałą i rosnącą przeszkodę: dokładność. Pomimo obaw związanych ze zużyciem energii i wpływem na zdrowie psychiczne, najpilniejszym problemem praktycznym pozostaje tendencja tych modeli do „halucynacji” – przedstawiania nieprawidłowych informacji jako faktu. Nawet jeśli giganci technologiczni, tacy jak Google, wdrażają podsumowania sztucznej inteligencji bezpośrednio w wyszukiwarkach, niedawne badanie pokazuje, że prawdziwy zakres tych błędów jest znacznie poważniejszy, niż mogłoby się wydawać.

Matematyka dezinformacji

Badanie opublikowane przez New York Times przedstawia otrzeźwiającą ocenę funkcji Google „Przegląd sztucznej inteligencji”. Na pierwszy rzut oka statystyki wyglądają obiecująco: sztuczna inteligencja generuje prawidłowe raporty oparte na źródłach w 90% przypadków. W większości kręgów akademickich i zawodowych 90-procentowy wskaźnik sukcesu można uznać za zadowalający.

Jeśli jednak zastosować to do kolosalnej skali globalnego ruchu związanego z wyszukiwaniem, pozostałe 10% staje się matematycznym koszmarem.

Problem z liczbą zapytań: przewiduje się, że w 2026 r. Google obsłuży ponad pięć bilionów zapytań.
Współczynnik błędów: przy poziomie błędów wynoszącym 10% oznacza to dziesiątki milionów wątpliwych odpowiedzi co godzinę.
Częstotliwość:** Odpowiada setkom tysięcy błędów występujących w każdej minucie.

Podkreśla to krytyczny trend w erze sztucznej inteligencji: wysoki procent dokładności nie gwarantuje, że produkt będzie bezpieczny, jeśli wielkość próbki liczy się w bilionach.

Nieprzewidywalność i wiarygodność źródeł

Jednym z najtrudniejszych aspektów korzystania z przeglądów AI jest ich niespójność. Użytkownik może wyszukać i uzyskać złą odpowiedź, ale chwilę później powtórzy to samo zapytanie i otrzyma całkowicie dokładne podsumowanie. Ta niestabilność sprawia, że ​​użytkownicy prawie nie mogą dokładnie przewidzieć, kiedy zostaną wprowadzeni w błąd.

Co więcej, źródła, którym AI ufa, są często problematyczne. Badanie przeprowadzone przez firmę zajmującą się sztuczną inteligencją o otwartym kodzie źródłowym Oumi wykazało niepokojący wzorzec w cytatach z mediów społecznościowych:
* Facebook został wykorzystany jako źródło zarówno poprawnych, jak i błędnych odpowiedzi.
* Co więcej, nieprawidłowe odpowiedzi bardziej częściej prowadziły do ​​Facebooka (7%) niż prawidłowe odpowiedzi (5%).
* Reddit również znalazł się wśród najczęściej cytowanych platform.

Opierając się w dużym stopniu na mediach społecznościowych, w których dezinformacja rozprzestrzenia się natychmiast, sztuczna inteligencja naraża się na ryzyko wzmacniania niezweryfikowanych twierdzeń, zamiast je filtrować.

Podatność na „atakujących”

Architektura wyszukiwania AI stwarza nowe możliwości manipulacji cyfrowej. Rośnie ryzyko, że „źli aktorzy” będą w stanie strategicznie manipulować systemem w celu szerzenia kłamstw.

Proces jest prosty w teorii, ale niezwykle skuteczny:
1. Osoba tworzy liczne wpisy na blogu zawierające fałszywe informacje (np. nieprawidłowe fakty historyczne).
2. Za pomocą sztucznych metod kieruje ruch do tych witryn.
3. Google AI skanując sieć w poszukiwaniu źródeł, wychwytuje te „popularne”, ale fałszywe treści.
4. AI generuje podsumowanie, które przedstawia kłamstwo jako przegląd faktów.

Google broni swojego systemu, twierdząc, że sztuczna inteligencja wyszukiwania korzysta z tych samych mechanizmów rankingu i ochrony, których używa do blokowania spamu. Rzecznik firmy zauważył, że wiele przykładów błędów przytoczonych w badaniach dotyczyło „nierealistycznych zapytań”, które nie odzwierciedlają typowych zachowań użytkowników.

Wniosek

Ponieważ sztuczna inteligencja staje się główną bramą do informacji, margines błędu maleje. Chociaż Google dodaje zastrzeżenie, że „sztuczna inteligencja może popełniać błędy”, sama liczba błędów generowanych przez globalny ruch związany z wyszukiwaniem oznacza, że ​​użytkownicy powinni zachować wysoki poziom sceptycyzmu, aby uniknąć padnięcia ofiarą automatycznej dezinformacji.

W miarę jak sztuczna inteligencja przejmuje rolę głównego źródła wiedzy, granica między faktem a halucynacjami coraz bardziej się zaciera.

Попередня статтяZłota moneta z IX wieku, która podważa nasze zrozumienie historii Wikingów
Наступна статтяKosmiczne zderzenie: pojawiły się dowody na to, jak rosną supermasywne czarne dziury