Kunstmatige intelligentie, met name grote taalmodellen (LLM’s), werkt volgens een eenvoudig principe: het genereert tekst op basis van de patronen in de trainingsgegevens. Dit betekent dat een AI toekomstige doorbraken niet kan voorspellen, omdat daar nog niet over geschreven is. Zoals Adam Mastroianni het treffend verwoordde, zou een AI op basis van alleen eeuwenoude kennis logischerwijs tot de conclusie komen dat maanlandingen onmogelijk zijn.
Deze beperking leidde tot een intrigerend experiment: wat als een AI opzettelijk zou worden beperkt tot de kennis van een specifieke historische periode? Hayk Grigorian, een student aan het Muhlenberg College, bouwde TimeCapsuleLLM – een AI die uitsluitend trainde met 90 gigabyte aan tekst uit het 19e-eeuwse Londen (1800-1875). Hoewel het nog steeds een hobbyproject is, heeft het model aangetoond dat het zich historische details kan herinneren. Toen hem werd gevraagd: ‘Het was het jaar van onze Heer, 1834’, verwees het nauwkeurig naar hedendaagse protesten en het beleid van Lord Palmerston.
Het potentieel voor historisch onderzoek
Dit is niet alleen maar een curiosum; onderzoekers onderzoeken hoe dergelijke ‘Historical Large Language Models’ (HLLM’s) een revolutie teweeg kunnen brengen in de studie van samenlevingen uit het verleden. Een recent artikel in de Proceedings of the National Academy of Sciences suggereert dat deze modellen inzicht zouden kunnen verschaffen in de historische psychologie. Stel je voor dat je het economische gedrag van Vikingen, Romeinen of middeleeuwse Japanners vergelijkt door middel van AI-simulaties. Deze aanpak zou mogelijk een dieper begrip van de menselijke natuur in verschillende tijdperken kunnen ontsluiten.
“Reacties van deze nep-individuen kunnen de psychologie van vroegere samenlevingen weerspiegelen, waardoor een robuustere en interdisciplinaire wetenschap van de menselijke natuur mogelijk wordt”, stelt het PNAS-artikel.
Uitdagingen en kanttekeningen
De methode is echter niet zonder gebreken. Overlevende historische teksten zijn scheef gericht op de perspectieven van de elites, niet op die van het gewone volk. Dit betekent dat HLLM’s mogelijk niet accuraat het alledaagse denken van vroegere populaties weergeven. Bovendien kunnen vooroordelen van de onderzoekers die deze modellen bouwen onbedoeld de gegenereerde tekst beïnvloeden. Elke poging om de psychologie uit het verleden te reconstrueren moet erkennen dat de output van AI onvermijdelijk door een moderne lens zal worden gefilterd.
Het valt nog te bezien of HLLM’s een mainstream instrument in psychologisch onderzoek zullen worden of een niche-activiteit voor enthousiastelingen zullen blijven. Niettemin benadrukt het experiment een unieke manier om AI te benutten: niet om de toekomst te voorspellen, maar om het verleden opnieuw te onderzoeken.
Uiteindelijk worden deze modellen beperkt door de gegevens waarmee ze worden gevoed – maar toch bieden ze een frisse, zij het onvolmaakte, methode om de geest van degenen die ons voorgingen te onderzoeken.
