De Algoritmische Illusie


Hoe KI Hypernormalisatie razendsnel versterkt

In de tijd van de Sovjet-Unie duurde het decennia voordat ‘hypernormalisatie’ echt wortel schoot – dat sluipende gevoel dat iedereen weet dat het systeem niet werkt, maar net doet alsof het wel zo is. Nu? Kunstmatige intelligentie flikt dit kunstje in luttele seconden. Dit is geen evolutie, dit is een aardverschuiving.

Stel je voor: een studie uit 2024 laat zien dat KI-agenten, als je ze in hun eigen bubbel laat discussiëren, al na tien rondjes compleet doorslaan en in steeds extremere groepen terechtkomen. En dan hebben we het nog niet eens over zoekmachines die draaien op grote taalmodellen. Die spugen allemaal dezelfde soort antwoorden uit, waardoor jij alleen nog maar informatie te zien krijgt die jouw bestaande ideeën bevestigt.

De grens tussen zelf kiezen en iets voorgeschoteld krijgen, vervaagt compleet. In dit artikel duik ik erin: hoe KI niet alleen onze echokamers versterkt, maar ze ook fundamenteel verandert. De vraag is niet of dit gebeurt, maar wat we er in vredesnaam aan kunnen doen.

De manier waarop deze versnelling werkt, is heel anders dan hoe traditionele sociale media ons beïnvloeden. Vroeger konden algoritmes alleen bestaande content kiezen op basis van jouw klikgedrag. Nu kunnen generatieve modellen in realtime compleet nieuwe inhoud creëren die naadloos aansluit bij wat jij al gelooft.

Diezelfde studie van Ohagi (2024) bevestigt het: autonome KI-agenten in gesloten discussiecircuits polariseren inderdaad na slechts tien rondes. Dit is geen menselijke reactie meer; dit is een zelfversterkend systeem dat zijn eigen werkelijkheid creëert. De effecten hiervan zie je overal, vooral in zoekmachines.

Onderzoek van Sharma (2024) toont aan dat zoekmachines met grote taalmodellen (LLM’s) steeds meer dezelfde antwoorden geven. Gebruikers krijgen niet langer een breed scala aan meningen voorgeschoteld, maar een uniforme realiteit die hun eigen opvattingen bevestigt. Wat vroeger een filterbubbel was, is nu verworden tot een regelrechte neprealiteit. De grens tussen informatie vergaren en een bevestigende illusie creëren, wordt steeds flinterdunner.

De versnelling zit niet alleen in de kwantiteit, maar ook in de kwaliteit. In de Sovjet-Unie had je een heel staatsapparaat nodig, censuur en een netwerk van propagandisten om hypernormalisatie te bewerkstelligen. Dat duurde tientallen jaren. KI doet dit in seconden, zonder menselijke tussenkomst, en op een compleet gedecentraliseerde manier.

Studies laten zien dat door KI gemaakte content veel sneller verspreidt dan menselijke content. Een analyse van 65.000 artikelen toont aan dat KI-gegenereerde inhoud, sinds de lancering van ChatGPT in 2022, is gestegen van zo’n 5% naar bijna 50% van alle content. Dit is geen kleine stap in de evolutie; dit is een revolutionaire breuk. Ook de kosten zijn drastisch gedaald. Vroeger had je een heel team nodig om propaganda te produceren. Nu kan één model miljoenen verschillende ‘realiteiten’ tegelijkertijd scheppen. De drempel is zo laag dat iedereen of elke groep dit kan gebruiken, wat controle vrijwel onmogelijk maakt.

Vaak realiseren we ons niet hoe diep deze ontwikkeling psychologisch ingrijpt. Als een machine precies kan schrijven wat jij wilt lezen, verdwijnt de grens tussen overtuiging en manipulatie. Dat is niet alleen gevaarlijk; het is wezenlijk anders dan alles wat we tot nu toe hebben meegemaakt.

Onderzoek wijst uit dat gebruikers die afhankelijk zijn van generatieve zoeksystemen steeds meer worden blootgesteld aan informatie die hun standpunt bevestigt. Dit maakt het moeilijker om andere meningen te accepteren, laat staan te begrijpen. De “generatieve echokamer” wekt de indruk dat iedereen het met je eens is, maar er vindt geen echte conversatie meer plaats. We verliezen niet alleen de toegang tot feiten; we verliezen ook het vertrouwen in ons eigen oordeel. We vragen ons niet langer af of we gemanipuleerd worden, maar of we nog kunnen twijfelen. In een wereld waar bevestiging altijd en overal voorhanden is, wordt twijfel een zeldzame en ongemakkelijke gewoonte. En zonder twijfel is er geen echte vrijheid.

Natuurlijk is technologie nooit neutraal, maar het is ook niet onvermijdelijk. Dezelfde KI-systemen die hypernormalisatie versterken, kunnen ook worden ingezet om deze cyclus te doorbreken. Uit onderzoek van de Binghamton University (2024) blijkt dat KI-gegenereerde inhoud ook kan worden gebruikt om valse informatie op te sporen en te markeren.

Een KI-framework kan in kaart brengen hoe inhoud en algoritmes samenwerken, waardoor gebruikers een beter begrip krijgen van waarom bepaalde berichten in hun feed verschijnen. Dit is geen kant-en-klare oplossing, maar het toont aan dat technologie niet deterministisch is.

Er zijn ook open-source projecten die proberen meer transparantie te creëren. Als de werking van algoritmes openbaar is, kunnen onafhankelijke onderzoekers en burgers de gevolgen controleren. Daarnaast blijft media-educatie cruciaal. Studies laten zien dat mensen die leren kritisch na te denken over informatie, valse informatie ongeveer 20% minder vaak delen.

De vraag is dus niet of KI-hypernormalisatie versterkt. De vraag is hoe we dit krachtige hulpmiddel kunnen gebruiken zonder onszelf te verliezen.

We moeten alert blijven in een wereld die steeds meer uiteenvalt. De verleiding om in deze comfortabele, maar valse werelden te leven, is groot. Toch hebben we een keuze. Actief kiezen om de gedeelde, soms onaangename realiteit te accepteren, is de enige manier om de verbinding te behouden die nodig is voor een gezonde samenleving.

Het is moeilijk om te twijfelen aan wat je liever gelooft, maar het is de enige manier waarop we samen kunnen blijven. In latere artikelen zal ik dieper ingaan op de politieke gevolgen van deze ontwikkeling. Want hypernormalisatie is niet alleen een technologisch probleem; het is een uitdaging voor de democratie. En die uitdaging begint bij elke lezer.


Over deze tekst

Het idee van hypernormalisatie kwam via via op mijn pad. Hoe meer ik me erin verdiepte, hoe meer overeenkomsten ik zag tussen de ideeën van Alexei Yurchak en de documentaire ‘HyperNormalisation’ van Adam Curtis. Dit onderwerp boeit me enorm en ik ben van plan er in de toekomst verder op in te gaan. We zouden ons zorgen moeten maken over de veranderingen in de wereldpolitiek (de wereldorde die uit elkaar valt) en technologisch (kunstmatige intelligentie). Een ‘reality check’ is hard nodig. Ik zal deze zoektocht op deze blog bijhouden.

Geef een reactie

Uw e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Meer informatie over hoe uw reactie gegevens worden verwerkt.