Hoe ontstaat de filterbubbel? Misschien wel door ons eigen gedrag

17 februari 2022
Beeld:

iStock, bewerking: HvanA

Geplaatst door
Kyrie Stuij
Op
17 februari 2022

Dit bericht krijg jij misschien nooit te zien. Waarom? Omdat een algoritme heeft berekend dat jij iets anders interessanter vindt. Zo’n algoritme kan ook leiden tot de beruchte filterbubbel. HvA-onderzoekers betwijfelen of die enkel ontstaat door technologie: ‘Onze simulatie laat zien hoe groot de invloed is van mensen zelf.’

De fabeltjesfuik, die term ken je vast nog wel van presentator Arjen Lubach. Eind 2020 liet hij in zijn tv-programma Zondag met Lubach zien hoe YouTube ervoor zou zorgen dat je na het kijken van een nepnieuwswaardige video blijft hangen in soortgelijke suggesties, en zelfs steeds extremere content voorgeschoteld krijgt.


Het wordt gezien als een oorzaak waardoor complottheorieën zo in opmars zijn. Het algoritme – het aanbevelingssysteem dat jouw online gedrag volgt en op basis daarvan suggesties doet – zou leiden tot een filterbubbel: een online omgeving waarin je alleen nog je eigen mening hoort en ziet. Dat zou weer leiden tot polarisatie in de samenleving, omdat er steeds meer afstand ontstaat tussen mensen met andere meningen.

Beeld: Rosa Tromp | Marcio Fuckner

Kritiek
Maar werkt de filterbubbel wel op die manier? De aflevering van Lubach kreeg kritiek van wetenschappers. Zo gebruikte hij een niet eerder gebruikte computer waarop hij naar video’s zocht die binnen een extreem genre vallen. Maar bijna niemand zoekt alleen maar naar dezelfde content, was het commentaar. Er gaan vaak nog jaren aan zoekgedrag aan vooraf.

 

HvA-onderzoekers Pascal Wiggers en Marcio Fuckner (allebei ook docent HBO ICT) doen er al een tijd onderzoek naar. Zij ontwikkelden een simulatie: een online wereld met virtuele gebruikers en een nagemaakt algoritme. Het doel? Kijken of ze een filterbubbel kunnen produceren, zodat ze kunnen analyseren hoe die dan precies ontstaat.

 

Dat is gelukt, laten de onderzoekers zien op een laptop. Ze hebben meerdere scenario’s gecreeërd, in de vorm van grafieken. De online gebruikers, getoond in stippen rondom een as van politieke voorkeuren, zijn verspreid in het eerste scenario. Daarin zoeken de gebruikers zelf naar nieuws, zonder hulp van een algoritme.

Beeld: Screenshot simulatie | In het linkerbeeld is geen algoritme actief en is er geen interactie met andere mensen meegenomen, in het rechterbeeld is een algoritme en interactie wel meegenomen.

‘In het tweede scenario gebeurt er iets’, zegt Marcio Fuckner. Hij klikt op een paar toetsen waardoor de gebruikers nu te maken krijgen met een algoritme. Ze krijgen nieuwssuggesties op basis van hun interesse. Opeens verschuiven de stippen op de as, ze bewegen heel licht richting de andere stippen met dezelfde politieke kleur. ‘De berichten lijken de gebruikers te sterken in hun standpunt, maar het effect is niet alarmerend’, vervolgt Fuckner.

 

Whatsapp
Wat wel een compleet ander beeld oplevert is wanneer de onderzoekers de vrienden van de virtuele gebruikers erbij betrekken. In dit scenario is er nog steeds een algoritme actief, maar delen zij het nieuws dat ze interessant vinden ook met hun vrienden. Ze sturen het bijvoorbeeld door via Whatsapp. En met een volgende klik van de onderzoekers zijn de filterbubbels volop zichtbaar. De stippen klitten in groepjes bij elkaar, ver verwijderd van de groepen met een andere politieke kleur: een gepolariseerde virtuele wereld.

Beeld: Rosa Tromp | Pascal Wiggers

‘Wat wij lijken te zien is dat menselijke interactie een grotere rol speelt bij de totstandkoming van de filterbubbel dan werd gedacht’, zegt Wiggers. ‘Eigenlijk tonen we aan dat je het effect van ICT niet volledig kunt begrijpen door alleen het systeem te bestuderen, maar dat je dus ook naar de sociale context moet kijken.’

 

Is de filterbubbel hiermee dan ook bewezen? ‘Niet helemaal’, legt Fuckner uit. ‘Wetenschappers proberen de filterbubbel al een tijd te bewijzen, maar dat lukt niet omdat de grote techbedrijven, zoals Facebook, geen toegang geven tot hun algoritme. Het is geen publieke informatie. ’

 

Daardoor kun je nooit honderd procent vaststellen of de werking van zo’n simulatie precies klopt. Maar de onderzoekers hebben zich wel gebaseerd op tal van andere onderzoeken die de werking van zo’n algoritme, en de manier hoe mensen die gebruiken, denken te hebben vastgesteld. Nieuw is bovendien dat de HvA-onderzoekers er het menselijke sociaal gedrag bij hebben betrokken, dat ook weer is gebaseerd op eerdere onderzoeken. Op die manier lijkt de simulatie toch aardig op de echte wereld, is het idee.

Hoe kan artificial intelligence media helpen?

Het onderzoek naar de filterbubbel behoort tot het AI, Media & Democracy Lab. Hierin doen de HvA, UvA en het Centrum voor Wiskunde & Informatica (CWI) allerlei onderzoeken naar artificiële intelligentie. In zogenoemde ELSA-labs experimenteren ze met mediapartijen (zoals de NPO, RTL en DPG Media) naar hoe deze nieuwe technologie media kan helpen in hun democratische functie. Zoals: kunnen nieuwsberichten door robots worden geschreven en is dat wenselijk? Het onderzoekslab heeft recent 2,1 miljoen euro aan subsidie gekregen.

Willekeur
Het onderzoek loopt nog. Wiggers en Fuckner experimenteren bijvoorbeeld met wat er gebeurt als je het algoritme zo aanpast dat het niet alleen suggesties geeft op basis van je interesse, maar er af en toe ook een willekeurig bericht tussen laat. ‘Onze eerste indruk is dat een klein beetje willekeur al helpt om de vorming van een filterbubbel tegen te gaan.’

 

En wat je kunt doen om de filterbubbel te voorkomen is interessant voor de mediabedrijven waarmee de onderzoekers samenwerken. Dit project valt namelijk onder een groter onderzoek (zie kader) waarin de HvA samenwerkt met onder meer de NPO en RTL. Door te experimenteren met artificiële intelligentie, waar algoritmes ook onder vallen, willen ze media helpen om de nieuwe technologie op een verantwoorde manier in te zetten. Wiggers: ‘De NPO heeft bijvoorbeeld aangegeven te willen werken met een algoritme dat de andere kant op werkt: een systeem dat kijkers juist suggesties doet voor programma’s buiten hun gebruikelijke keuzes. Om ze op die manier te interesseren voor andere geluiden.’