HvA-onderzoekers leggen de mogelijke gevaren van de filterbubbel bloot

februari 9, 2022
Geplaatst door
Kyrie Stuij
Op
09 februari 2022

Wat we liken bepaalt welke informatie we voorgeschoteld krijgen. Zo horen we op sociale media weinig tegengeluid. Toch is de filterbubbel nooit bewezen. HvA-onderzoekers hebben met een simulatie wel de effecten in beeld weten te brengen. ‘Het toont aan dat een filterbubbel schade kan toebrengen aan de samenleving.’

Hoe open sta je tegenover andere ideeën? Zoek je zelf naar nieuws of klik je alleen op de suggesties die je via sociale media krijgt? Het zijn voorbeelden van kenmerken van de ‘mensen’ in de gesimuleerde wereld van HvA-onderzoekers Pascal Wiggers en Marcio Fuckner.

Op een laptop tonen ze twee virtuele werelden in de vorm van grafieken: een waarin mensen alleen zoekmachines gebruiken en een wereld waarin ze sociale media gebruiken. Aan de zijkant kunnen onderzoekers de sociale kenmerken van de gebruikers aanpassen. Deze mensen, getoond in kleine stippen rondom een as van politieke voorkeuren, zijn verspreid in het eerste scenario. Het tweede scenario, de wereld van de sociale media, laat een tegenovergesteld beeld zien: de stippen klitten bij elkaar, ver verwijderd van de groepjes met een ander wereldbeeld.

Beeld: Screenshot | In de simulatie zien we links gebruikers van zoekmachines en rechts gebruikers van sociale media.

En dat toont een filterbubbel die duidelijk tot een gepolariseerde samenleving leidt. Al langer wordt verondersteld dat het een van de oorzaken is waarom mensen steeds meer lijnrecht tegenover elkaar lijken te staan. Ook zou de filterbubbel een mogelijke oorzaak zijn van de verspreiding van nepnieuws en de opmars van complettheorieën.

Dat effect is nog niet eerder zo visueel gemaakt. Want ondanks allerlei pogingen van onderzoekers is de filterbubbel nooit wetenschappelijk bewezen.

Hoe komt dat?

Pascal: ‘De kans is groot dat de filterbubbel bestaat. Het bewijs is alleen, zoals onderzoekers dat noemen, anekdotisch en dat geldt niet als wetenschappelijk, hard bewijs. De ene persoon krijgt bijvoorbeeld andere zoekresultaten op basis van zijn online gedrag dan de ander. Maar om de filterbubbel statistisch aan te tonen moet je toegang hebben tot het algoritme van sociale media, zoals Facebook. Je moet weten hoe het precies werkt, maar deze informatie is niet beschikbaar voor het publiek.’

Marcio: ‘We noemen dat het principe van een black box. Je weet dat als er iets in gaat er een bepaalde uitkomst volgt, maar je weet niet wat er precies van binnen gebeurt.’

Waarom is het belangrijk om te bewijzen dat de filterbubbel bestaat?

Pascal: ‘Het zegt iets over ons gedrag en hoe algoritmes dat gedrag kunnen beïnvloeden. En dat is waar de kritiek zit. Op zich zijn algoritmes nuttig: ze helpen ons in de grote hoeveelheid informatie op internet te vinden waar we naar zoeken. Maar ze kunnen ons ook een bepaalde richting op sturen. Mensen met een linkse politieke voorkeur kunnen op den duur geen rechtse argumenten meer tegenkomen. Of mensen die gevoelig zijn voor extreme content krijgen mogelijk steeds extremere versies te zien. Om dat te onderzoeken, moeten we eerst weten hoe de filterbubbel werkt.’

Wat toont de simulatie aan die jullie hebben gemaakt?

Marcio: ‘Zo’n algoritme is wiskundig heel complex. Dat komt ook omdat het niet alleen maar digitaal is: menselijk gedrag stuurt het algoritme. En dat is een verschil met andere onderzoeken. Wij hebben menselijk gedrag erin meegenomen. Als we de gebruikers in onze simulatie meer open laten staan voor andere ideeën, heeft dat effect op de uitkomst. Het is misschien niet het wetenschappelijke bewijs dat we graag zouden zien, omdat de grote technbedrijven nog altijd geen toegang geven tot hun algoritmes, maar ik denk dat we bedrijven en organisaties op deze manier bewust maken van de risico’s van algoritmes.’

Pascal: ‘Zeker omdat we met de simulatie laten zien dat een beetje willekeur in het algoritme al helpt om polarisatie tegen te gaan.’

Hoe kan artificial intelligence mediabedrijven helpen?

Het onderzoek naar de filterbubbel behoort tot de AI, Media & Democracy Lab. Hierin doen de HvA, UvA en het Centrum voor Wiskunde & Informatica (CWI) allerlei onderzoeken naar artificiële intelligentie. In zogenoemde ELSA-labs experimenteren ze met mediapartijen (zoals de NPO, RTL en DPG Media) naar hoe deze nieuwe technologie media kan helpen in hun democratische functie. Zoals: kunnen nieuwsberichten door robots worden geschreven en is dat wenselijk? Het onderzoekslab heeft recent 2,1 miljoen euro aan subsidie gekregen.

Jullie werken samen met allerlei mediabedrijven. Wat hebben deze organisaties aan jullie simulatie?

Pascal: ‘We tonen aan dat er een effect kan optreden bij bepaald gebruik van sociale media. We kunnen nu niet meer zeggen: de filterbubbel is helemaal niet te vinden. Het heeft er bijvoorbeeld toe geleid dat de NPO gaat experimenteren met een algoritme dat de andere kant op werkt: dat er voor zorgt dat online gebruikers juist een grote diversiteit aan informatie en wereldbeelden krijgen. De publieke omroep wil mensen daarmee uit hun comfortzone halen en technologie kan daar mogelijk bij helpen.’

Wat vinden jullie ervan dat onderzoekers geen toegang krijgen tot de werking van algoritmes van grote techbedrijven?

Marcio: ‘Zoals we druk leggen op bedrijven om aandacht te hebben voor het klimaat, mogen we in mijn ogen ook druk leggen op deze industrie omdat de werking van hun algoritmes groot effect kunnen hebben op onze mentale gezondheid, als individu maar ook als samenleving.’

Pascal: ‘Zelf vind ik het een probleem dat we het niet kunnen controleren. Er zijn kleine aanpassingen die je online kunt maken om het algoritme tegen te gaan, maar die hebben weinig effect. Ik vind we zouden moeten kunnen kiezen in hoeverre we willen meegaan in een algoritme. Zeker nu we deze technologie steeds meer zien, zoals in software waarmee we ons huis bedienen. Waarom halen we iets in huis als we eigenlijk niet weten hoe het werkt?’

Geplaatst door

Tukker in Amsterdam. Houdt van whisky, stedentrips en lange herfstavonden. Werkte eerder voor Noordhollands Dagblad en Metro. Heeft een hart dat sneller klopt van opmerkelijke, menselijke en lokale verhalen.