Marcel Levi.Beeld Artur Krynicki

Een leugendetector voor sociale media

PlusMarcel Levi

Het valt niet mee je weg te vinden in de lawine aan misinformatie, af en toe bijna geloofwaardige maar uiteindelijk klinkklare nonsens en andere bagger die wordt uitgestort via sociale media. Dat is geen verrassing met bijna een miljard stukjes informatie die elke dag de wereld in worden geslingerd via Facebook, Instagram, Twitter en andere (mis)informatiebronnen.

De New York Times stelde aantoonbare leugens vast in meer dan een derde van de tweets van Donald Trump. En Trump is één van de meest gevolgde twitteraars ter wereld – ook door mij: hij is een voortdurende bron van verbijstering en vermaak. Inmiddels vertrouwt minder dan een kwart van de mensen dingen die ze op Facebook of Instagram zien.

Het is een blijvende worsteling het kaf van het koren te scheiden. Gelukkig is er hoop. Taalkundigen ontwikkelen in rap tempo steeds betere algoritmes die in staat zijn op basis van woordgebruik en teksteigenschappen valse informatie te identificeren. En doordat computers zichzelf kunnen trainen om deze analyses steeds preciezer te maken, is nu al met 90 procent zekerheid vast te stellen dat een tekst flauwekul-informatie bevat.

Valse berichten gebruiken vaker dan ware berichten overdreven woorden, zoals fantastisch, verschrikkelijk, briljant, of afschuwelijk. Nepnieuws staat veelvuldig geschreven in hoofdletters, bevat meer uitdrukkingen die positieve of negatieve emoties benadrukken en bevat frequent bangmakende boodschappen. Ook gebruikt onzin-informatie een stuk minder verschillende woorden, meer herhalingen, en een veel simpelere zinsopbouw. Met deze en andere eenvoudige regels kunnen computers in korte tijd grote hoeveelheden teksten en berichten in sociale media screenen en tamelijk precies schatten wat de kans is op waarheid of nepnieuws.

Een beperking van de computer als leugendetector is dat dit vooral goed werkt in grote moderne talen, zoals Engels, Spaans, of Frans. Het is minder betrouwbaar voor weinig gebruikte talen als Nederlands.

De enorme stroom valse berichten op sociale media, gevolgd door bijna anderhalf miljoen mensen, over terroristische acties, geweld, wapenverzamelingen en groepsverkrachtingen door de Rohingya, droeg in 2018 bij aan de genocide van dit volk in Myanmar. Facebook gaf naderhand toe dat die valse informatie veel eerder gedetecteerd en verwijderd had moeten worden; dit niet was gebeurd door het gebrek aan medewerkers die de Birmese taal machtig waren en de afwezigheid van tekstanalyse voor deze taal.

De computer als moderne leugendetector voor fake news en nepinformatie lijkt een aantrekkelijke en behulpzame ontwikkeling. Wellicht kunnen Facebook en Twitter waarschuwen voor teksten met veel valse informatie door die steeds feller rood te maken. Of kan het fotootje van de verzender een steeds langere neus krijgen als de boodschap veel onware informatie bevat.

Marcel Levi is ceo van University College London Hospitals. Daarvoor was hij bestuursvoorzitter van het AMC.

Reageren? m.levi@parool.nl

Meer over

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2020 DPG Media B.V. - alle rechten voorbehouden