Plus Achtergrond

Hoe herken je een gedokterd beeld?

Terwijl mensen massaal filters over hun foto’s leggen voordat ze op sociale media worden geplaatst, werkt software­ontwikkelaar Adobe aan een tool om bewerkingen aan beeldmateriaal juist aan het licht te brengen.

Eline na bewerking. Beelden oppoetsen voor sociale media blijft onverminderd populair. Beeld Sjoerd Stellingwerf

Een filtertje hier, wat minder onderkinnen daar: beeldbewerking is aan de orde van de dag. Het is op het eerste oog vrij onschuldig en vooral erg ijdel, maar het is ook verraderlijk. Het kan leiden tot een vertekend zelfbeeld en onhaalbaar schoonheidsideaal, maar ook tot nepnieuws dat haast niet van echt te onderscheiden is en veelvuldig wordt gedeeld op sociale media.

Momenteel is er veel aandacht voor deep­fakes: gemanipuleerde video’s. Door middel van speciale software is het simpel de gezichten van mensen in bewegende beelden te verwisselen. Hierdoor verschijnen filmpjes op internet van mensen die dingen zeggen die ze nooit hebben gezegd.

Nancy Pelosi

Soms zijn ze vrij onschuldig – Game of Thronespersonage Jon Snow die zijn excuses aanbiedt voor het teleurstellende einde van de hitserie – maar het kan ook serieus nieuws raken. Zo werd in mei een video van Nancy Pelosi, de Democratische leider van het Amerikaanse Huis van Afgevaardigden, zo gemanipuleerd dat het leek alsof ze dronken was. De video werd miljoenen keer bekeken en massaal gedeeld, onder andere door president Donald Trump.

Reden voor softwareproducent Adobe om met onderzoekers van de University of California in Berkeley kunstmatige intelligentie te ontwikkelen die kan herkennen of en hoe gezichten op afbeeldingen zijn gemanipuleerd én de manipulatie zelfs terug kan draaien.

Het bedrijf – dat nota bene in 1990 ’s werelds bekendste beeldbewerkingsprogramma uitbracht: Photoshop – verklaart in een blogpost de ethische implicaties van hun technologie te erkennen. Het zegt zijn verantwoordelijkheid te willen nemen door manieren te vinden om nep-­inhoud tegen te gaan en het vertrouwen in digitale media te vergroten.

Eline voor bewerking Beeld Sjoerd Stellingwerf

Bij een steekproef van Abobe en Berkeley bleek dat de software er in 99 procent van de gevallen in slaagt om veranderingen op te sporen. Mensen speuren de veranderingen slechts in 53 procent van de gevallen op. Een aanzienlijk verschil dus.

Een mooie ontwikkeling, vindt media-ethicus Huub Evers. “Adobe doet dit natuurlijk ook om betrouwbaarder over te komen, maar daar is op zich niets op tegen. Een dergelijke tool kan een mooi instrument zijn voor factcheckers.”

Er zijn volgens hem ook kanttekeningen te plaatsen: “Het ongedaan maken van rommelen kan ook weer tot rommelen leiden. Het biedt namelijk ook de mogelijkheid de betrouwbaarheid aan te tonen van iets wat misschien niet écht te vertrouwen is.”

#Iwokeuplikethis

Vooralsnog is het vermogen van de kunstmatige-intelligentietool nog beperkt. De software is specifiek ontworpen om foto’s te herkennen die bewerkt zijn met de ­Face-Aware Liquify-tool, een functie in Photoshop die vaak wordt gebruikt om de vorm van gezichten aan te passen en gezichtsuitdrukkingen te wijzigen. Denk aan grotere ogen of een bredere lach.

De tool past binnen het groeiende belang dat op sociale media aan authenticiteit wordt gehecht. BN’ers als Sylvie Meis en Doutzen Kroes posten foto’s zonder make-up, de hashtag #Iwokeup­likethis is miljoenen keren gebruikt en volgende week brengt influencer Jamie Li – bekend van het omstreden boek Sexy but tired. But sexy. - haar nieuwe boek uit, getiteld No ­filter.

Terwijl de ene groep slim gebruikmaakt van deze (geregisseerde) ‘echtheid’, blijft de andere groep onverminderd verder gaan met het wegpoetsen van wallen, putjes, onderkinnen en gele tanden. Het ontmaskeren van dat ‘perfecte plaatje’ dat sterren, modellen, influencers en eenieder die zijn foto’s bewerkt creëren, zou in die zin bij kunnen dragen aan een realistischer schoonheidsideaal en daarmee aan een positiever zelfbeeld.

Ook op reclamevlak kan het een interessante ontwikkeling zijn. Evers: “Al zal daar waarschijnlijk al snel weer wat op verzonnen worden. Een actie leidt altijd weer tot reactie. Technologie is voortdurend in ontwikkeling en daarom is het belangrijk dat mediaconsumenten weten welke ontwikkelingen gaande zijn.”

Toekomst

Vooralsnog is het onduidelijk of, hoe en wanneer deze Adobesoftware beschikbaar komt voor consumenten. Ook het herkennen en ‘ontmaskeren’ van fotobewerkingen gemaakt met andere tools dan Photoshop’s Liquify laat nog op zich wachten. Adobe wil eerst verder onderzoek doen naar het herkennen van audio- en ­videobewerking.

De software kan, als hij eenmaal beschikbaar is, tegengif zijn voor deepfakes en nepnieuws, al is het de vraag of dergelijke tools echt zoden aan de dijk zetten. Vaak genoeg worden gemanipuleerde beelden – ook waarvan bekend is dat het neppers zijn – alsnog massaal gedeeld op sociale media.

Weten dat iets nep is, is slechts de helft van de strijd, erkent ook hoofd van Adobe Research ­Gavin Miller in de blogpost. ‘Dit is een belangrijke stap in het kunnen detecteren van bepaalde soorten beeldbewerking, en de mogelijkheid om aanpassingen ongedaan te maken werkt verrassend goed. Maar naast technologieën als deze, is de beste verdediging een geïnformeerd publiek dat weet dat inhoud kan worden gemanipuleerd – vaak om hen te verrassen, maar soms om hen te misleiden.’

Meer over

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2019 de Persgroep Nederland B.V. - alle rechten voorbehouden