Plus

De ontwikkeling van de deepfake is niet meer te stoppen, helaas

De techniek om een nepvideo te maken die niet van echt te onderscheiden is, ontwikkelt zich razendsnel. Aan de UvA worden systemen ontwikkeld die deepfakes juist moeten detecteren. Een ongelijke strijd.

null Beeld Getty Images/iStockphoto
Beeld Getty Images/iStockphoto

Tweede Kamerleden werden eind vorige maand lelijk bij de neus genomen. De commissie Buitenlandse Zaken dacht via een videoverbinding te spreken met de stafchef van de Russische oppositieleider Navalny, Leonid Volkov, maar al snel bleek dat de man Volkov niet was, niet in de laatste plaats omdat ie aan het einde van het gesprek een roze spaarvarken tevoorschijn haalde en vroeg om bitcoins aan hem over te maken.

Het zou gaan om een deepfake: een video waarin het gezicht van de persoon in beeld is verwisseld met een door de computer geanimeerd gezicht. Later bleek ook dat niet te kloppen: de man in de video was niet Volkov, het was ook geen deepfake, maar een vlogger die een grap wilde uithalen. Om het nog verwarrender te maken heet zijn YouTube­kanaal de Deep Fake Show.

Dit lijkt in eerste instantie een slecht voorbeeld om een artikel over de gevaren van deepfakes mee te beginnen. Het was immers geen deepfake. Maar het feit dat er wekenlang onduidelijkheid bestond of Tweede Kamerleden met een echt persoon of een computergestuurd gezicht aan het praten waren, toont wel aan hoe ver de techniek is en wat de risico’s zijn. Twijfel zaaien over wat echt is en wat niet is immers een beproefde methode om de (politieke) stabiliteit te ontwrichten.

Wraakporno

De ontwikkeling van deepfakes is niet meer te stoppen, daar is Marcel Worring, hoogleraar Multimedia Analytics aan de Universiteit van Amsterdam van overtuigd. De komende jaren zal de techniek waarmee je beelden kunt manipuleren steeds geavanceerder worden, tot het punt dat met het blote oog onmogelijk vast te stellen is of een filmpje authentiek is.

“En dan vormt het een serieus probleem. Criminelen kunnen dan met relatief eenvoudige en goedkope software mensen afpersen. Denk aan wraakporno: ze dreigen om een gefabriceerd filmpje door te sturen tenzij er geld betaald wordt. Maar deepfakes kunnen ook voor politieke doeleinden gebruikt worden. In die zin is het een geavanceerde vorm van fake news.”

Deze week werd bekend dat de UvA en het Nederlands Forensisch Instituut (NFI) samen onderzoek doen naar het opsporen van deep­fakes. Momenteel kunnen met computer­modellen acht op de tien deepfakevideo’s herkend worden, maar omdat de techniek steeds beter wordt, is ook extra inzet nodig voor het ontmaskeren van nepvideo’s.

Slimmer dan de dief

De AI-systemen achter deepfakes zijn zelf­lerend. Simpel gezegd houdt dat in dat twee systemen een strijd aangaan met elkaar: een systeem ontwikkelt de filmpjes, het andere systeem probeert te detecteren of een filmpje nep is. Zo maken ze elkaar beter.

Volgens Worring is het een ongelijke strijd tussen kwaadwillenden, die op deze manier hun systemen steeds beter kunnen krijgen, en de mensen die achteraf moeten controleren of iets echt is. “Een dief heeft maar een manier nodig om een slot te openen, een slotenmaker moet duizenden methoden zien te voorkomen. Daar komt nog bij dat negentig procent van de investeringen in deepfakes gaan naar het verbeteren van de techniek, slechts tien procent wordt geïnvesteerd in het herkennen van deepfakes. Wij willen vooral die detectiekant versterken.”

Ironisch: terwijl het team van Worring werkt aan technieken om deepfakes te herkennen, zijn andere UvA-wetenschappers bezig met het avanceren van de techniek om de video’s te maken. Zou het, gezien alle negatieve toepassingen en alle potentiële risico’s, niet beter zijn als ze daarmee zouden stoppen? Worring: “Het is naïef om te denken dat je techniek kunt stoppen. Bovendien is techniek niet iets dat goed of slecht is. een auto kan een ongeluk veroorzaken, maar dat is vooral een reden om te proberen om auto’s veiliger te maken dan om auto’s te verbieden.”

Naar de rechter

Bovendien, stelt Worring, zijn er ook positieve toepassingen van deepfakevideo’s denkbaar. “Het wordt echt niet alleen gebruikt door criminelen. Apps als TikTok, waarbij je kunt dansen en eruit kunt zien als Michael Jackson, maken van dezelfde techniek gebruik. Ook de film­industrie heeft er baat bij. Maar er zullen altijd kwaadwillenden zijn die er misbruik van maken en daar moet je je tegen wapenen.”

Daarnaast is er nog nauwelijks aandacht voor de ‘forensische bewijswaarde’. Dit is een van de redenen dat het NFI en de wetenschappers van de UvA samenwerken bij het ontwikkelen van ontmaskeringsmethoden die ook in de rechtszaal standhouden. Worring: “Je kunt aan de hand van computerprogramma’s vaststellen dat iets een deepfake is, maar je zult de rechter daar vervolgens ook van moeten overtuigen. Het NFI heeft die juridische kennis in huis.”

In de toekomst zullen rechters zich geconfronteerd zien met twee gevolgen van deepfake­video’s: er zullen criminelen zijn die beweren dat hun nepvideo’s echt zijn. En er zullen echte beelden zijn waarop te zien is dat de persoon die terecht staat iets doet wat verboden is, terwijl hij beweert dat het een nepvideo is. Zolang de techniek om deepfakevideo’s te maken beter wordt, zal de techniek om ze te ontmaskeren gelijke tred moeten houden. Worring: “Eigenlijk wil je criminelen steeds een stapje voor blijven.”

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2021 DPG Media B.V. - alle rechten voorbehouden