Opinie

‘De corona-app gaat niet zozeer over privacy, maar over eerlijkheid’

De tracking-app tegen corona komt eraan. Onderzoeker Rudy van Belkom stelt de vraag of we wel rekening houden met zij die er nadeel van ondervinden.

Op welk moment moet risico leiden tot quarantaine? Ethische afwegingen spelen daarbij mee.Beeld Getty Images

Er was veel kritiek op de appathon die het Ministerie van Volks­gezondheid, Welzijn en Sport in april hield om slimme technologieën in te zetten tegen verspreiding van het coronavirus. ­Volgens experts waren de resultaten onbevredigend en voldeed geen van de ingebrachte apps aan de gestelde privacyrichtlijnen. Ethisch onverantwoord, luidde het eindoordeel.

Toch zit de echte kritiek wat mij betreft niet in de appathon zelf, maar in de wijze waarop we ethiek in praktijk proberen te brengen. Volgens ethische richtlijnen van de Europese Commissie moeten de kwaliteit en integriteit van de gebruikte gegevens gewaarborgd worden om privacyschade te voorkomen. Klinkt goed, maar wat over het hoofd gezien wordt is dat het bij de ontwikkeling van kunstmatige intelligentie (KI) om statistiek draait. De richtlijnen zeggen niets over de wijze waarop waarden als ­privacy daadwerkelijk meetbaar gemaakt ­kunnen worden.

Slimme systemen moeten in staat zijn zelfstandige patronen uit grote hoeveelheden data te halen en daarvan te leren. Naast het feit dat hierbij persoonsgegevens op straat kunnen komen te liggen, kan het systeem bepaalde groepen gebruikers onbedoeld benadelen door verkeerde interpretaties van deze data.

Het gaat in dat opzicht eigenlijk niet zozeer over privacy, maar over eerlijkheid. En de vraag is wat in dit geval eerlijk is vanuit een statistisch oogpunt. Willen we geen coronagevallen over het hoofd zien (geen foutnegatieven), of willen we geen mensen onterecht in quarantaine zetten (geen foutpositieven)?

Witte pakken

Stel je voor: je besluit op goed vertrouwen gebruik te maken van de nieuwe CoronaMelder van de overheid. Op een dag staan er ineens vier ambtenaren in witte pakken voor je deur. Je wordt vriendelijk, maar toch vooral dringend verzocht de komende veertien dagen binnen te blijven. Een voedselpakket en een succeswens zijn het enige wat je krijgt. Je hebt echter helemaal geen klachten. Door het keukenraam zie je dat je buren dezelfde behandeling krijgen. Achteraf blijkt dat dit door je postcode komt; mensen in jouw postcodegebied hebben een hogere kans op besmetting.

We moeten ons afvragen wat ‘eerlijk genoeg’ is. Welk percentage onnodige quarantaine­gevallen kunnen en willen we accepteren? Als we de ethische richtlijnen niet kwantificeren, zal een programmeur volgens de huidige benadering zélf een keuze moeten maken.

Gevangenisstraf

Wat we onder eerlijkheid verstaan, is daarnaast contextafhankelijk. Een aantal maanden geleden konden we het ons helemaal niet voorstellen dat er mensen in quarantaine geplaatst ­zouden moeten worden. En we zullen waarschijnlijk anders oordelen als het over een onterechte gevangenisstraf gaat, in plaats van een relatief luxe quarantaine in eigen huis. Universele waarden zijn niet zo veranderlijk, maar onze normen wel. Dat maakt het niet alleen lastig, maar ook onverantwoord om principes en richtlijnen in KI-systemen te programmeren.

Uiteindelijk moet het systeem zélf in staat kunnen zijn om morele afwegingen te maken. Dat klinkt eng, maar zonder een moreel intuïtief systeem is het bijna onmogelijk om AI op een ethisch verantwoorde manier toe te passen. Mensen kunnen met regels omgaan omdat we ze in de context kunnen vertalen naar gedrag.

We moeten momenteel 1,5 meter afstand houden van elkaar. Maar als iemand zijn evenwicht verliest en van de trap dreigt te vallen, is het toch wenselijk dat ik die persoon opvang als ik daartoe in staat ben. In verschillende omstandigheden maken we verschillende afwegingen, steeds afgestemd op de omgeving.

We moeten daarom minder energie steken in het opstellen van ethische richtlijnen en ons meer bezighouden met het bouwen van systemen die in de context ethisch verantwoorde beslissingen kunnen nemen. Ethiek is bij uitstek een ontwerpvraagstuk. Naast programmeurs en ethici, moeten er sociologen, psychologen, biologen en economen meewerken. Lukt dat niet? Dan moeten we wellicht in de toekomst geen KI-systemen meer willen inzetten. Of accepteren dat onze ethiek onethisch is.

Rudy van Belkom, onderzoeker, verbonden aan Stichting Toekomstbeeld der Techniek.
Meer over

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2020 DPG Media B.V. - alle rechten voorbehouden