PlusInterview

Hoogleraar Natali Helberger: ‘De tech-big five baart me zorgen’

Een algoritme kan uitrekenen wie waarschijnlijk fraude pleegt bij de belastingaangifte. Handig, maar ook een bedreiging van fundamentele rechten, zegt universiteitshoogleraar Natali Helberger.

Natali Helberger: ‘Het is belangrijk dat we weten welke beslissingen over ons door een machine worden genomen.’Beeld Getty Images

Kunstmatige intelligentie, daar krijgen we toch pas in de toekomst mee te maken?

“Dat dachten veel journalisten ook, die onlangs in een enquête de vraag kregen of ze weleens kunstmatige intelligentie gebruikten. Nee hoor, zeiden de meesten. Maar ook het algo­ritme van Google, dat leert van elke zoekopdracht, is kunstmatige intelligentie. Dus vrijwel iedereen gebruikt het al.”

“Vroeger moest je een computer precies vertellen wat hij moest doen, als een soort recept. Bij kunstmatige intelligentie ga je ervan uit dat het algoritme slimmer wordt door zelf te leren. Het is bijvoorbeeld in staat patronen te herkennen en slimmere manieren te bedenken om een nog lekkerdere cake te maken.”

Kunstmatige intelligentie is dus eigenlijk al overal. Moeten we daar blij mee zijn?

“Ik wil niet zo iemand zijn die alleen de enge kanten van technologie ziet. Door kunstmatige intelligentie ontstaan waanzinnige, nieuwe, spannende toepassingen die ons leven in veel opzichten veel makkelijker maken. Wie kan dezer dagen nog zonder zoekmachine leven? En in de gezondheidszorg worden betere diag­noses gesteld met kunstmatige intelligentie.”

“Maar wat me grote zorgen baart, is dat er zo veel in handen is van een handjevol techbedrijven. In Amerika heb je de big five: Facebook, Apple, Microsoft, Google, Amazon en ook in China zijn een paar bedrijven heel dominant. De beslissing wie wat te zien krijgt in zijn nieuwsfeed, wordt onder meer door kunst­matige intelligentie gestuurd.”

“Wat ik wil onderzoeken is wat er gebeurt als je kunstmatige intelligentie integreert in maatschappelijke sectoren als de media, de politiek, de gezondheidszorg en de rechtspraak. De Nederlandse overheid laat bijvoorbeeld een algoritme risicoprofielen opstellen van mensen die een grotere kans hebben te frauderen met belasting of uitkering. We weten echter niet precies wat er met die informatie gebeurt en wat de implicaties ervan zijn. Bij dat soort za­ken ligt mijn aandacht: fundamentele rechten zoals privacy en vrijheid van menings­uiting. Wat moeten we doen om mensen goede bescherming te geven?”

Wat kunnen we doen om de ontwikkeling van kunstmatige intelligentie in goede banen te leiden?

“Je moet vanaf het begin bij het bouwen rekening houden met de waarden die je in acht wilt nemen. Is de privacy gewaarborgd? Wordt er niet gediscrimineerd? Legt een beslissysteem in de rechtspraak vrouwen bijvoorbeeld niet een lichtere straf op omdat ze minder risicovol rijden dan mannen?”

“Bovendien moet je niet alleen naar de ma­chine kijken, maar ook naar hoe mensen er ­verantwoord mee omgaan. En welke zorgvuldigheidsplichten moet ik mensen die met het geautomatiseerde beslissysteem werken, op­leggen? Ze moeten misschien een goede opleiding volgen en in elk geval goed kijken of de resultaten van het algoritme wel kloppen.”

Natali HelbergerBeeld Jeroen Oerlemans

“Er was een experiment in Polen met een kunstmatige intelligentiesysteem dat het arbeidsbureau adviseert. Dat deelde de werkzoekenden in drie categorieën in: ‘kan zichzelf helpen’, ‘heeft onze hulp nodig’ en ‘hopeloos’. Toen gecheckt werd hoe vaak de medewerkers waren afgeweken van de beslissing van de kunstmatige intelligentie, bleek dat bijna nooit het geval te zijn. Die mensen hebben klakkeloos de beslissing van het systeem overgenomen en dat is niet goed.”

Wat kan ik als burger doen?

“Het is heel erg belangrijk dat we ons ervan bewust zijn welke beslissingen over ons door een machine worden genomen. Wat onze rechten zijn om tegen zo’n beslissing in het geweer te komen als we oneerlijk behandeld worden. Er worden op dit moment wetten gemaakt om dat veilig te stellen, maar we moeten ons als burgers daar ook over informeren.”

“Verder denk ik dat we er goed over moeten nadenken met wie we onze data delen. We moeten beseffen dat die data de kunstmatige intel­ligentie voedt. Willen we echt dat deze informatie gebruikt wordt? Of zijn er bepaalde gebieden waarvan we zeggen: nee, sorry, die informatie is niet relevant voor u, die geef ik niet. En misschien gewoon eens navragen of ze die informatie nou echt nodig hebben.”

En anders naar een andere winkel gaan?

“Jazeker, af en toe ook iets alternatiefs gebruiken is ook goed. Als je straks een smartspeaker gaat kopen, kies dan niet meteen Alexa van Amazon maar kijk ook even wat er verder op de markt is. We hadden het eerder over de waarden die we willen implementeren in kunstma­tige intelligentie. Grote Amerikaanse bedrijven denken daar heel anders over, die optimaliseren op kostenefficiëntie. In China is het nog erger. Het woord privacy heeft daar een heel andere betekenis.”

“Het is ongelofelijk belangrijk dat er Nederlandse kunstmatige intelligentie wordt ont­wikkeld die onze waarden respecteert, bijvoorbeeld door Nederlandse start-ups. De enige manier waarop zij kunnen overleven is doordat we hun diensten gebruiken en niet alweer Google of Facebook. Misschien zijn die producten in het begin niet zo fancy en snel en slim als die van de grote aanbieders, maar dat is de enige manier om te zorgen dat we ons niet volledig afhankelijk maken.”

“Maar dan moeten er wel alternatieven zijn. Het is aan de regering, de wetenschap en het bedrijfsleven om daarvoor te zorgen. Het is niet iets dat we over tien jaar nog eens kunnen gaan doen, het moet nu.”

Natali Helberger
Frankfurt am Main, 19 juni 1970

2005  promotie rechten, Controlling access to content: regulating conditional access in digital broadcasting, Universiteit van Amsterdam
2006  senior onderzoeker, Instituut voor Informatierecht (IViR) van de UvA
2007  NWO Veni-beurs
2013  hoogleraar informatierecht, UvA
2019  universiteits­hoogleraar op de leerstoel law and digital technology, with special emphasis on artificial intelligence, UvA

Meer over

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2020 DPG Media B.V. - alle rechten voorbehouden