Plus

Computer als evenbeeld van de mens

Robots nemen ons leven over. Ze staan in ons huis, ze bepalen ons werk en beïnvloeden de manier waarop we samenleven. Vandaag het slot: onze werkelijkheid verandert.

Beeld Yoko Heiligers

"Het klinkt pessimistisch maar ik denk dat mensheid zichzelf eerder om zeep heeft geholpen door niet in te grijpen in de klimaatverandering, of de verspreiding van nucleaire wapens dan dat we worden overvleugeld door computers die intelligenter zijn dan wij."

Het was sciencefictionliteratuur die Alix Rübsaam, technologiefilosoof aan de Amsterdam School for Cultural Analysis, tijdens haar studie Engelse taal en cultuur aan de Universiteit van Amsterdam op het spoor zette van de invloed van technologische ontwikkelingen op onszelf en onze samenleving.

De overeenkomsten tussen die fictie en onze huidige werkelijkheid zijn groot. "Ik zie een heleboel manieren waarop mensen naar zichzelf kijken en over hun functioneren nadenken alsof we zelf computers zijn. Ik las laatst over het 'hacken' van genetische informatie. En er was reclame voor zo'n fruitdrankje: 'reset your body'.

"Met zulke vergelijkingen denken we blijkbaar onze fysieke werkelijkheid beter te begrijpen. Maar ik zie het als een enorme reductie van wat we als mens zijn, als we onszelf terugbrengen naar een concept dat we denken te snappen. Het gevaar schuilt erin dat we daardoor computers en software menselijke waarden geven."

Tegelijkertijd verandert de manier waarop we communiceren, door de omgang met kunstmatige intelligentie. "Spraakdiensten als Siri, Alexa of Google Home leren van het praten met ons. En wij leren ongemerkt ook van hen: wij veranderen onze taal en ons gedrag vanwege de beperkingen van zo'n apparaat zodat de robot ons begrijpt."

Wie past zich aan aan wie?
Daarmee beperken we volgens Rübsaam ook het zelfleren van de technologie. "Daardoor zal de kunstmatige intelligentie zich vanzelf minder goed aan ons aanpassen en moeten wij ons steeds verder aanpassen in onze omgang met zulke robots."

Rübsaam, die ook is verbonden aan de Singularity University - een Amerikaanse denktank over snelgroeiende technologische ontwikkelingen - loopt bij lezingen en toespraken die ze geeft vaak aan tegen de rigide belevingswereld van techneuten, wetenschappers en bedrijven.

"De Googles en Amazons doen alsof ze iets hebben uitgevonden dat aansluit op onze werkelijkheid. Maar er is niet één wereld en de wereld is niet voor iedereen hetzelfde. Google Home is er nu in het Nederlands, maar op basis van een Amerikaans model, met een Amerikaans wereldbeeld. Daar verandert een andere taal niets aan."

"Computers werken vanuit modellen. Dat is prima als ze beperkte taken uitvoeren. Maar we streven nu naar computers die alles doen, alles begrijpen en alles sturen. Een computer als het evenbeeld van de mens."

Complexiteit
"Maar de werking van computers, software en algoritmes is zo wezenlijk anders dan het menselijk lichaam dat je dat evenbeeld nooit kunt bereiken. Moeten wij ons dan aanpassen?"

"Het misverstand is dat data altijd stabiel zijn en altijd de werkelijkheid weergeven. Daar zijn we nog niet eens voor onszelf over uit. Wij interpreteren dezelfde gegevens per individu anders, afhankelijk van onze persoonlijkheid, afkomst of plek in de wereld. Maar we accepteren nu wel systemen in ons leven die data onvoorwaardelijk als waarheid zien."

"Kunstmatige intelligentie zal nooit de complexiteit van menselijke intelligentie kunnen benaderen. We weten niet eens goed hoe menselijke intelligentie werkt, laat staan dat we kunnen zeggen dat we die met technologie kunnen benaderen."

Ze verzet zich tegen het idee dat kunstmatige intelligentie, zelflerende software en robotisering zaken zijn die we nog nooit eerder hebben meegemaakt - omdat ze voor het eerst niet alleen afhankelijk zijn van menselijke input maar zich ook zelfstandig kunnen ontwikkelen. "We doen te veel alsof er iets op het spel staat dat nooit eerder op het spel stond. Dat maakt het gemakkelijker om een ethisch oordeel vooruit te schuiven."

Als hulpmiddel waardevol
"Je kunt niet doorgaan met alleen de technische kant van kunstmatige intelligentie te ontwikkelen en de gevolgen op hoe wij leven niet beantwoorden. Er zijn voldoende mensen die daar een visie op hebben. Maar dat zijn niet noodzakelijkerwijs mensen die worden gehoord bij bedrijven of bij wetenschappers die deze ontwikkelingen aanvoeren."

"Zo lang we denken dat computersystemen een compleet beeld kunnen geven en onze complete werkelijkheid kunnen vangen, dan gaat het zonder meer mis. Dan verander je ongemerkt de weerbaarheid van een samenleving. Alleen als we deze technologie gebruiken als hulpmiddel, is het waardevol."

"Je wilt immers een maatschappij hebben die zo authentiek en divers mogelijk is, terwijl dit soort beperkende systemen ongemerkt een eenvormige samenleving wil scheppen die past in algoritmes en datastromen. Het gevolg is dat onze werkelijkheid steeds armoediger wordt."

In een serie van zeven verhalen schetst Het Parool de voordelen en valkuilen van kunstmatige intelligentie.

Deel 1: Hoe robots ons dagelijks leven overnemen
Deel 2: Zo intelligent is kunstmatige intelligentie
Deel 3: Hoe robots bij KLM jouw vragen beantwoorden
Deel 4: Magazijnen zonder uitgeputte sjouwers, maar met robots
Deel 5: Robots nemen wel/niet onze banen over

Google's grondwet

"Het is niet Google's rol om te be­pa­len wát verantwoordelijke kunstmatige intelligentie is," zegt Jen Gennai, als hoofd ethisch machineleren bij Google verantwoordelijk voor regelgeving bij het concern, "maar we willen wel onze rol spelen."

In juni schrapte Google een miljardencontract met het Pentagon over de ontwikkeling van toepassingen voor kunstmatige intelligentie. Het viel publicitair handig samen met de presentatie van wat Gennai 'onze Googlegrondwet' noemt.

"Sinds juni heeft Google de 'AI-principles' met regels en beloften over kunstmatige intelligentie en machineleren. Daarmee willen we ons verzekeren dat die ontwikkelingen positief uitwerken, zonder vooroordelen of uitsluiting en zonder dat ze voor schadelijke zaken worden gebruikt."

"We moeten voorkomen dat zoek­resultaten onbedoeld racistisch, seksistisch of stereotyperend zijn omdat zulke kwalificaties kunnen doorsijpelen in de kunstmatige intelligentie. "Zoek je bij ons naar foto's van bruiloften, dan krijg je veel witte mensen in witte bruidsjurken te zien. Maar in Azië is een bruidsjurk rood. Wij moeten daar rekening mee houden."

Meer over

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden