Opinie

Opinie: ‘Artificiële intelligentie: hoe controleer je iets dat in alles beter is dan alle slimste mensen op de wereld?’

Computer­programma’s kunnen tegenwoordig afbeeldingen maken die niet van echte schilderijen te onderscheiden zijn. Beeld Tess Kievit
Computer­programma’s kunnen tegenwoordig afbeeldingen maken die niet van echte schilderijen te onderscheiden zijn.Beeld Tess Kievit

Computerprogramma’s die opinieartikelen schrijven, winnen in denksporten en kunst scheppen, het leek altijd sciencefiction. Het punt nadert dat AI als een mens kan redeneren en beïnvloeden. Vaak interpreteert zo’n AI-model zijn doelen anders dan de maker beoogde. Tijd om dat gevaar onder ogen te zien, vinden Otto Barten en Eefje van Esch.

Het Parool

De ontwikkelingen binnen de artificiële intelligentie (AI), volgen elkaar in hoog tempo op. Afgelopen vrijdag liet Alexander Klöpping bij de talkshow Op1 het AI-model ChatGPT live een opiniestuk schrijven waarin Mark Rutte onder vuur werd genomen om het stikstofbeleid. Niet te onderscheiden van een door mensen geschreven artikel. Ook bleek afgelopen maand dat AI zowel de spelletjes Stratego als Diplomacy kan winnen. Strategische spellen waarin spelers niet alle informatie hebben, bovendien moet je om Diplomacy te winnen andere spelers overtuigen. Het programma Dall•E 2 werd nieuws omdat deze AI afbeeldingen maakt die niet meer van echte schilderijen te onderscheiden zijn.

Tot voor kort was de aanname dat AI dit soort taken – taken die dus ook gaan over invloed uitoefenen, strategische keuzes maken, deelnemers overreden, taken die dus verder gaan dan enkel het invoeren van eerder gedane zetten – pas over tientallen jaren zou kunnen uitvoeren. De ontwikkeling gaat dus sneller dan gedacht en steeds als AI weer een taak net zo goed kan als wij mensen, komen we dichterbij het punt waar AI álle cognitieve taken op menselijk niveau kan uitvoeren (AGI, artificial general intelligence). Dat dit geen sciencefiction meer is, kunnen we afleiden uit de sprongen die AI afgelopen tijd maakt.

AGI

Het eindstation van AI-onderzoek – AGI – verdient extra denkwerk en aandacht omdat het fundamentele en enorme consequenties zal gaan hebben. In de industriële revolutie werd één kwaliteit van de mens, zijn fysieke kwaliteit, grotendeels geautomatiseerd. Dat resulteerde in een ongekend opwaartse economische ontwikkeling, maar uiteindelijk ook in de klimaat- en biodiversiteitscrises waar we ons nu in bevinden. Wat gaat er gebeuren wanneer die andere kwaliteit van de mens, zijn cognitieve, uiteindelijk ook compleet wordt geautomatiseerd?

Over AGI – kunstmatige intelligentie op speed – dromen AI-wetenschappers en ondernemers al jaren. Zij jagen op wetenschappelijke doorbraken en daarmee op geld en groei in productiviteit. Wie zou er niet met één druk op de knop honderd extra werknemers een willekeurige taak willen kunnen laten verrichten? De kansen zijn legio, maar de risico’s die komen met de uitvinding van AI van bovenmenselijk niveau, óók. Wat kan er mogelijk met ons gebeuren als we omringd worden door iets dat slimmer is dan wijzelf? Veel AI-onderzoekers zeggen ook eerlijk dat ze zich zorgen maken over de eventuele consequenties van doorbraken in hun vakgebied.

Techbedrijven

Hoe controleer je iets dat in alles beter is dan alle slimste mensen op de wereld? Stuart Russell, AI professor aan de Universiteit van California in Berkeley, zegt het als volgt in de New York Times: ‘Sommigen claimen graag dat we een AI-programma altijd uit kunnen zetten – maar dit is niet logischer dan zeggen dat we altijd gewoon een betere zet kunnen spelen dan het supermenselijke schaak- of Goprogramma waar we tegen spelen. De AI zal anticiperen op elke manier waarop de mens kan ingrijpen, en preventieve actie ondernemen om dit te voorkomen.’ De stekker eruit trekken als het escaleert, gaat dus eenvoudigweg niet lukken.

Daarom investeert een groeiende groep AI-onderzoekers in veiligheid. Zij willen waarborgen dat AGI nooit tegen onze waarden in zal handelen. Maar, wat zijn ‘onze’ waarden eigenlijk? Zijn jouw waarden dezelfde als die van mij? Tellen die van Poetin of van Greta Thurnberg? Hoe formuleren we waarden zodanig dat AI er iets mee kan? Hoe zorgen we dat de waarden van iedereen gewogen worden, en niet alleen die van de CEO’s van techbedrijven? En zelfs als al deze problemen – in jargon outer misalignment – oplosbaar zouden zijn, is er nog het meer technische inner misalignment: het blijkt zo te zijn dat geavanceerde AI-modellen, wanneer ze het lab verlaten en worden losgelaten op de echte wereld, hun doelen vaak anders interpreteren dan de maker beoogde.

Waarden

Na zo’n vijftien jaar onderzoek naar AI alignment, lijkt het er voorlopig nog niet op dat supermenselijke AI, mocht die uitgevonden worden, onze waarden ook echt gaat volgen. En dat kan gevaarlijke consequenties hebben. Spelen met ChatGPT of kunst maken met Dell•E 2 is vast amusant. En AI gaat ons de komende jaren veel taken uit handen nemen. Maar dat mag ons niet slaapwandelend richting de ontwikkeling menselijke AI duwen. Het is de hoogste tijd dat politici en beleidsmakers wakker worden en niet alleen de kansen, maar ook de bedreigingen scherp in kaart gaan brengen. De stekker eruit trekken is geen strategie. Vooruitdenken een morele plicht.

Otto Barten en Eefje van Esch van het Existential Risk Observatory, een Nederlandse stichting met als doel de vermindering van existentiële risico’s. Beeld
Otto Barten en Eefje van Esch van het Existential Risk Observatory, een Nederlandse stichting met als doel de vermindering van existentiële risico’s.

Wilt u belangrijke informatie delen met Het Parool?

Tip hier onze journalisten


Op alle verhalen van Het Parool rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@parool .nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden