Een algoritme kan uitrekenen wie waarschijnlijk fraude pleegt bij de belastingaangifte. Handig, maar ook een bedreiging van fundamentele rechten, zegt universiteitshoogleraar Natali Helberger van de Universiteit van Amsterdam.
Kunstmatige intelligentie, daar krijgen we toch pas in de toekomst mee te maken?
‘Dat dachten veel journalisten ook die onlangs in een enquête de vraag kregen of ze weleens kunstmatige intelligentie gebruikten. Nee hoor, zeiden de meesten. Maar ook het algoritme van Google, dat leert van elke zoekopdracht, is kunstmatige intelligentie. Dus vrijwel iedereen gebruikt het al.
Vroeger moest je een computer precies vertellen wat hij moest doen, als een soort recept. Bij kunstmatige intelligentie ga je ervan uit dat het algoritme slimmer wordt door zelf te leren. Het is bijvoorbeeld in staat patronen te herkennen en slimmere manieren te bedenken om een nog lekkerdere cake te maken.’
Kunstmatige intelligentie is dus eigenlijk al overal. Moeten we daar blij mee zijn?
‘Ik wil niet zo iemand zijn die alleen de enge kanten van technologie ziet. Door kunstmatige intelligentie ontstaan waanzinnige, nieuwe, spannende toepassingen, die ons leven in veel opzichten veel makkelijker maken. Wie kan dezer dagen nog zonder zoekmachine leven? En in de gezondheidszorg worden betere diagnoses gesteld met kunstmatige intelligentie.
Maar wat me grote zorgen baart, is dat er zo veel in handen is van een handjevol techbedrijven. In Amerika heb je de big five: Facebook, Apple, Microsoft, Google, Amazon; en ook in China zijn een paar bedrijven heel dominant. De beslissing wie wat te zien krijgt in zijn nieuwsfeed, wordt onder meer door kunstmatige intelligentie gestuurd.
Wat ik wil onderzoeken, is wat er gebeurt als je kunstmatige intelligentie integreert in maatschappelijke sectoren als de media, de politiek, de gezondheidszorg en de rechtspraak. De Nederlandse overheid laat bijvoorbeeld een algoritme risicoprofielen opstellen van mensen die een grotere kans hebben te frauderen met belasting of uitkering. We weten echter niet precies wat er met die informatie gebeurt en wat de implicaties ervan zijn. Bij dat soort zaken ligt mijn aandacht: fundamentele rechten zoals privacy en vrijheid van meningsuiting. Wat moeten we doen om mensen goede bescherming te geven?’
Wat kunnen we doen om de ontwikkeling van kunstmatige intelligentie in goede banen te leiden?
‘Je moet vanaf het begin bij het bouwen rekening houden met de waarden die je in acht wilt nemen. Is de privacy gewaarborgd? Wordt er niet gediscrimineerd? Legt een beslissysteem in de rechtspraak vrouwen bijvoorbeeld niet een lichtere straf op omdat ze minder risicovol rijden dan mannen?
Bovendien moet je niet alleen naar de machine kijken, maar ook naar hoe mensen er verantwoord mee omgaan. En welke zorgvuldigheidsplichten moet ik mensen die met het geautomatiseerde beslissysteem werken, opleggen? Ze moeten misschien een goede opleiding volgen en in elk geval goed kijken of de resultaten van het algoritme wel kloppen.
Er was een experiment in Polen met een KI-systeem dat het arbeidsbureau adviseert. Dat deelde de werkzoekenden in drie categorieën in: ‘kan zichzelf helpen’, ‘heeft onze hulp nodig’ en ‘hopeloos’. Toen gecheckt werd hoe vaak de medewerkers waren afgeweken van de beslissing van de kunstmatige intelligentie, bleek dat bijna nooit het geval te zijn. Die mensen hebben klakkeloos de beslissing van het systeem overgenomen en dat is niet goed.’
Wat kan ik als burger doen?
‘Het is heel erg belangrijk dat we ons ervan bewust zijn welke beslissingen over ons door een machine worden genomen. Wat onze rechten zijn om tegen zo’n beslissing in het geweer te komen als we oneerlijk behandeld worden. Er worden op dit moment wetten gemaakt om dat veilig te stellen, maar we moeten ons als burgers daar ook over informeren.
Verder denk ik dat we er goed over moeten nadenken met wie we onze data delen. We moeten beseffen dat die data de kunstmatige intelligentie voeden. Willen we echt dat deze informatie gebruikt wordt? Of zijn er bepaalde gebieden waarvan we zeggen: nee, sorry, die informatie is niet relevant voor u, die geef ik niet zomaar. En misschien gewoon eens navragen of ze die informatie nou echt nodig hebben.’
En anders naar een andere winkel gaan?
‘Jazeker, af en toe ook iets alternatiefs gebruiken is ook goed. Als je straks een smartspeaker gaat kopen, kies dan niet meteen Alexa van Amazon maar kijk ook even wat er verder op de markt is. We hadden het eerder over de waarden die we willen implementeren in kunstmatige intelligentie. Grote Amerikaanse bedrijven denken daar heel anders over, die optimaliseren op kostenefficiëntie. In China is het nog erger. Het woord privacy heeft daar een heel andere betekenis.
Het is ongelofelijk belangrijk dat er Nederlandse kunstmatige intelligentie wordt ontwikkeld die onze waarden respecteert, bijvoorbeeld door Nederlandse start-ups. De enige manier waarop zij kunnen overleven is doordat we hun diensten gebruiken en niet alweer Google of Facebook. Misschien zijn die producten in het begin niet zo fancy en snel en slim als die van de grote aanbieders, maar dat is de enige manier om te zorgen dat we ons niet volledig afhankelijk maken.’
Maar dan moeten er wel alternatieven zijn.
‘Het is aan de regering, de wetenschap en het bedrijfsleven om daarvoor te zorgen. Het is niet iets wat we over tien jaar nog eens kunnen gaan doen, het moet nu.’
Dit artikel verscheen op 28 december 2019 in het Parool.