Eindhoven,
23
juni
2023
|
08:30
Europe/Amsterdam

AI is slechts gereedschap

Er gaat geen dag voorbij zonder rumoer over kunstmatige intelligentie ofwel AI. Helaas gaan zelfs deskundigen nog vaak de mist in met het beschrijven van AI door er menselijke eigenschappen aan toe te wijzen. Tot grote zorg en ergernis van AI-docent Danny Bloks, zo schrijft hij in onderstaand opiniestuk.  

Danny BloksOnlangs was het weer zo ver. Ik luisterde naar een zogeheten keynote op ons Fontys IT Festival, benieuwd naar wat de spreker ons te vertellen zou hebben over de toekomst van technologie. Het verhaal verliep niet heel verrassend, maar de beste man vertelde op een leuke manier over wat ons de komende jaren te wachten zou staan. En uiteraard wordt dan artificial intelligence (of in goed Nederlands, kunstmatige intelligentie) ook genoemd.                                                                                                                                                                                                                             

Hier trapte de keynotespreker helaas weer in de enthousiaste valkuil van de ‘AI-hype’. Hij had het steeds over machines die zelf iets leerden, ons observeerden en van daaruit zelf beslissingen namen. Hij gaf onder andere het voorbeeld dat Bard, de ChatGPT van Google, zichzelf een nieuwe taal had geleerd. Het ging om Bengali, een taal gesproken in een deel van India. De spreker vertelde dat Bard dit zichzelf had aangeleerd na ons te hebben geobserveerd, zoals hij had vernomen van de CEO van Alphabet, het moederbedrijf van Google. In de AI-wereld noemen ze dit ‘emergent behaviour’.

Maar hij vergat er bij te vertellen dat een paar dagen later deze claim van de CEO al weerlegd was. De taal Bengali had namelijk gewoon in de trainingsdata gezeten van Bards voorloper PaLM. Maar het publiek bleef na deze keynote achter met het idee dat er nu al AI-modellen zijn die uit zichzelf besluiten nieuwe dingen te leren. Alsof het mensen zijn.

Dit was niet het enige opgeklopte verhaal waarbij algoritmes nogal menselijke eigenschappen toegewezen kregen. Zo kwam er onlangs het bericht dat een AI-gestuurde drone besloten zou hebben om de mens die de drone overzag, te vermoorden. Wat een angstig en vreselijk bericht! De internationale pers ging er massaal mee aan de haal en de vergelijkingen met Skynet van de Terminator films was al vlug gemaakt. 

Al snel bleek dat ook dit niet klopte, het was een hypothetisch gedachte-experiment, waarbij de bedenkers van dit experiment weer veel menselijke eigenschappen toedichtten aan algoritmes. Hier hebben we een woord voor: antropomorfisme. In dezelfde week van het Fontys IT Festival schreef ook Rens van der Vorst er al over in zijn column, en het is wat mij betreft één van de grote risico’s rondom AI.

Risico's
Antropomorfisme is afgeleid van het Griekse woord ‘anthropos’ (mens) en ‘morphe’ (vorm), en is het toekennen van menselijke eigenschappen, gedrag en emoties aan niet-menselijke entiteiten, zoals dieren, objecten, natuurverschijnselen of abstracte concepten. Vaak is dit onschuldig en schattig, zoals in de vele mooie Pixar shorts, maar het brengt ook grote risico’s met zich mee. Het is namelijk níet de werkelijkheid, maar onze menselijke interpretatie van de wereld om ons heen.

Zo wordt het in de marketing en public relations al geruime tijd gebruikt om de emotionele band tussen gebruikers en hun producten of diensten te versterken. Dit kan leiden tot een grotere betrokkenheid, loyaliteit en uiteindelijk tot hogere verkoopcijfers. En tot meer vertrouwen en minder persoonlijke verantwoordelijkheid. 

Ook in de politiek zien we dat nu steeds meer. Wanneer er fouten gemaakt worden, dan zijn ineens de systemen, processen en procedures de schuldigen. Het systeem heeft namelijk (ten onrechte) besloten dat ouders bijvoorbeeld fraudeurs zouden zijn. De procedures hebben het leed en de schade in Groningen lange tijd niet willen zien. Maar geen mensen! Op die manier is er niemand persoonlijk verantwoordelijk.

Voelen
En dit is precies waarom ik het ontzettend belangrijk vind dat we de juiste taal gebruiken rondom AI. Een algoritme of AI-model ís niet menselijk. Het voelt niet, het denkt niet, het beslist niet. 

ChatGPT is niet ineens een afgestudeerd taalkundige. Het model snápt niet eens de teksten. Het model gebruikt wat ik noem ‘statistische waarschijnlijkheid’ om woorden in een aannemelijke volgorde te plaatsen rondom de steekwoorden die in de vraag zitten, gebaseerd op miljoenen teksten geschreven door échte mensen. Alle zaken die algoritmes ‘doen’, zijn door mensen gedaan of besloten. AI is gereedschap. Toegegeven, ontzettend complex en indrukwekkend gereedschap, maar geen ‘eigen entiteit’.

Dus gebruik vanaf nu alsjeblieft de juiste woorden. Hopelijk maakt dat voor iedereen duidelijker wat AI precies is, en voelen de ontwikkelaars en CEO’s zich ook zélf verantwoordelijk voor enige negatieve uitkomsten (en die zijn er nu al genoeg, maar dat is een heel ander verhaal).

Danny Bloks is AI-docent en coördinator van de minor AI for Society bij Fontys Hogeschool.

Reageren kan hieronder. Eenmaal gepubliceerde reacties worden niet verwijderd

Reacties 1 - 7 (7)
Bedankt voor uw bericht.
Dries van den Enden
28
March
2024
Mooi stuk Danny, dat zet het beeld weer scherp.

side note is dat er voor "(zelf)bewustzijn" voor de wetenschap en filosofie. AI ontwikkeld menselijke eigenschappen (LLMs Taal) - hierdoor kan het de indruk wekken menselijk te zijn. Toch denk ik dat net zoals bij dieren het bewustzijn anders is dan het zelfbewustzijn van mensen en weer anders bij een systeem met een "blackbox" aan keuzes.

Verder zullen de algoritmen steeds fijnmaziger (slimmer) worden waardoor het ook nog eens de indruk wekt intelligentie te bezitten.

Voor de mensen die de ontwikkelen goed kunnen volgen en algoritmes kunnen doorgronden (zoals jij zelf) is dat effect er niet of nauwelijks. We hebben echter een grote populatie die alleen wordt geconfronteerd met "iets wat zinvol terug praat", iets wat "begrijpt wat ik zeg".
Dries van den Enden
28
March
2024
side note is dat er voor "(zelf)bewustzijn" voor de wetenschap en filosofie geen eenduidig beeld is, het wordt zelfs gezien als een probleem.

bron ook vergeten te vermelden: https://www.ginkgogroep.be/wp-content/uploads/2021/08/HV-Filosofische-en-wetenschappelijke-visies-op-het-bewustzijn.pdf
michiel van adrichem
14
October
2023
AI is niet alleen gereedschap, het is ook macht.
Onterecht heeft AI over mij genoteerd dat ik zorgmijder ben. Dat gaat geheel zijn eigen leven leiden. En momenteel zorgt het ervoor dat ik geen eigen afspraak meer bij een huisarts kan maken, want... 'ik ben zorgmijder'. Zo raken wel oorzaak en gevolg en met AI verward.
Hoe kom ik hier nog uit? Ik weet het niet.
Ik maak het nog gekker. DPG (de uitgever in België) heeft nu COPYRIGHT, dat ik zorgmijder zou zijn. En dan haalt zeker niemand het nog ooit uit 'het systeem' weg. En ook een computer in Hongarije weet er nu van.
antwoord je op mijn eigen email?
Erdinç
30
June
2023
Bedankt voor je heldere toelichting Danny!
Ton Abelen
24
June
2023
Wat een prettig leesbare en heldere uitleg. Ik geef zelf ook wel eens presentaties en richt me daarbij op de toegevoegde waarde en een aanpak die kan leiden tot resultaat in de praktijk. Commentaar daarbij is dat dit niet inspirerend is omdat ik weiger mee te doen aan de hype.
Mag ik je citeren in mijn presentatie?
Danny
24
June
2023
Ja, hoor, geen probleem. Bedankt voor je bericht.

Fijn weekend,
-Danny
Petra Heck
23
June
2023
Ja precies! Daarom heb ik het in mijn onderzoek over AI engineering ook liever over "trustworthy AI" dan over "Responsible AI".
Danny
24
June
2023
Idd, spread the gospel, Petra!

We zouden meer moeten spreken over Human Driven algoritmes ipv Data Driven. En zeker niet mee doen aan het “ver-entertainen” van AI-systemen door antropomorfisme.

Fijn weekend,
-Danny
John Machielsen
23
June
2023
Mooie krachtige ontmanteling van een van de hardnekkige AI mythes. Naomi Klein schreef er recent ook al een geweldig stuk over in The Guardian.

Net als Klein vermoed ik dat het de makers ook wel dient om allerlei menselijke eigenschappen toe te dichten aan hun creaties. Het suggereert namelijk dat computercode geen product of dienst is waar een bedrijf zijn verantwoordelijkheid over te nemen heeft als het tot ongewenste gevolgen leidt in het gebruik, maar dat technologie autonoom is geworden.

Dus BARD en ChatGPT en al die andere 'tools' hebben dan ineens 'een eigen willetje' gekregen door de kracht (en de illusie) van de taal waarmee we over die veredelde hamers en schroevendraaiers praten. En daar heb je natuurlijk heel veel minder controle en verantwoordelijkheid over. Het is het veelgehoorde en welbekende onvoorziene en onbedoelde gevolgen excuus, zoals dat dat in de technologie literatuur te boek staat.
Daarmee doen we alsof technologie inherent neutraal is, waarden vrij, maar dat is het nooit.

Onvoorziene en onbedoelde gevolgen komen door een gebrek aan (morele) verbeeldingskracht zeg ik al jaren.
Overigens is dat geenszins een originele claim. Sheila Jasanoff herhaalt dit keer op keer in haar The Ethics of Invention (2016). Een quote uit dat werk wat illustreert wat ik bedoel, is de volgende: onbedoelde en onvoorziene gevolgen zijn "a notion that implicitly positions the harms caused by technology outside the ambit of intention or forethought, and thus breeds fatalism about the very possibility of bringing our nonhuman, mechanical, or cognitive collaborators under meaningful human control (2016, p. 248)."

Toen ik tijdens het schrijven van een artikel me aan het verdiepen was in recente inzichten uit de technologie filosofie en ethiek kwam ik het werk van Abeba Birhane tegen. Ondertussen kennen een hoop meer mensen gelukkig haar belangrijke werk. Ze zat in de recente aflevering over AI van VPRO's Tegenlicht.
Zij maakte me duidelijk dat het hele begrip 'onvoorziene en onbedoelde gevolgen' als problematisch is.

Het verbergt het feit dat niet overwogen of genegeerd leed er altijd al is geweest. Het verdoezelt ook dat intentie als zodanig geen rol speelt in het punt dat ik wil maken. Het feit dat nog niet bekend is wat de maatschappelijke of politieke gevolgen van de introductie van een bepaalde technologie zijn, heeft niet tot gevolg dat we niet accountable zijn als het uiteindelijk wel schadelijke gevolgen heeft. Ook al kan het moeilijk zijn vanwege de grote ingewikkelde complexiteit van technologie en onze maatschappij om verantwoordelijkheid toe te wijzen wanneer er schade of leed ontstaat (ook al was dat niet de bedoeling), dan betekent dat nog niet dat we het niet moeten proberen.

Maar we hebben ook in de afgelopen decennia gezien dat geen enkele industrie of branche zichzelf goed weet te reguleren. Gisteren waren opnieuw commissarissen en bestuurders van woningcorporaties in het nieuws vanwege integriteitskwesties.

Naar mijn idee komt dit onvermogen om 'verantwoordelijkheid' vorm te geven omdat we nog steeds met een defect mensbeeld rondlopen. De mens als Homo Economicus. Het gevolg van de Verlichting en een liberaal denken wat alleen invulling geeft aan het vrijheidsbegrip in termen van zelfbeschikking. Dat leidt tot een wereld waarin vrijheid blijheid en doen waar je zelf zin in hebt regeren. We denken dat moraliteit vanzelf komt zodra mensen maar alle informatie hebben. Dan maken ze de juiste keuze wel. In sommige gevallen is dat inderdaad zo. Maar meestal komen er betere en beter gedragen besluiten als we zorgen dat we aan de voorkant processen goed regelen. Brede inspraak, brede betrokkenheid, alle stakeholders aan tafel bij OpenAI en Google. Of de landbouw akkoorden. Of de energietafels. Zolang we daar alleen politici, lobbyisten, grootkapitaal, en werkgevers hebben zitten, dan zal er minder makkelijk en vanzelfsprekend ook het bredere maatschappelijke belang gediend worden.

En dan hebben we ook met de opvolgers van Bard en ChatGPT opnieuw allerlei excuses achteraf als het weer mis is. "Ja nee dit was niet onze bedoeling. Dit hadden we niet voorzien." Hoe lang gaan we dat nog doen?
Danny
24
June
2023
Een hoop om op te reageren zo snel. Maar in essentie mooie overwegingen weer ik het vooral wel mee eens kan zijn.

Zeker een herhaling van gedrag uit het verleden (eerst proberen, dan vergeving vragen), waarbij ik wel het verschil zie dat bij recente innovaties de schaal van die “gebruik-de-maatschappij-maar-als-testlab houding” enórm veel groter is. En de mogelijke negatieve impact dus evenredig meegroeit.

Spelen met kunstmatig, maar even gevaarlijk, vuur.

Fijn weekend,
-Danny
Sebas Nouwen
23
June
2023
Hey Danny, leuk om je op Bron te mogen lezen! Antropomorfiseren is typisch menselijk. "Wat een lief jurkje", "M'n laptop heeft er vandaag geen zin in", enz. Het grote verschil is dat mensen snappen dat dit beeldspraak is, maar bij AI nemen mensen de uitspraken vaak te letterlijk. Zou het zijn omdat we gewoon nog niet zo bekend zijn met (de recente mogelijkheden van) AI? Of heeft AI speciale eigenschappen die mensen aanzetten tot antropomorfiseren? (niet letterlijk natuurlijk!)
Danny
23
June
2023
Hi Sebas,

Ik vermoed zelf dat het deels express wordt gedaan (net als het krampachtig verborgen houden van de échte menselijke arbeid achter de grotere AI-modellen, zoals het labellen van sata). Je eigen innovatie klinkt natuurlijk een stuk indrukwekkender als het “bijna menselijke” trekjes lijkt te hebben. En als het mis gaat kun je naar die vervelende AI wijzen en je handen in onschuld blijven wassen.

Zoals OpenAI tegelijk antropomorfische angsten benoemt over existentiële risico’s, maar tegelijkertijd bij het Europese Parlement achterom aan het lobbyen was om regulering te verminderen in de aanstaande AI Act.

Maar misschien ben ik te cynisch geworden ;)

Fijn weekend!