Onlangs gaf Sam Altman, de directeur van OpenAI, aan dat het zinloos is om “alsjeblieft” of “dankjewel” te zeggen tegen ChatGPT. Hij noemt het een verspilling van tijd. Een AI reageert niet op hoffelijkheid, maar op algoritmes en data. Toch blijven velen beleefdheidsfrasen in berichtjes naar ChatGPT verwerken. Ik beken dat ik daar zelf geen uitzondering op ben. Hoe komt dat?
Al in 1950 stelde Alan Turing de beroemde test voor: pas wanneer we een machine niet meer van een mens kunnen onderscheiden, spreken we van “echte” kunstmatige intelligentie. Vanaf 1990 was er een heuse geldprijs te winnen voor de eerste AI die de Turing-test wist te doorstaan. Die prijs is nog nooit opgeëist, en ook ChatGPT struikelt geregeld over complexe redeneringen of context, waardoor duidelijk wordt dat je niet met een echt mens te maken hebt.
Maar wanneer we “dankjewel” typen, ervaar je wél even dat Turing-momentje. Dan vergeten we dat we met een robot communiceren en behandelen we ‘m intuïtief als mens. Hebben we een grote opdracht, dan voegen we er automatisch een “alsjeblieft” aan toe; krijg je een behulpzaam antwoord, dan sluiten we af met “dankjewel”. Die reflex voelt veilig en vertrouwd. Tegelijkertijd negeren we dat we eigenlijk communiceren met een systeem dat geen bewustzijn of emotie kent.

In filosofische kring loopt al jaren een discussie over de vraag of we een robot die de Turing-test doorstaat mensenrechten zouden moeten toekennen. Die discussie heeft nog altijd geen eenduidige conclusie, en die zal ik in deze column ook niet bieden. Vandaag stel ik liever een andere vraag: zijn wíj er emotioneel wel klaar voor? Altman heeft gelijk: een AI voelt niets, houdt geen wrok en past zijn gedrag niet aan als je boos wordt. Toch projecteren we kennelijk onze eigen verwachtingen op iets dat daaraan per definitie niet kan voldoen.
We gaan naar een wereld waarin we niet alleen steeds meer technologie om ons heen hebben – dat was al lang zo – maar waarin technologie ook steeds menselijker lijkt. Dat betekent dat we anders met technologie omgaan: het wordt steeds minder duidelijk dat je met een robot communiceert. Dat is nu al zo met chatbots in de klantenservice, maar straks geldt het ook voor auto’s, deurbellen of zelfs koelkasten. Welke invloed zal dit hebben op ons gedrag? Kunnen we straks nog wel op een natuurlijke manier met andere mensen communiceren?
Het maatschappelijk middenveld waar liberalen voor staan, is gebaseerd op een cultuur van verdraagzaamheid: een cultuur waarin we op een beleefde manier onze meningsverschillen delen. Die cultuur heeft meermalen onder druk gestaan vanuit externe politieke hoeken, bijvoorbeeld door polarisatie of de instroom van onliberale opvattingen via sociale media. Maar nu is er voor het eerst ook een interne dreiging: de manier waarop wíj ons uiten onder invloed van mensachtige technologie.
Anderzijds is onze beleefdheid tegenover ChatGPT misschien geen pure tijdverspilling, maar een vorm van zelfbescherming. In een wereld waarin technologie steeds menselijker verschijnt, zoeken we houvast en herkenning. Een simpel “alsjeblieft” of “dankjewel” markeert voor ons de grens tussen rigide code en intermenselijke warmte. Inefficiënt? Zeker. Overbodig? Misschien. Soms stelt zo’n beleefdheidsvorm ons gerust in de wetenschap dat wij nog altijd de regie voeren en in onze communicatie menselijk blijven.
Wetenschappelijk medewerker