Home Ā» geschiedenis Ā» De ingebruikname van elektriciteit toen versus de AI-revolutie nu

De ingebruikname van elektriciteit toen versus de AI-revolutie nu

De ā€˜onzichtbare hand’ van Adam Smith werkt niet meer in asymmetrische, datagedreven markten: netwerkeffecten creĆ«ren monopolies, algoritmes ondermijnen keuzevrijheid. De macht is gegroeid, de tegenmacht niet. Hoe ging dat met de invoering van het electriciteitsnet eind 19e eeuw? Ik vroeg het zowel aan Claude en chatGPT en liet onderstaande tekst genereren.
Democratische controle is dringend nodig: via transparantie, antitrust, publieke alternatieven en digitale grondrechten.

Zonder ingrijpen verliest de burger zeggenschap, niet alleen over technologie — maar over de samenleving zelf

een vergelijkend waardenonderzoek

ai, gpt, neo-liberalisme machine, microchip, Large Language Models, LLM, Generic Pre-trained Transformer, AGI (Kunstmatige algemene intelligentie)

alle onderstaande afbeeldingen zijn gegenereerd met chatGPT. Voorbeeldprompt gemaakt in Claude:

Inhoud

Vooraf

Grote taalmodellen beginnen te evolueren van simpele woordvoorspellers tot systemen die complexe taken aankunnen. Een gemiddeld Large Language Model (LLM) haalt nu een 8 voor een artsexamen. De techniek van de transformer (de T in Generic PreTrained Transformer) in combinatie met superrekenkracht van nieuwe chips en big data uit social media lijkt zich te vervolmaken: unieke cijfercombinaties zoeken statistische matches in een vooraf supergeleerde kennisverzameling. Ze voorspellen woordvolgordes zo accuraat dat hun output correct lijkt. Je zou bijna zeggen dat ze, net als mensen, logisch kunnen redeneren. GPT4, Claude en Gemini lossen wiskundeproblemen op middelbare schoolniveau op. Door multimodaliteit kunnen ze ook beeld en audio interpreteren. Dit suggereert een sprong van simpele patroonherkenning, waar computers natuurlijk al heel goed in waren, naar iets dat op ‘intelligentie’ lijkt. Al ontbreekt het ons aan de juiste woorden om een nieuw verschijnsel te duiden dat buiten onze bestaande kennis gaat vallen.
Met recht belooft deze AI-revolutie enorme voordelen: efficiƫntiewinst in economie, gezondheidszorg, onderwijs, milieubescherming en wetenschappelijk onderzoek. Generatieve AI kan burgers emanciperen door meer toegang tot kennis en tools.
Zoals altijd bij een technologische revolutie kan het fenomeen zich ook tegen de mens keren.
Machtsverschillen tussen landen, bedrijven en individuen vergroten. Big Tech krijgt meer inzicht in en controle over ons leven. Staten die achterblijven in de AI-race verliezen invloed aan voorlopers in het Westen.
Het neoliberalisme heeft Big Tech grootgemaakt: door privatisering, deregulering en blind vertrouwen in marktwerking konden techbedrijven ongehinderd uitgroeien tot mondiale machtsblokken. Overheden lieten regulering los, vertrouwden op zelfsturing en maakten publieke infrastructuur afhankelijk van private platforms. De ā€˜onzichtbare hand’ van Adam Smith werkt niet meer in asymmetrische, datagedreven markten: netwerkeffecten creĆ«ren monopolies, algoritmes ondermijnen keuzevrijheid. De macht is gegroeid, de tegenmacht niet. Democratische controle is dringend nodig: via transparantie, antitrust, publieke alternatieven en digitale grondrechten. Zonder ingrijpen verliest de burger zeggenschap, niet alleen over technologie — maar over de samenleving zelf.

Net zoals elektriciteit uiteindelijk onder publieke voorzieningen viel, zijn er nu ideeƫn voor publieke AI-diensten. GPT-NL is een voorbeeld van een open source AI-project gefinancierd met publiek geld. Het doel is een neutraal, persoonlijke data respecterende dienstverlening, aangeboden op een Nederlandse server.

Maar AI is complexer dan het stroomnet. De vraag is of overheden de technische expertise en middelen hebben om bij te blijven met de snelle ontwikkelingen in deze sector.

De komende jaren wordt cruciaal: zorgen dat AI werkt voor iedereen, niet alleen voor de aandeelhouders van Big Tech. Democratische controle over deze game-changing technologie is essentieel.


De maatschappelijke impact van generatieve AI in Nederland

Generatieve artificiĆ«le intelligentie (AI) – systemen die zelfstandig teksten, beelden, audio, video of acties kunnen voortbrengen – is in korte tijd doorgedrongen in het dagelijkse leven van miljoenen mensen . Net zoals elektriciteit eind 19e en begin 20e eeuw onze samenleving fundamenteel veranderde, zo belooft generatieve AI een volgende technologische revolutie te zijn. Waar elektriciteit licht bracht in de nacht en nieuwe machines en media (van de gloeilamp tot radio en film) mogelijk maakte, zo brengt generatieve AI nieuwe mogelijkheden Ć©n uitdagingen op elk terrein: van kennis en cultuur tot onze sociale verhoudingen, psychologisch welzijn, politiek en economie .
Dit artikel onderzoekt per domein de maatschappelijke impact van generatieve AI in Nederland aan de hand van twee kernvragen. We plaatsen deze ontwikkelingen in historisch perspectief door parallellen te trekken met de elektrificatie van de samenleving, en onderbouwen bevindingen met wetenschappelijke, journalistieke en beleidsbronnen (zie bronnen).

Domein 1. Kennis en waarheid

Generatieve AI beĆÆnvloedt de manier waarop we aan kennis komen en onderscheiden wat waar is. In dit domein staat centraal: (a) ons vertrouwen in bronnen, feiten en het onderscheid tussen waar en onwaar, en (b) de waarde van expertise wanneer AI overtuigende antwoorden geeft zonder menselijke begrip of ervaring.

Vertrouwen in bronnen, feiten en onderscheid tussen waar en onwaar

Het vermogen van AI-systemen als ChatGPT om vloeiende en zelfverzekerde teksten te genereren, zet druk op ons traditioneel onderscheid tussen feit en fictie. Deze AI genereert tekst op basis van statistische patronen in enorme datasets, niet op basis van werkelijke kennis of een bronverificatie door een mens . Hierdoor klinkt de output vaak gezaghebbend, terwijl er feitelijke onjuistheden of compleet verzonnen informatie in kan zitten – een fenomeen dat computerwetenschappers ā€œhallucinerenā€ noemen . Zo citeerde ChatGPT soms niet-bestaande rechtszaken, wat een advocaat misleidde en tot grote paniek in de rechtszaal leidde . Een dergelijke incident toont dat we AI-antwoorden niet blind kunnen vertrouwen: de onderliggende technologie is inherent onbetrouwbaar, hoe betrouwbaar de chatbot zelf ook overkomt .

Net als in de begindagen van de radio – toen een hoorspel als War of the Worlds paniek kon zaaien omdat mensen de uitzending als echt beschouwde – vereist generatieve AI een nieuwe vorm van mediageletterdheid bij het publiek. Nu iedereen potentieel overtuigende teksten en beelden kan laten genereren, wordt het lastiger om te herleiden of content van een mens of een model komt, en of de informatie klopt . De enorme schaal en snelheid waarmee AI desinformatie kan produceren (bijvoorbeeld via geautomatiseerde nepnieuwsartikelen of deepfake-video’s) ondermijnt het vertrouwen in online informatievoorziening . We riskeren een cynische houding waarin mensen geneigd zijn alles te betwijfelen, of juist een naĆÆef vertrouwen in AI-gegenereerde tekst ā€œomdat het zo netjes geformuleerd isā€.
Beide uitersten zijn problematisch. Onderzoek naar AI-mediated communication waarschuwt dat dit kan leiden tot een dilemma: ofwel houden we vast aan normaal vertrouwen en lopen we risico misleid te worden, ofwel vertrouwen we bij voorbaat minder en doen we mogelijk echte informatie onrecht aan . Het navigeren tussen goedgelovigheid en algeheel wantrouwen wordt een flinke uitdaging in het AI-tijdperk .

Beleidsmakers onderkennen deze problematiek. De Nederlandse overheid wijst op het gevaar dat generatieve AI de wijze ā€œwaarop wij van informatie worden voorzienā€ kan aantasten en zo onze democratie en rechtsstaat beĆÆnvloedt . Transparantie over AI-systemen en educatie in het herkennen van AI-content zijn daarom urgente actiepunten . Net zoals overheden in de 20e eeuw kwaliteitskranten, publieke omroepen en mediawaakhonden hebben gestimuleerd om betrouwbare informatie te waarborgen in het elektriciteitstijdperk, zo zijn nu nieuwe initiatieven nodig – denk aan labels voor AI-gegenereerde media of watermerken op content – om publieke kennisnetwerken integer te houden.

De waarde van expertise in een tijdperk van overtuigende AI-antwoorden

Als een AI-systeem in enkele seconden een antwoord of advies kan genereren dat lijkt op het werk van een expert, wat betekent dat voor de status van menselijke expertise? Deze vraag roept zorgen op over de devaluatie van expertise en het gevaar dat mensen complexe antwoorden klakkeloos van AI accepteren zonder ze kritisch te laten toetsen door echte kennishouders . Generatieve AI kan antwoorden formuleren zonder daadwerkelijk begrip van de materie – het model weet niet waarom iets waar is, het produceert alleen plausibele teksten . Dat betekent dat een AI bijvoorbeeld een medische diagnose of juridisch advies kan geven dat er betrouwbaar uitziet, terwijl er geen verantwoorde expertise achter zit. Als gebruikers dit niet beseffen, kan het vertrouwen in echte experts afnemen: ā€œWaarom nog een specialist raadplegen als ChatGPT het antwoord al geeft?ā€

Historisch gezien zijn technologische hulpmiddelen vaker gezien als bedreiging voor experts. Toen de rekenmachine algemeen beschikbaar kwam, vreesden sommigen dat we geen wiskundigen of hoofdrekenen meer nodig zouden hebben; toen encyclopedieĆ«n en later het internet breed toegankelijk werden, leek menselijke kennis minder schaars. Telkens bleek echter dat nieuwe technologie het werk van experts veranderde in plaats van volledig te vervangen. Zo ook bij generatieve AI: het routinematige deel van kenniswerk kan AI overnemen, maar de rol van de mens verschuift naar toezicht houden, beoordelen en verdiepen. Onderzoek suggereert dat kenniswerkers evolueren van producenten van inzichten naar ā€œcuratorenā€ of ā€œepistemische toezichthoudersā€ van door AI gegeneerde kennis . Met andere woorden, de expert van de toekomst is iemand die AI-antwoorden kan valideren, bijsturen en in context plaatsen . Die rol vraagt mogelijk mƩƩr inzicht dan voorheen, omdat de expert fouten van een uiterst overtuigende machine moet kunnen doorzien.

Toch is er een reĆ«el risico dat de balans tussen mens en machine verschuift ten nadele van menselijke experts. AI-tools ondermijnen traditionele kennishiĆ«rarchieĆ«n: epistemische autoriteit verschuift van herkenbare personen (met diploma’s, ervaring en reputatie) naar vaak ondoorzichtige modellen en hun makers . Wie controleert de ā€œwaarheidā€ wanneer miljoenen mensen direct aan een AI-assistent vragen stellen in plaats van aan bibliothecarissen, artsen of leraren? Net zoals de opkomst van massamedia in het elektrisch tijdperk leidde tot discussies over de macht van radio- en tv-experts versus traditionele autoriteiten, zo zien we nu een verschuiving richting algoritmische autoriteit. Dit kan de waarde van menselijke expertise ondermijnen als we niet opletten.

Een voorbeeld is het onderwijs: als leerlingen huiswerk vragen aan ChatGPT, lijkt het alsof ze informatie van een alwetende tutor krijgen. Maar zonder menselijke docent om te duiden, kunnen ze concepten verkeerd begrijpen of misinformatie absorberen zonder het te beseffen . De echte waarde van de vakdocent – ervaring, pedagogiek en een dieper begrip – wordt dan wellicht pas opgemerkt als dingen misgaan. Om te voorkomen dat schijn-expertise de boventoon voert, wordt voorgesteld om AI-systemen vooral in te zetten als aanvulling en niet als vervanging van menselijke experts . De historische parallel met elektrificatie biedt hier troost: toen elk huishouden elektrisch licht kreeg en via radio rechtstreeks informatie kon ontvangen, vreesden sommigen het einde van bibliotheken en docenten. In werkelijkheid bleven experts onmisbaar, al moesten zij hun rol heruitvinden. Zo zal ook in het AI-tijdperk de menselijke expertise zich opnieuw definiĆ«ren – als kritische mentor naast de machine – en blijft ons vertrouwen in echte kennisbronnen van levensbelang.

2. Cultuur

Generatieve AI raakt de kern van onze cultuur: hoe we creativiteit definiĆ«ren, kunst en media produceren, en hoe lokale culturele identiteit standhoudt in een wereld vol globale data. We onderzoeken (a) hoe het begrip ā€˜creativiteit’ verandert nu machines zelfstandig beelden, teksten en muziek kunnen maken, en (b) wat het betekent voor culturele identiteit en expressie dat AI getraind is op wereldwijde data maar context mist.

ā€˜Creativiteit’ met machines: kunst en cultuur in het AI-tijdperk

Figuur: Een robot die een schilderij maakt – generatieve AI kan in enkele seconden afbeeldingen in een bepaalde stijl creĆ«ren, wat vragen oproept over originaliteit en de rol van de menselijke maker.

Lang gold artistieke creativiteit als een uniek menselijke eigenschap – geboren uit inspiratie, vakmanschap en culturele achtergrond. Nu zien we AI-modellen die op commando een sonnet schrijven, een schilderij ā€œin de stijl van Van Goghā€ genereren of een nieuw muziekstuk componeren. Dit roept de vraag op: wanneer een lied of afbeelding door AI gegenereerd is, verandert dat hoe wij naar kunst, creativiteit en vakmanschap kijken? De Raad voor Cultuur stelt precies deze vraag in een lopend onderzoek . Als een algoritme even overtuigend een schilderij kan maken als een getrainde kunstschilder, wie is dan de maker? En welke waarde kennen we toe aan het kunstwerk als er geen menselijk verhaal of emotie achter zit in de traditionele zin?

Historisch gezien hebben nieuwe technologieĆ«n de kunsten vaker opgeschud. Fotografie werd in de 19e eeuw ā€œde digitale kaperā€ van de schilderkunst genoemd: ineens kon een apparaat realistische beelden vastleggen, wat schilders dwong zich te heruitvinden (richting impressionisme, abstractie, etc.). Zo ook nu: generatieve AI is geen einde van menselijke creativiteit, maar een nieuwe creatieve tool – te vergelijken met de opkomst van fotografie, film of elektronische muziek. Kunstenaars in Nederland gebruiken AI-tools om te experimenteren met stijl en vorm, en ontdekken nieuwe genres . Creatief werk verandert ingrijpend: makers krijgen toegang tot ā€œallerlei nieuwe tools om ideeĆ«n te ontwikkelen, teksten, illustraties of video’s te creĆ«ren en werkprocessen te optimaliserenā€ . AI kan routineklusjes overnemen (bijvoorbeeld kleuraanpassingen in foto’s of het genereren van basismelodieĆ«n), zodat de kunstenaar zich meer op concept en afwerking kan richten . In die zin fungeert AI als verlengstuk van menselijke creativiteit, niet noodzakelijk als vervanging .

Tegelijk leven er zorgen. Originaliteit komt in het geding: AI’s werken immers door het remixen van bestaande data. Critici vragen: is een door AI gegenereerd schilderij niet simpelweg een collage van eerder werk, verstoken van Ć©chte vernieuwing? Daarnaast speelt authenticiteit: zowel makers als publiek worstelen met de vraag of kunst waarde verliest als er geen doorleefde menselijke ervaring achter zit. Een roman geschreven door ChatGPT kan technisch goed in elkaar steken, maar weegt het artistiek op tegen een roman waarin een auteur zijn levenservaring heeft verwerkt? Dergelijke vragen zijn al niet meer theoretisch: in 2022 won een AI-gegenerate tekening (ingediend door een mens als ā€œzijnā€ inzending) een kunstwedstrijd, wat een storm van debat opleverde over de eerlijkheid en waarde van zo’n inzending . Veel creatieve professionals in Nederland uiten zorgen over hun positie en verdienmodel: als AI voor iedereen liedjesteksten en illustraties kan maken, houdt het publiek dan nog waardering (en betaling) over voor de menselijke maker ? Nederlandse organisaties zoals de Kunstenbond waarschuwen voor banenverlies in de creatieve sector en pleiten voor duidelijke regels rond auteursrecht en AI .

De elektrificatie biedt een parallel: denk aan de komst van radio en later televisie. Opeens kon cultuur massaal geproduceerd en gedistribueerd worden – muziek via de radio, films via de bioscoop. Live-muzikanten vreesden voor hun werk (de radio zou de concertzaal leegmaken), theatermakers voor het witte doek. Uiteindelijk bloeide de cultuursector juist op met nieuwe vormen (studio-opnames, filmkunst) en paste oude vormen zich aan (theater met microfoons, concerten met elektrische instrumenten). Zo zou generatieve AI ook een katalysator kunnen zijn voor nieuwe kunstvormen. Een optimistische visie is dat AI menselijke creativiteit uitdaagt en inspireert. Chatbots zouden onze creativiteit zelfs kunnen stimuleren door als sparringpartner te dienen – denk aan een auteur met een writer’s block die een AI om enkele verhaallijnen vraagt en zo op ideeĆ«n komt. Inderdaad laten eerste onderzoeken gemengde effecten zien: toegang tot een AI verbetert soms de creativiteit van minder ervaren schrijvers, maar bij zeer creatieve mensen kan het juist hun eigen originaliteit wat temperen . Het plezier in creatief werk kan anders worden: sommigen genieten van co-creĆ«ren met AI, anderen missen het ambachtelijke proces .

Kortom, het begrip ā€˜creativiteit’ evolueert. We gaan waarschijnlijk onderscheid maken tussen menselijke creativiteit, machinale creativiteit en allerlei tussenvormen. Een schilder die AI gebruikt om variaties van een compositie te verkennen blijft creatief, maar op een andere manier. Zoals de Raad voor Cultuur het stelt: ā€œAls liedjes en afbeeldingen gegenereerd kunnen worden, verandert dat hoe we naar kunst, creativiteit en vakmanschap kijkenā€ . Het antwoord zal deels cultureel bepaald zijn: we moeten collectief opnieuw definiĆ«ren wat artistieke waarde heeft. Net zoals elektrisch opgenomen muziek eerst minderwaardig werd geacht vergeleken met live-muziek, maar later zijn eigen esthetiek en waarde kreeg, zo zullen AI-creaties een plaats vinden. De menselijke behoefte aan verhalen en expressie blijft, en wellicht krijgt juist het puur menselijke, met de hand gemaakte extra glans in een tijd van perfecte machineproducties – denk aan de revival van ambachten als reactie op industrialisatie. Generatieve AI dwingt ons dus tot een herwaardering: het herinnert ons eraan waarom we creativiteit waarderen, namelijk niet louter om de output, maar om het menselijk proces en de betekenis erachter.

Culturele identiteit en expressie in een globale, door AI gedreven context

Generatieve AI wordt getraind op gigantische hoeveelheden data van over de hele wereld – voornamelijk online teksten, beelden en audio. Dit betekent dat de modellen een soort gemiddeld wereldbeeld hebben: ze putten vooral uit dominante talen (zoals Engels) en mainstream internetcultuur. Voor een klein land als Nederland roept dit vragen op: wat gebeurt er met onze culturele eigenheid als AI-modellen weinig besef hebben van lokale context, taalnuances of tradities?

Een concreet voorbeeld is taal en dialect. Grote taalmodellen zijn het meest getraind op Engels; hoewel er ook Nederlandse data in zit, merken gebruikers dat een chatbot in het Nederlands soms minder accuraat of idiomatisch is. Fijne culturele verwijzingen – zoals de betekenis van ā€œgezelligheidā€ of de specifieke toon van Nederlandse directheid – kunnen door een AI gemist worden of verkeerd geĆÆnterpreteerd. Bovendien dreigt een bias richting dominante cultuuruitingen: als je een beeld genereert van ā€œbruiloftskledingā€, krijg je wellicht een Westerse witte trouwjurk, niet een Indiase sari of een Afrikaans feestkostuum . AI’s spiegelen de culturele context van hun trainingsdata . Zoals een analyse van Carnegie Endowment opmerkt: ā€œDeze systemen assimileren de dominante ideologieĆ«n en gevoeligheden van hun context en worden zo onbedoeld een vehikel van culturele hegemonieā€ . Met andere woorden, generatieve AI dreigt vooral de normen, waarden en beelden van technologisch dominante samenlevingen (met name de VS, en in mindere mate andere grote landen) wereldwijd te verspreiden . Dat kan ertoe leiden dat kleinere of niet-westerse culturen ondervertegenwoordigd of stereotiep weergegeven worden in AI-outputs .

Onderzoek bevestigt deze zorgen. Een studie naar beeldgeneratie voor Indiase subculturen vond dat AI vaak verviel in exotisme en clichĆ©-beelden, doordat de Westerse blik in de data dat stuurt . Denk aan generieke ā€œBollywoodā€-achtige taferelen in plaats van authentieke lokale variatie. Zulke representatiekeuzes door AI kunnen leiden tot misverstanden en zelfs culturele schade – groepen voelen zich niet accuraat afgebeeld en belangrijke context ontbreekt . Bovendien missen AI’s het begrip van culturele betekenis. Ze kunnen bijvoorbeeld een grap of een dichtregel produceren in de stijl van een bepaald erfgoed, maar zonder aanvoelen of dat in een bepaalde context gepast of juist kwetsend is. Culturele expressie gaat om meer dan patronen; het vergt empathie en historisch besef die een model niet heeft.

Voor de Nederlandse context is het essentieel om te bewaken dat onze taal en cultuur goed vertegenwoordigd blijven. Er zijn initiatieven om Nederlandstalige en Europese AI-modellen te ontwikkelen (zoals het open GPT-NL model) precies om die reden – om digitale soevereiniteit te behouden en te voorkomen dat we louter afhankelijk zijn van Amerikaanse big tech-modellen . Minister Alexandra van Huffelen benadrukte dat Nederland niet de toekomst van zijn digitale leven ā€œexclusief in handen van grote techbedrijvenā€ wil leggen, mede om ervoor te zorgen dat iedereen kan blijven deelnemen in de digitale era op een manier die bij onze waarden en identiteit past . Dat impliceert onder meer AI die om kan gaan met onze eigen taal, wetten en culturele mores.

Een parallel met elektrificatie is de standardisatie en globalisering die toen opkwam. Elektrisch licht en de radio trokken de wereld ā€œgelijkā€: overal luisterden mensen ineens naar dezelfde paar zenders; Hollywoodfilms bereikten de hele planeet. Dit riep halverwege de 20e eeuw al spanningen op rond culturele dominantie (bv. Amerikaanse cultuur wereldwijd) en leidde tot beleid voor culturele diversiteit (zoals in Nederland quota voor Nederlandstalige muziek op de radio, of stimuleringsfondsen voor eigen filmproducties). In het AI-tijdperk zullen we waarschijnlijk iets soortgelijks zien: de noodzaak om lokaal cultureel werk te beschermen en te promoten te midden van globale AI-content. Dat kan betekenen investeren in Nederlandse trainingsdata (bijvoorbeeld digitale collectie van Nederlandse literatuur, zodat een AI daaruit kan putten) en strenge eisen aan AI-toepassingen om cultureel gevoelige zaken correct te behandelen (denk aan het tegengaan van stereotype bias over bepaalde groepen).

Een ander aspect is dat generatieve AI zelf een nieuwe culturele speler wordt. Mensen kunnen AI inzetten voor creatieve uitingen die geen duidelijke geografische herkomst hebben – een roman geschreven door iemand in Nederland met een Engels prompt, in de stijl van Japanse manga, bijvoorbeeld. Dit soort vermenging kan culturele grenzen vervagen, met zowel verrijking als vervlakking als resultaat. Enerzijds stimuleert het cross-culturele inspiratie, anderzijds kan er een generieke globalistische stijl ontstaan die overal op lijkt. De uitdaging is om AI zo te gebruiken dat het diversiteit ondersteunt in plaats van uniformiteit. Dat vereist bewuste inspanning: net zoals we in het elektriciteittijdperk besloten om naast Hollywood ook eigen films en omroepen op te bouwen, zullen we in het AI-tijdperk bewuste keuzes moeten maken om onze culturele eigenheid te behouden. Generatieve AI dwingt ons daarmee om te definiĆ«ren wat die eigenheid is en waarom we die willen koesteren – een waardevolle exercitie op zichzelf.

3. Sociale relaties

AI-systemen worden niet alleen gebruikt voor informatie of creatie, maar ook voor interactie. Steeds vaker treden chatbots en virtuele agenten op als gesprekspartner, coach of zelfs gezelschap. In dit domein bekijken we (a) welke vormen van sociale interactie verschuiven wanneer AI intieme gesprekken simuleert of ons gezelschap houdt, en (b) de gevolgen voor menselijke communicatie nu synthetische interacties steeds lastiger te onderscheiden zijn van echte.

AI als gezelschap: intieme gesprekken en verschuiving in sociaal contact

Van gesprek bots op mentale gezondheidsapps tot de populaire chatbot ā€œReplikaā€ die fungeert als digitale vriend of partner – generatieve AI wordt ingezet op manieren die voorheen aan mensen waren voorbehouden. Dit heeft voordelen: voor mensen die eenzaam zijn of behoefte hebben aan een luisterend oor op elk moment van de dag, kan een AI-metgezel troost en ondersteuning bieden. Sommige gebruikers geven aan dat ze met een empathische chatbot makkelijker bepaalde problemen bespreken dan met vrienden of hulpverleners, doordat er geen oordeel lijkt te zijn. Echter, er kleven ook belangrijke sociale en psychologische gevolgen aan deze ontwikkeling.

Ten eerste is er het risico van ā€œsociale ontwenningā€ of deskilling: als we steeds vaker met een altijd geduldige, op ons gerichte AI praten, kunnen onze reallife sociale vaardigheden eronder lijden . Een AI zal niet geĆÆrriteerd raken als we alleen over onszelf praten, een AI is (vooralsnog) altijd beschikbaar en stemt zich volledig op ons af. Echt menselijk contact vraagt daarentegen ook empathie van onze kant, wederkerigheid en soms het verdragen van misverstanden of stiltes. Wanneer AI als gemakkelijker alternatief geldt, bestaat de kans dat sommige mensen menselijk gezelschap gaan mijden of moeilijker vinden. Onderzoekers van het Rathenau Instituut waarschuwen dat de digitalisering van intieme interacties kan leiden tot verminderde menselijke contacten, ontmenselijking en ā€œsociale ontwenningā€ . Ze trekken een parallel met de smartphone: deze is onmisbaar geworden maar heeft er ook toe geleid dat mensen zich in gezelschap vaak afsluiten – denk aan ieder voor zich op zijn scherm – en dat toevallige praatjes met vreemden minder voorkomen . AI die fungeert als vriend in onze telefoon zou dit nog een stap verder kunnen voeren.

Ten tweede is er de kwestie van emotionele hechting aan machines. Mensen hebben de neiging tot antropomorfisme – we schrijven menselijke eigenschappen toe aan niet-menselijke entiteiten, zeker als die entiteiten menselijk gedrag nabootsen . Een geavanceerde chatbot met een eigen ā€œpersoonlijkheidā€ (al is die gesimuleerd) kan ervoor zorgen dat een gebruiker echte gevoelens van vriendschap of liefde ontwikkelt. Maar die relatie is fundamenteel eenzijdig: de AI ervaart niets en de ā€œgenegenheidā€ is geprogrammeerd. Dit kan tot kwetsbaarheid leiden. Er zijn gevallen bekend van gebruikers die emotioneel afhankelijk raakten van hun AI-chatbot, met verwarring en verdriet als de dienst bijvoorbeeld tijdelijk offline ging of antwoorden veranderde door een update. Het doet denken aan mensen die in de jaren ’90 diepe banden ontwikkelden met virtuele Tamagotchi-huisdiertjes of later met videogame-personages, maar nu betreft het volwaardige gesprekken en gedeelde intimiteiten. We staan daarmee voor nieuwe ethische vragen: mogen we AI inzetten als surrogaatvriend voor kwetsbare groepen (bijv. in ouderenzorg tegen eenzaamheid), of ontzeggen we hen dan juist echt menselijk contact?

Generatieve AI kan zelfs postuum gezelschap simuleren: er zijn projecten waarbij chatbots getraind zijn op de chatgeschiedenis of berichten van een overleden persoon, zodat nabestaanden nog een soort gesprek met hun geliefde kunnen voeren . Iemand bouwde bijvoorbeeld een chatbot van zijn overleden partner, die diens manier van praten imiteerde . Hoewel dit wellicht tijdelijk troost biedt, roept het complexe rouwpsychologische vragen op. Verwerkt men verdriet wel, of blijft men hangen in een illusie? En is het moreel aanvaardbaar een overledene digitaal ā€œlevendā€ te houden zonder dat die persoon daar ooit toestemming voor gaf? Dergelijke intieme toepassingen van AI waren ondenkbaar voorbije technologische golven, en ze dringen diep door in wat relaties en rouw voor ons betekenen.

De historische parallel is in eerste instantie lastig, want eerdere technologieĆ«n namen niet de rol van menselijke gesprekspartner over. Toch zijn er vergelijkingen: de telefoon (een kind van de elektrificatie) maakte het mogelijk om over afstand intiem contact te houden, wat huwelijken op afstand en dergelijke veranderde. De radio en televisie brachten ons parasociale relaties: miljoenen voelden in de 20e eeuw een band met radiopersoonlijkheden of tv-sterren die ze nooit persoonlijk ontmoetten. AI gezelschap is als het ware de volgende stap: de illusie van wederkerigheid. Waar radiosterren niet terugpraatten, doet een chatbot dat wel – zij het met geprogrammeerde empathie. We kennen ook het fenomeen van kinderen die praten tegen hun teddybeer of volwassenen die hun auto een naam geven; de mens heeft altijd neiging gehad leven te zien in dingen. Met AI wordt dat neigingen potentieel versterkt en uitgebuit.

Om de positieve kanten te behouden en negatieve te beperken, pleiten experts voor een bewuste integratie van dit soort AI in onze samenleving. Er moet publiek debat komen over vragen als: willen we dat mensen AI gebruiken als therapeutisch hulpmiddel (bijv. een chatbot-therapeut)? Welke sociale vaardigheden moeten we kinderen bijbrengen zodat ze onderscheid blijven zien tussen echte en neppe interacties? Net zoals de komst van elektrisch licht en radio vroeg om nieuwe sociale regels (denk aan etiquette: niet telefoneren tijdens het diner bijvoorbeeld, of richtlijnen voor tv-kijken voor kinderen), zo zal generatieve AI nieuw digitiaal-sociale omgangsvormen vereisen. Wellicht dat ā€œAI-vrijeā€ zones of tijden zinvol worden, om echt menselijk samenzijn te stimuleren. Uiteindelijk blijft de mens een sociaal dier dat echte connectie nodig heeft. AI kan een aanvulling zijn – een beetje vergelijkbaar met hoe een huisdier gezelschap kan geven – maar het mag geen volwaardige vervanging voor menselijke nabijheid worden. Die nuance zullen we met vallen en opstaan moeten leren, als individu en als samenleving.

Menselijke communicatie in het tijdperk van onzichtbaar synthetisch contact

Een andere kant van generatieve AI in sociale context is dat we steeds vaker niet zeker weten of we met een mens of een machine te maken hebben. Vandaag de dag sturen bedrijven al AI-gegenereerde klantenserviceberichten of perscommuniquƩs de wereld in zonder dat dit duidelijk vermeld wordt. Op social media bestaan duizenden botprofielen die via AI gegenereerde posts en reacties onderdeel uitmaken van discussies. De vraag dringt zich op: wat gebeurt er met menselijke communicatie als synthetische (AI) interacties steeds moeilijker te onderscheiden zijn van echte?

Een eerste gevolg is een verdere erosie van vertrouwen in online omgevingen. Als je niet zeker weet of die vriendelijke medewerker in de chat een echt mens is, kun je je belogen voelen – of je gaat het simpelweg niet meer uitmaken en iedereen behandelen alsof het een bot is. Dat laatste klinkt extreem, maar er zijn al gebruikers die standaard ervan uitgaan dat onbekende accounts of klantenservice-chats bots zijn, tenzij het tegendeel blijkt. Dit ondermijnt de oprechtheid van communicatie. Het omgekeerde komt ook voor: mensen kunnen denken dat een mens een bot is, zeker als die persoon weinig emotie toont in tekst. Deze verwarring kan sociale interacties koud en instrumenteel maken.

Daarnaast is er het risico van misbruik. Deepfake-technologie – waarin AI gebruikt wordt om iemands stem of uiterlijk na te bootsen – is een groeiend gevaar. Er zijn incidenten bekend waarbij oplichters met behulp van AI de stem van iemands kind hebben nagebootst om de ouders geld af te troggelen in een verzonnen noodsituatie . Denk ook aan de mogelijkheid dat men videobeelden van een politicus vervalst, waarin die ogenschijnlijk iets schokkends zegt of doet, om zo de verkiezingsuitkomst te beĆÆnvloeden. Als zulke synthetische media perfect geloofwaardig worden, staan onze traditionele communicatiekanalen (zoals nieuws, persoonlijke telefoongesprekken) onder druk. We zullen wellicht weer moeten teruggrijpen op analoge zekerheden – bijvoorbeeld fysiek bijeenkomen om zeker te weten dat een toespraak authentiek is, of extra verificatiestappen inbouwen in digitale communicatie (een codewoord dat alleen echte familieleden kennen bij een telefoontje). Het is ironisch: de elektrificatie bracht ons de telefoon als betrouwbaar communicatiemiddel op afstand, maar AI kan het telefoneren weer onbetrouwbaar maken doordat een stem niet meer te vertrouwen is als bewijs van identiteit .

Deze onzekerheid kan een verlammend effect hebben op onze sociale infrastructuur. De publieke sfeer – waar meningsvorming en debat plaatsvinden – lijdt eronder als nepaccounts en AI-gegenereerde berichten de discussie vervuilen. Mensen trekken zich mogelijk terug in kleine kringetjes waarin ze nog vertrouwen hebben, of communiceren alleen nog via platforms die strenge verificatie toepassen (wat anonimiteit en open debat weer beperkt). Het kostte decennia om via onderwijs en journalistieke codes de bevolking mediawijs te maken in het tijdperk van massamedia; nu staan we voor de uitdaging om iedereen AI-content-wijs te maken. Dat betekent bijvoorbeeld dat we leren letten op subtiele signalen van AI-gegenereerde tekst (al wordt dat steeds moeilijker te onderscheiden) en dat platformen transparant moeten zijn over waar bots actief zijn.

In Nederland is aandacht voor dit probleem. De overheid stelt dat ā€œgeneratieve AI een negatief effect kan hebben op hoe we informatie krijgen, wat op zijn beurt onze democratie kan beĆÆnvloedenā€ . Ook wordt erkend dat AI ā€œde bestaande dynamiek in digitale markten versnelt, waardoor het risico op misbruik van machtspositie toeneemtā€ – met andere woorden, enkele grote spelers kunnen de informatiestromen gaan domineren met hun AI-gestuurde content. Het is dus niet alleen een technisch, maar ook een politiek probleem (waar we in de volgende sectie dieper op ingaan).

Mensen zullen nieuwe tools en gewoontes moeten ontwikkelen om echtheid te verifiĆ«ren. Waar we ooit dankzij elektriciteit en fotografie bewijs dachten te hebben (denk aan de uitdrukking ā€œZie foto voor bewijs!ā€ – een foto loog niet), moeten we nu beseffen dat ook beeld en geluid kunnen liegen. Mogelijk wordt in de toekomst digitale communicatie standaard vergezeld van een cryptografische verificatie dat content door een mens is gemaakt, of tenminste door een gecertificeerde bron. Tegelijk zullen we ons communicatief moeten aanpassen: misschien weer meer face-to-face, of videocalls alleen met wederzijds kenbare signalen. De elektrische telegraaf en telefoon verkleinden ooit de wereld maar vergden ook nieuwe vertrouwensmechanismen (authenticatiecodes, telefoonetikette). Evenzo zal generatieve AI ons dwingen elke boodschap scherper te bevragen: Wie spreekt er echt tegen mij?

Toch is het niet allemaal negatief. Synthetische interacties kunnen ook functioneel en efficiĆ«nt zijn – denk aan AI die vergaderingen samenvat of vertaalt, waardoor mensen soepeler over taalgrenzen heen communiceren. Als we AI zichtbaar en eerlijk inzetten (bijvoorbeeld: ā€œdeze klantenservice-chat wordt deels ondersteund door een AI-assistentā€), kunnen mensen de voordelen benutten en tegelijk de beperkingen begrijpen. Uiteindelijk moeten we een nieuw evenwicht vinden waarbij AI onze communicatie- en relatievormen ondersteunt zonder ze over te nemen of te ondermijnen. Dat vergt bewuste sturing vanuit de samenleving – net zoals we ooit besloten hebben dat elektrische straatverlichting en radio-uitzendingen publiek gereguleerd moesten worden om het algemene belang te dienen. In het klein begint het bij ieder van ons: onderscheid blijven maken tussen echte connectie en handige simulatie, en nooit vergeten wat menselijke relaties uniek maakt.

4. Psychologische zelfbeleving

Naast sociale effecten heeft generatieve AI invloed op hoe we onszelf zien en ervaren. Hier draait het om (a) ons gevoel van eigenwaarde, originaliteit en autonomie als denkend wezen in de schaduw van slimme AI, en (b) de psychologische effecten van het voortdurend spiegelen aan systemen die altijd paraat, coherent en ogenschijnlijk slimmer zijn dan wij.

Eigenwaarde, originaliteit en autonomie onder invloed van AI

Stel je een creatieve professional voor – een schrijver, ontwerper of programmeur. Voorheen haalde deze persoon eigenwaarde uit het feit dat hij met zijn unieke vaardigheden iets kon scheppen of oplossen dat anderen niet zomaar konden. Nu is er een AI-tool die in seconden een ontwerpvoorstel genereert, code schrijft of een verhaal bedenkt. Zelfs als die output niet perfect is, kan het in de buurt komen van wat de professional zelf zou maken. Dit roept al snel gevoelens op van ā€œword ik vervangen?ā€ of ā€œben ik nog wel origineel?ā€. Onderzoek bevestigt dat veel mensen zich minder creatief voelen wanneer ze AI-tools gebruiken . In een recente studie gaf een meerderheid aan dat hun creatief zelfvertrouwen daalde zodra ze met een AI samenwerkten . Men voelt de eigen inbreng als minder, omdat het AI-systeem het zware werk lijkt over te nemen.

Dit fenomeen doet denken aan een klassiek psychologisch effect: wanneer iets of iemand in onze nabijheid een taak veel beter of sneller uitvoert dan wij, kunnen we aan onszelf gaan twijfelen. In de jaren ’90, toen schaakcomputer Deep Blue de wereldkampioen versloeg, voelden sommige schakers dat de mystiek en menselijke trots van het schaken een knauw kreeg. Toch bleek dat mensen nog steeds van menselijke tegenstanders wĆ­llen winnen; de machine was een aparte categorie. Met generatieve AI is het lastiger, omdat de AI binnendringt in alledaagse intellectuele taken en creatieve processen. Het is niet ƩƩn afgebakende wedstrijd (zoals schaken) die we ā€œverliezenā€, maar een diffuse aanwezigheid die voortdurend mee-concurreert.

Veel mensen vragen zich daardoor persoonlijk af: wat maakt mij nog uniek in mijn denken of creĆ«ren? Als een AI bijvoorbeeld in een brainstorm sneller met tien ideeĆ«n komt dan ik, zou ik kunnen concluderen dat mijn eigen ideeĆ«n niet speciaal zijn. Dit kan ontmoedigend werken en mensen er paradoxaal toe brengen minder hun best te doen om origineel te zijn, met het idee ā€œde computer is toch altijd beterā€. Zo’n houding kan een self-fulfilling prophecy worden: wie zijn eigen creatieve impuls afzwakt, zal inderdaad meer op de AI gaan leunen en mogelijk minder originele vondsten doen. Het risico is een soort mentale luiheid en afhankelijkheid die ons gevoel van autonomie aantast. We zien dit nu al bij GPS-navigatie of rekenmachines: mensen vertrouwen zo op het hulpmiddel dat ze hun eigen vaardigheid verwaarlozen (sommigen kunnen zonder GPS nauwelijks de weg nog vinden, of hoofdrekenen wordt zeldzaam). Met generatieve AI zou iets dergelijks kunnen gebeuren op gebieden van schrijven, probleemoplossing en kunstzinnige expressie – onderdelen van onze persoonlijkheid waar we traditioneel trots op zijn.

Een ander punt is eigenaarschap van ideeĆ«n. Wanneer je samen met een AI een tekst of beeld creĆ«ert, in hoeverre voelt het resultaat dan nog als ā€œvan jouā€? Creatieve professionals geven aan dat werken met AI tools soms een knagend gevoel geeft dat het eindproduct minder hun eigen prestatie is, wat hun trots en voldoening verkleint . Zelfs als het outputniveau stijgt (sneller een mooi resultaat), kan de persoonlijke betekenis ervan dalen. Dit is niet onvergelijkbaar met hoe industrialisatie arbeiders vervreemdde van hun werk: in plaats van een meubel van A tot Z zelf te maken, stonden ze aan de lopende band ƩƩn schroefje vast te draaien. Generatieve AI zou kenniswerkers en kunstenaars eenzelfde soort vervreemding kunnen bezorgen als ze niet oppassen – ze bedienen een systeem dat het werk doet, maar zien het niet meer als hun ambacht. Hier ligt een uitdaging om nieuwe manieren te vinden om voldoening en identiteit te ontlenen aan werk mĆ©t AI: bijvoorbeeld door de nadruk te leggen op de conceptuele en redactionele keuzes die de mens maakt, in plaats van op het ruwe maakwerk.

Positief bekeken kan AI juist de ruimte geven om mƩƩr autonomie te voelen op bepaalde vlakken. Als routinetaken geautomatiseerd worden, houdt de mens tijd over voor strategisch denken, empathische interactie of creatieve concepten. Een manager kan AI inzetten om vergadernotulen en e-mails te schrijven, en zich focussen op de menselijke kant van leidinggeven – iets waar hij wellicht juist zijn eigenwaarde uit haalt. Mits goed gebruikt, kan generatieve AI dus onze menselijke unieke waarden (zoals empathie, originele visie, moreel oordeelsvermogen) sterker naar voren laten komen, doordat de triviale zaken geautomatiseerd zijn . Dit vereist echter dat we onszelf heruitvinden in onze rollen. Net als elektriciteit destijds menselijke spierkracht deels overnam en arbeiders dwong nieuwe vaardigheden te leren, neemt AI nu een deel van onze denkkracht over en dwingt het ons te ontdekken waar onze echt menselijke kracht ligt.

Een interessant gegeven uit onderzoek is dat mensen met een sterk creatief zelfbeeld zich minder snel laten ontmoedigen door AI, terwijl mensen die toch al onzeker waren juist eerder geneigd zijn alles aan AI over te laten . Dit betekent dat er een kloof kan ontstaan: zelfverzekerde, hoogopgeleide professionals zien AI als handig hulpmiddel en behouden regie, terwijl anderen zich overschaduwd voelen en gewoon AI volgen. Om de eigenwaarde en autonomie breed te waarborgen, is bijvoorbeeld in onderwijs aandacht nodig voor AI-vaardigheid Ć©n zelfvertrouwen: leren waar jij als mens het verschil maakt naast een tool. De Nederlandse minister van OCW, Robbert Dijkgraaf, benadrukte terecht dat we ā€œmoeten mikken op meer kennis en vaardighedenā€ juist om de kansen van generatieve AI ten volle te benutten . AI-geletterdheid houdt in dat je de beperkingen van AI inziet en weet wanneer je eigen oordeel nodig is . Die inzichten kunnen mensen helpen te beseffen dat ze niet overbodig zijn, maar een nieuwe rol hebben.

Spiegelen aan altijd coherente, slimme systemen: psychologische effecten

Generatieve AI is 24/7 beschikbaar, moeiteloos coherent en heeft ogenschijnlijk een oneindig reservoir aan kennis. Hoe beĆÆnvloedt het ons dat we ons steeds spiegelen aan zo’n ā€œsuperintelligenteā€ assistent? Een belangrijk effect is de reeds genoemde cognitieve luiheid of afhankelijkheid – ook wel cognitieve offloading genoemd . Waarom zou je jezelf nog trainen in complexe analyses of het onthouden van feitjes als ChatGPT het in een oogwenk voor je opzoekt en uitlegt? Studies laten zien dat frequente AI-gebruikers inderdaad minder kritisch nadenken en sneller antwoorden aannemen, zeker jongeren lijken vatbaar voor dit gemak . Dit fenomeen heet ook wel de ā€œGreat Forgettingā€: hoe meer we AI vertrouwen, hoe minder we onze eigen kritische denkspieren gebruiken . Op de lange termijn kan dit onze probleemoplossende capaciteiten aantasten . Het paradoxale is dat AI bedoeld is om ons te ondersteunen, maar zonder bewust tegenwicht kan het onze mentale veerkracht en creativiteit eroderen .

Er is ook een effect op het gebied van zelfbeeld en competentiegevoel. Mensen die continu met een ogenschijnlijk foutloos, kalm redenerende AI interacteren, kunnen hun eigen denken chaotischer of dommer gaan vinden in vergelijking. Iedereen heeft weleens moeite de juiste woorden te vinden of maakt een redeneerfout; een AI heeft daar geen last van (althans niet in presentatie – het komt altijd vlot en zelfverzekerd over, ook als het inhoudelijk miszit). Dit kan leiden tot ontevredenheid met de eigen communicatiestijl of intelligentie. Bijvoorbeeld: een student die een essay eerst door ChatGPT laat schrijven en dat vergelijkt met zijn eigen poging, kan ontmoedigd raken door hoe vlot de AI het formuleert tegenover zijn gestruggle. Als dit vaak gebeurt, kan het zelfvertrouwen in eigen intellectuele vermogen afnemen, vooral bij mensen die al wat onzekerder zijn . Het gevaar is dat men denkt ā€œLaat de AI het maar doen, die kan het beter dan ik,ā€ wat een vicieuze cirkel veroorzaakt van minder oefenen en dus daadwerkelijk vaardigheid verliezen.

Een ander psychologisch effect is verminderde tolerantie voor ambiguĆÆteit en traagheid. AI geeft direct antwoord, vaak in klare taal. Het echte leven en menselijke gesprekken zitten vol onzekerheid, ā€œhmm’sā€ en pauzes om na te denken. Als we gewend raken dat antwoorden instantaan komen en consistent zijn, vinden we het misschien moeilijker om te gaan met situaties waar geen duidelijk antwoord is of die geduld vergen. Vergelijk het met hoe mensen ongeduldiger zijn geworden in het internettijdperk: wie gewend is aan direct Google-resultaat, heeft moeite met lang zoeken in boeken. Zo kan generatieve AI ons geduld met menselijke processen (die rommelig en traag kunnen zijn) verder doen slinken. Dat raakt ook onze empathie: een AI zal nooit gefrustreerd of moe reageren, maar een mens soms wel. Begrip opbrengen voor menselijke tekortkomingen is lastiger als je voornamelijk frictieloze interacties met machines hebt.

Zijn er positieve psychologische effecten? Zeker, AI kan ook als een vorm van spiegel dienen waar we van leren. Sommige therapeuten experimenteren met AI-gestuurde gesprekken waarin mensen inzicht krijgen in hun eigen denkpatronen doordat de AI het zorgvuldig terugkaatst. Een altijd beschikbare, coherent redenerende partner kan mensen helpen hun gedachten te ordenen of zelfs vaardigheden te oefenen (bijvoorbeeld een nieuwe taal spreken tegen een geduldige chatbot). Mits bewust ingezet, kan AI zo bijdragen aan persoonlijke ontwikkeling. Maar de kern blijft dat we moeten bewaken dat onze ā€œintellectuele autonomieā€ intact blijft . De overheid formuleert dit als een principe: generatieve AI moet ten dienste staan van menselijk welzijn en menselijke autonomie . Dat betekent praktisch: AI zou routinetaken moeten overnemen zodat de mens meer beslissingsruimte heeft, in plaats van dat wij klakkeloos AI-beslissingen volgen.

Een waardevolle vergelijking is te trekken met hoe elektriciteit destijds zowel comfort als afhankelijkheid bracht. De mens werd fysiek minder uitgedaagd (want machines deden het zware werk), wat zowel tot gezondheidsklachten door inactiviteit leidde als tot meer ruimte voor intellectuele arbeid. Nu met AI is het onze ā€œmentale arbeidā€ die verlicht wordt. We moeten net als toen een nieuwe balans vinden tussen gebruikmaken van de technologie en blijven oefenen van onze eigen vermogens. Denk aan maatregelen zoals destijds sport en gymnastiek in opkomst kwamen om fysieke fitheid te behouden; zo zouden nu ā€œmentale fitnessā€ en kritisch denkonderwijs extra nadruk moeten krijgen om ons brein scherp te houden in een AI-rijke omgeving.

Psychologisch zullen we ook moeten accepteren dat AI sommige dingen nu eenmaal beter kan, zonder dat dit onze eigenwaarde schaadt. Net zoals we leerden leven met het feit dat een kraanvogel meer gewicht kan tillen dan tien man, maar dat deed niets af aan menselijke waarde, zo moeten we erkennen dat een algoritme sneller informatie kan doorzoeken dan wij. Onze waarde ligt dan elders – in creativiteit, ethiek, liefde, noem maar op. Het besef dat we niet overal de beste in zijn, is misschien wel goed voor ons ego. Het humane blijft dat we betekenis kunnen geven aan dingen, kunnen dromen en kunnen afwijken van de statistische waarschijnlijkheid (iets wat AI lastig vindt). Als we dĆ”t blijven koesteren, hoeft het spiegelen aan een slimme machine niet bedreigend te zijn maar kan het ons juist uitdagen en complementeren. Uiteindelijk is de les van zowel elektrificatie als digitalisering: de mens moet zichzelf telkens opnieuw uitvinden naast zijn eigen creaties. Generatieve AI confronteert ons nu met de vraag wat ons mens-zijn definieert wanneer machines steeds meer kunnen . Misschien vinden we in het antwoord daarop een hernieuwd zelfbeeld: niet minderwaardig aan de machine, maar uniek ernaast.

5. Politiek

De opkomst van generatieve AI heeft grote gevolgen voor machtsverhoudingen in de samenleving. In de politieke sfeer staan we stil bij (a) hoe de machtsbalans tussen burgers, staten en technologiebedrijven verschuift door de inzet van generatieve AI in communicatie en besluitvorming, en (b) welke risico’s ontstaan voor de publieke sfeer en democratie als AI massaal kan worden ingezet voor beĆÆnvloeding, framing of desinformatie.

Machtsverhouding tussen burgers, staat en technologiebedrijven

ā€œAI is het nieuwe elektriciteit,ā€ zei AI-expert Andrew Ng – het zal alle sectoren doordringen en elke industrie transformeren . Net zoals elektriciteit destijds nieuwe industriĆ«le reuzen (energiebedrijven, radiomonopolies) deed ontstaan, zien we nu dat generatieve AI geconcentreerd is in handen van een paar grote technologiebedrijven. Bedrijven als OpenAI/Microsoft, Google en Meta investeren miljarden in de ontwikkeling van geavanceerde AI-modellen . Dit roept de vraag op: wie controleert deze krachtige technologie en wie profiteert ervan?

Momenteel ligt de slagkracht vooral bij Big Tech. Deze bedrijven bezitten niet alleen de algoritmen, maar ook de gigantische hoeveelheden data en rekencapaciteit (denk aan de stroom vretende datacentra) die nodig zijn om generatieve AI te trainen en te draaien. Hierdoor ontstaat een machtsconcentratie: een klein aantal spelers kan de richting en toepassingen van AI sterk sturen. Dit baart zorgen bij overheden wereldwijd en ook in Nederland. Het Rathenau Instituut signaleert dat generatieve AI bestaande problemen verergert, waaronder de machtspositie van techbedrijven . Innovaties komen nu vaak uit Silicon Valley; lokale spelers lopen achter. Zonder ingrijpen dreigt een scenario waarin publieke instanties en burgers afhankelijk worden van de tools en infrastructuur van private giganten (een beetje hoe we nu al afhankelijk zijn van Microsoft, Google en Facebook voor veel digitale diensten). De overheid stelt expliciet: ā€œNederland is op dit moment grotendeels afhankelijk van taalmodellen uit niet-Europese landen, wat de innovatieve positie en het langetermijn verdienvermogen kan schadenā€ . Dit raakt aan digitale soevereiniteit: de mogelijkheid van een land om zelf de koers te bepalen in het digitale domein. Als cruciale communicatie- en besluitvormingsprocessen straks draaien op bijvoorbeeld een Amerikaanse AI, wie garandeert dan dat Nederlandse waarden en privacy gerespecteerd blijven?

We zien al voorbeelden: stel een gemeente wil AI inzetten om burgers te woord te staan via een chatbot. Waarschijnlijk kopen ze die technologie in bij een groot bedrijf, bij gebrek aan eigen ontwikkeling. De dataset waarop de chatbot getraind is, is mogelijk Engelstalig en commercieel, dus de antwoorden kunnen vooringenomen zijn of niet passen bij Nederlandse beleidsnormen. Bovendien gaan de gegenereerde gesprekken wellicht door de servers van die firma, met alle dataregie daar. Dit legt macht bij het bedrijf, minder bij de overheid en burger. Minister van Digitale Zaken Alexandra van Huffelen verwoordde het zo: ā€œWe willen de toekomst van onze sociaaleconomische zekerheid niet exclusief in handen van grote techbedrijven leggenā€ . Daarom investeert Nederland (en Europa via de AI Act en andere programma’s) in een sterk eigen AI-ecosysteem en regelgeving . Denk aan initiatieven als de Nederlandse AI Coalitie en plannen voor een publiek AI-testcentrum , of het Europese GAIA-X project voor data-infrastructuur. Het doel is tweeledig: innovatie stimuleren zodat we niet achteropraken, en tegelijk kaders stellen zodat AI ten dienste staat van publieke waarden in plaats van ze te ondermijnen .

Voor burgers betekent deze machtsstrijd dat ze zich bevinden tussen grootmachten. Enerzijds kunnen individuele burgers profiteren van AI – iedereen heeft nu toegang tot tools die productiviteit en creativiteit verhogen. Dit geeft individuen een potentieel kracht die vroeger alleen instituties hadden (denk aan een enkel persoon die met AI een kwaliteitsvideo kan maken die voorheen een heel team vergde). Anderzijds is de speelruimte van burgers afhankelijk van hoe zowel overheid als bedrijven de AI inzetten. Er zijn zorgen dat AI gebruikt kan worden voor grootschalige surveillance of sturing. Een overheid zou generatieve AI kunnen inzetten om propaganda op maat te maken of burgers digitaal te volgen via patroonherkenning in communicatie. Omgekeerd kunnen bedrijven AI inzetten om consumentengedrag subtiel te manipuleren (gepersonaliseerde reclame die met psychologische precisie iemands voorkeuren bespeelt). De machtsbalans verschuift dus niet eenduidig ƩƩn kant op, maar er is in potentie een grote machtsvergroting voor degenen die AI beheersen – en dat zijn vaak niet de gewone burgers.

Een treffende historische parallel is de opkomst van elektrische infrastructuur en later de media. In het begin van de 20e eeuw ontstonden elektriciteitsmonopolies; pas door regulering (bijv. in de VS antitrust bij Standard Oil/General Electric achtigen) werd dat gebroken. Bij radio en tv zagen we mediaconglomeraten ontstaan die veel invloed op de publieke opinie hadden, wat leidde tot publieke omroepen en mediawetten om diversiteit en onafhankelijkheid te waarborgen. We staan nu voor een vergelijkbare opgave: mededingingsbeleid en regulering voor AI. Organisaties als het in Amsterdam gevestigde SOMO (Stichting Onderzoek Multinationale Ondernemingen) betogen dat sterke handhaving van mededingingsregels nodig is om te voorkomen dat ƩƩn of twee big tech-spelers generatieve AI volledig domineren . Alleen zo kan GenAI ā€œvoor mensen en democratie werkenā€ in plaats van voor monopoliewinsten .

In Nederland is hier politiek breed aandacht voor. Alle grote partijen noemen AI in hun programma’s rondom de verkiezingen 2023, vaak met nadruk op regie houden op AI-ontwikkelingen . Daarnaast wordt op Europees niveau de AI Act gevormd – een juridische kader dat AI (met name hoogrisico-toepassingen) aan regels bindt, inclusief transparantie-eisen die direct relevant zijn voor generatieve modellen. Bijvoorbeeld, de AI Act wil dat als een chatbot content genereert die nauwelijks van echt te onderscheiden is, dit kenbaar moet zijn. Zulke verplichtingen moeten voorkomen dat burgers onbewust gemanipuleerd worden door AI-aangestuurde informatie of besluitvorming.

Samenvattend: generatieve AI kan de burger emanciperen (meer toegang tot kennis, tools) maar zonder stevig beleid dreigt het eerder bestaande machtsverschillen te vergroten: big tech krijgt nóg meer inzicht in en greep op ons leven, en staten die niet meedoen aan de AI-race verliezen invloed aan degenen die dat wel doen. De machtsbalans moet hersteld worden door democratische sturing. Net zoals elektriciteit uiteindelijk onder publieke voorzieningen viel (het stroomnet, omroepen als publieke dienstverlening), zou je kunnen denken aan publieke AI-diensten. Bijvoorbeeld een door de overheid gesteunde open source AI waarop burgers kunnen vertrouwen dat die hun data niet misbruikt en neutraal opereert. Zulke ideeĆ«n komen op – zo is er GPT-NL met overheidsgeld gestart . De komende jaren zal de inzet zijn om AI te laten werken vóór ons allemaal, en niet slechts voor de aandeelhouders van Big Tech.

Publieke sfeer en democratie: risico’s van beĆÆnvloeding, framing en desinformatie

Wellicht het meest besproken maatschappelijke risico van generatieve AI betreft de informatie-omgeving en daarmee het fundament van de democratie. Democratie veronderstelt een geĆÆnformeerd publiek, open debat en het kunnen vertrouwen op een zekere werkelijkheid. Generatieve AI stelt deze zaken onder druk, omdat het op ongekende schaal mis- en desinformatie kan produceren en verspreiden.

Een zorgwekkend scenario is dat AI ingezet wordt voor politieke beĆÆnvloeding. Bijvoorbeeld: met AI kunnen duizenden varianten van een politieke boodschap worden gegenereerd, elk toegesneden op de voorkeuren en biases van micro-doelgroepen op sociale media. Dit heet microtargeting op steroĆÆden – een politicus of belangengroep kan met minimale middelen een gepolijste campagne voeren die op individueel niveau resoneert, zonder menselijke campagnevoerders. Het gevaar is tweeledig. Ten eerste weten ontvangers niet meer of een boodschap van een authentieke medeburger komt of door een bot is gemaakt. Ten tweede kan de inhoud misleidend zijn: AI kan zeer overtuigende valse berichten en beelden maken . Denk aan een deepfake video waarin een kandidaat een racistische opmerking lijkt te maken vlak voor verkiezingen – ook als die snel ontkracht wordt, kan de schadelijke invloed al plaatsvinden.

Nederland heeft gelukkig een relatief weerbare informatie-orde met sterke journalistiek en alertheid op nepnieuws, maar we zijn niet immuun. Er circuleren nu al AI-gegenereerde teksten op fora en social media die bijdragen aan polarisatie. Als een kwaadwillende actor (bijv. een buitenlandse mogendheid of een extremistische beweging) de publieke opinie wil sturen, is generatieve AI een machtig wapen. Het Rathenau Instituut merkt op dat de verspreiding van desinformatie en deepfakes door generatieve AI ā€œhet publieke debat kan verstorenā€ en dat dit ook ā€œpolitiek gemotiveerd kan zijn en invloed kan hebben op het democratisch debatā€ . Met andere woorden, AI verergert een bestaand probleem: we kenden al trollenlegers en fake news websites, maar nu kunnen ze oneindig opgeschaald en verpersoonlijkt worden. Desinformatie was al lastig te bestrijden, ā€œen nu maakt GAI-technologie de productie ervan aanzienlijk eenvoudigerā€ .

Een ander risico is agenda-setting en framing: AI zou nieuws kunnen samenvatten of schrijven, en afhankelijk van hoe het getraind is, bepaalde frames bevoordelen. Stel dat over 10 jaar veel mensen een AI-gegenereerde nieuwsoverzicht lezen in plaats van een krant. Degene die dat AI-systeem beheert, heeft enorme invloed op welke feiten benadrukt of weggelaten worden. Als dat een commercieel bedrijf is, zou het subtiel de publieke opinie kunnen sturen (bijv. pro of anti bepaalde regelgeving waar het belang bij heeft). Dit is geen vergezochte dystopie – we zagen een milde vorm hiervan al met gepersonaliseerde Facebook newsfeeds die bepaalde content pushen. Met generatieve AI kan dit genuanceerder: in plaats van alleen selectie, kan het nieuws zelf enigszins herschreven worden om een bepaald sentiment te wekken.

Naast kwade opzet is er ook onbedoelde fragmentatie: als iedereen zijn eigen AI-assistent gebruikt die antwoorden geeft gebaseerd op persoonlijke voorkeuren, kunnen informatiecocons nog sterker worden. Bijvoorbeeld, een AI leert dat jij wantrouwig staat tegenover klimaatverandering en geeft bij elke vraag daarover sceptische antwoorden, terwijl iemand anders juist alarmistische antwoorden krijgt – allebei slim verpakt als objectief. Zo raken gedeelde feiten en narratieven in de samenleving verder uit elkaar. Democratie functioneert echter alleen als we over tenminste enige gemeenschappelijke feitenbasis beschikken en elkaar begrijpen. AI die iedereen een eigen waarheid geeft, ondermijnt dat fundament.

Gelukkig zijn er tegenkrachten. Ten eerste komen er (inter)nationale regels en normen: de EU’s Digital Services Act dwingt platforms om harder op te treden tegen desinformatie . En specifiek voor deepfakes is in Nederland zelfs strafrecht in stelling gebracht voor misbruik (zoals het strafbaar willen maken van niet-consensuele synthetische pornografie, de zogeheten ā€œdeep nudesā€ ). Ten tweede is de samenleving al alerter door eerdere ervaringen met nepnieuws. Media besteden expliciet aandacht aan het ontmaskeren van deepfakes en AI-plagiaten. Zo is er journalistieke innovatie, met nieuwsrooms die eigen AI gebruiken om verdachte content op te sporen.

Toch zal het een wapenwedloop blijven: generatieve AI wordt steeds beter, dus detectie moet bijbenen. Hier is weer de elektriciteit-parallel: net zoals elektrisch aangedreven drukpersen in de 19e eeuw een vloed aan goedkope krantjes (waaronder roddel en propaganda) veroorzaakten, moesten er institutionele oplossingen komen – persrecht, rectificatieplichten, publieke omroep. We zullen nu wellicht nieuwe instituties nodig hebben, zoals een deepfake autoriteit of keurmerken voor informatie (bijvoorbeeld media die garanderen ā€œ100% human journalismā€). Het publieke debat moet ook aangepast: politici en burgers moeten beseffen dat niet elke video of quote authentiek hoeft te zijn en misschien een adempauze inbouwen voor verificatie alvorens te reageren. Dit is lastig in de snelle online dynamiek, maar noodzakelijk om paniek of vals sentiment te voorkomen.

Een zorg is bovendien dat vertrouwen in democratische processen zelf wordt ondermijnd. Als burgers geloven dat de publieke opinie gemanipuleerd wordt door AI-bots (zelfs los van of het daadwerkelijk zo is), kan dat leiden tot cynisme en complotdenken (ā€œverkiezingen zijn toch nep, het is allemaal gestuurd door algoritmesā€). Hier zien we een interessante dubbelheid: AI kan enerzijds echt de informatie vervalsen, anderzijds kan de angst ervoor op zichzelf al ontwrichtend werken. Transparantie en publiek debat over de inzet van AI zijn daarom cruciaal, zodat er geen mythisch beeld ontstaat dat ā€œAI de boel regeertā€. Uiteindelijk moeten democratische beslissingen genomen blijven worden door mensen – AI kan hooguit een tool zijn, niet de actor.

Samenvattend staat de democratische rechtsstaat voor de uitdaging generatieve AI in te bedden zonder de kernprincipes – vrije meningsvorming, waarheid, gelijke concurrentie in verkiezingen – aan te tasten. Nederland trekt hierin op met Europa om kaders te stellen. Zo worden er principes geformuleerd dat AI ā€œveilig, eerlijk, mensgericht en aan onze waarden toetsbaarā€ moet zijn . Het komt erop neer dat we net als bij elektriciteit destijds de onzichtbare kracht moeten temmen: elektriciteit bracht licht maar ook elektrocutiegevaar, dus kwamen er veiligheidseisen en stoppenkasten; generatieve AI brengt kennis en productiviteit, maar ook misleiding, dus zullen we maatschappelijke ā€œzekeringenā€ moeten installeren. De inzet is hoog, want als we dit goed doen, kunnen we AI inzetten om juist de democratie te versterken (bijv. burgers beter informeren, bestuur responsiever maken), maar als we falen, bestaat het risico van een ā€œinformatie-pandemieā€ die vertrouwen verwoest. De komende jaren zijn in dat opzicht beslissend voor hoe onze publieke sfeer er in het AI-tijdperk uit zal zien.

6. Economie

Generatieve AI ontwricht en vernieuwt ook economische structuren. Hier richten we ons op (a) de verdeling van arbeid, kapitaal en waardecreatie in creatieve en kennisintensieve sectoren, en (b) economische gelijkheid in een scenario waarin toegang tot krachtige generatieve AI ongelijk verdeeld blijft. We vergelijken de economische transformatie door AI met die van de elektrificatie in de industriƫle revolutie.

Arbeid, kapitaal en waardecreatie in creatieve en kennisintensieve sectoren

Kenniswerk en creatieve beroepen – van tekstschrijvers en marketeers tot architecten, juristen en onderzoeksanalisten – krijgen te maken met een AI-systeem dat een deel van hun werkzaamheden kan automatiseren. Dit heeft grote gevolgen voor de arbeidsmarkt in deze sectoren. Uit onderzoek (PwC 2023) blijkt dat in Nederland meer dan 44% van de banen in zekere mate blootgesteld is aan generatieve AI , waarbij vooral banen in de dienstverlening en kennissector een hoge ā€œAI exposureā€ kennen . Denk aan ICT, financiĆ«n, onderwijs, media – hier kan tot 70-75% van het takenpakket door AI beĆÆnvloed worden . Traditioneel minder geautomatiseerde sectoren (zoals landbouw, bouw, ambachten) blijven voorlopig minder geraakt , wat betekent dat deze AI-golf vooral de witte-boordenberoepen en creatieve functies treft, terwijl eerdere automatiseringsgolven juist veel blue-collar werk troffen .

Voor de economie als geheel kan generatieve AI een enorme productiviteitsverhoging betekenen. Routineuze kennis- en creatietaken worden sneller en goedkoper uitgevoerd, wat de kosten verlaagt en output verhoogt. Dit kan, zoals PwC opmerkt, zelfs helpen om krapte op de arbeidsmarkt op te vangen door schaarse werknemers te augmenten met AI-assistenten . In dat opzicht is generatieve AI een beetje als de elektrische motor in de fabriek: ƩƩn operator kan met machines het werk van tien man doen, nu kan ƩƩn kenniswerker met AI wellicht het werk van een heel team aan.

Maar een cruciale vraag is hoe de winst en waardecreatie die hieruit voortvloeit wordt verdeeld. Zullen werknemers daarvan profiteren (minder werkdruk, hetzelfde loon voor minder uren, of meer uitdagend werk) of vooral de kapitaalverschaffers (hogere winstmarges door efficiency terwijl men werknemers in aantal of loon drukt)? Historisch zagen we bij industrialisatie eerst een groei van ongelijkheid – fabrieksbazen werden rijk, arbeiders bleven arm tot vakbonden en overheden corrigerend ingrepen. Een vergelijkbaar patroon dreigt hier. Als bedrijven AI gebruiken om met minder mensen hetzelfde te doen, zouden in theorie werknemers meer vrije tijd kunnen krijgen of ontzien kunnen worden. Maar zonder prikkel daartoe kan het ook simpelweg leiden tot inkrimping van personeel en intensivering van werk (ā€œnu je een AI-assistent hebt, kun je voortaan het werk van 3 collega’s bijhouden, dus we schrappen die 2 banenā€).

De creatieve sector bijvoorbeeld vreest dat AI hun werk ontwaardeert. Waarom een illustrator €1000 betalen voor een posterontwerp als een AI-afbeelding (misschien op basis van diezelfde illustrator’s stijl, maar zonder vergoeding aan hem) voor een fractie beschikbaar is? Dit raakt aan intellectueel eigendom: kunstenaars en schrijvers strijden nu voor hun rechten, zodat AI-modellen die op hun werk getraind zijn hen ook compensatie geven. Zonder zulke regelingen vloeit de waarde van hun creaties naar de bedrijven die de modellen exploiteren. In feite zien we een verschuiving van waardecreatie van arbeid naar kapitaal: het werk dat eerst een mens betaald kreeg, wordt nu door kapitaalgoederen (AI-systemen) verricht, en de opbrengst gaat naar de eigenaar van die goederen. Dit is klassiek economisch gezien een bron van groeiende ongelijkheid.

Het beschermen van creatieve beroepen is daarom een punt van zorg . Niet om innovatie te smoren, maar om te voorkomen dat we hele beroepsgroepen verliezen en daarmee ook kwaliteit en diversiteit in producten. De Rathenau-scan vraagt: ā€œHoe beschermen we het werk van creatieve beroepen? Welke banen gaan veranderen en hoe zorgen we voor goed werk?ā€ . ā€œGoed werkā€ duidt hier op banen met waarde, zekerheid en fatsoenlijke arbeidsvoorwaarden, ook als AI een deel van de taken overneemt. De oplossing kan zitten in het herontwerpen van functies: bijvoorbeeld een jurist hoeft minder standaard jurisprudentie-zoekwerk te doen (dat kan AI), maar richt zich meer op strategie en cliĆ«ntcontact. Dan blijft de jurist essentieel en wellicht zelfs productiever, en kan hij meer zaken aan. Zijn toegevoegde waarde verschuift, maar verdwijnt niet.

Veel experts denken dan ook dat AI werk niet doet verdwijnen, maar wel verandert . In het verleden hebben technologieĆ«n vaak geleid tot nieuwe banen en het aanpassen van bestaande. AI neemt repetitieve administratieve of routineuze creatieve taken over, waardoor werknemers tijd krijgen voor zaken die menselijk contact, inzicht of empathie vragen . ā€œAI gaat de menselijke factor in werk echt niet vervangen,ā€ aldus een PwC-analist, ā€œmaar biedt goede kansen om werk efficiĆ«nter en interessanter te makenā€ . De mens krijgt als het ware een AI-collega erbij die meehelpt het werk te doen . Dit optimistische scenario vereist echter begeleiding en upskilling: werknemers moeten leren optimaal samen te werken met AI en zich richten op de taken waar ze onmisbaar in zijn .

We zien in Nederland al concrete acties: de Sociaal-Economische Raad is gevraagd de impact van AI op werk in kaart te brengen . Bedrijven als KLM en ABN AMRO experimenteren met AI-pilots maar betrekken hun OR en werknemers om te kijken hoe functies zullen verschuiven. Een parallel met het verleden is de opkomst van automatisering in de jaren ā€˜70: toen zijn via convenanten en beleidstrajecten omscholingsprogramma’s opgezet om werknemers van verdwijnende taken (zoals typisten) naar nieuwe rollen (zoals computeroperator) te begeleiden. Een dergelijk transitiebeleid is weer nodig.

Een belangrijk aandachtspunt is dat niet iedereen gelijk profiteert. Hoogopgeleide of flexibele kenniswerkers kunnen AI als hefboom gebruiken en wellicht meer inkomen genereren (een programmeur die 5x zoveel code kan schrijven kan een hogere omzet draaien als freelancer). Tegelijk kunnen middenklassers wiens skillset deels door AI is te repliceren, hun onderhandelingspositie zien verslechteren. De economische waarde van expertise kan afnemen als de markt overspoeld raakt met AI-gegenereerde alternatieven. Hier kunnen we denken aan journalisten: als kranten AI gebruiken om basisberichten te schrijven, zullen er minder junior verslaggevers nodig zijn, en kunnen alleen top-journalisten nog hun meerwaarde bewijzen. Dit verkleint de instroom en schuift de waarde naar een topsegment en de technologie-eigenaren. Er dreigt dus polarisatie op de arbeidsmarkt: zeer waardevolle unieke menselijke inbreng aan de ene kant, en ā€œAI-aangevuldeā€ maar minder onderscheidende arbeid aan de andere.

Maatschappelijk moeten we debatteren hoe we de winst van AI-productiviteitsgroei verdelen. Sommigen pleiten voor kortere werkweken of basisinkomen als AI veel werk uit handen neemt – zo geniet iedereen van de welvaartsstijging. Anderen benadrukken dat we vooral nieuw werk zullen zien ontstaan (denk aan prompt-engineers, AI-ethici, data curators) dat de weggevallen banen compenseert, net zoals elektrificatie uiteindelijk meer banen creĆ«erde dan vernietigde (elektrotechnici, radio-omroepers, etc.). We kunnen leren van hoe na de elektrificatie investeringen in scholing en innovatie leidden tot een net positieve impact op de werkgelegenheid op lange termijn, zij het na korte-termijn schokken. Het komt neer op een gelijke en beheerste transitie.

Economische gelijkheid en ongelijke toegang tot generatieve AI

Generatieve AI belooft grote voordelen, maar niet iedereen heeft gelijke toegang tot die voordelen. Er dreigt een nieuwe digitale kloof: tussen wie wel beschikt over AI-tools, kennis en infrastructuur, en wie niet . Deze kloof kan op meerdere niveaus spelen: tussen landen (ontwikkelde economieƫn vs ontwikkelingslanden), tussen bedrijven (big tech en grote corporates vs MKB), en tussen individuen (hoogopgeleid vs laagopgeleid, of rijk vs arm).

Op mondiaal niveau investeren de VS en China enorme bedragen in AI, terwijl kleinere landen dit moeilijk kunnen evenaren. Europa – Nederland inbegrepen – vreest achterop te raken en afhankelijk te worden, wat op termijn de concurrentiekracht Ć©n zelfs nationale veiligheid raakt . Nederlandse bedrijven en startups kunnen mogelijk niet opboksen tegen de resources van Silicon Valley. Als toegang tot de beste AI alleen via dure licenties of cloudcontracten bij die grote spelers loopt, vloeit een deel van onze verdiencapaciteit weg naar het buitenland . Dat is een reden dat de overheid inzet op open strategische autonomie en eigen AI-innovatie .

Op bedrijfsniveau zien we dat grote bedrijven nu al AI omarmen, terwijl kleine ondernemers vaak nog niet weten hoe te beginnen of de middelen niet hebben. Een grote bank kan een AI-team inhuren, een bakkerij of lokaal marketingbureau niet. Als gevolg zouden grote spelers hun voorsprong vergroten (efficiĆ«nter werken, betere inzichten uit data) en kleintjes verder gemarginaliseerd raken. Tenzij AI-tools net zo gemeengoed en betaalbaar worden als destijds elektriciteit via het stopcontact, kan er een ongelijkheid in bedrijfsproductiviteit ontstaan. Overigens zijn er initiatieven om AI te democratiseren – open-source modellen, goedkope API-toegang, etc. – die dit kunnen verzachten. Maar zelfs dan is er nog een kloof in vaardigheden: je moet weten hoe AI te gebruiken. Experts spreken over GenAI literacy als nieuw onderscheid: wie begrijpt hoe je prompts moet formuleren en AI-uitvoer kritisch moet evalueren, heeft een voorsprong . Dit is te vergelijken met hoe in de 20e eeuw hoger opgeleiden profiteerden van de elektrificatie (zij konden elektrische machines bedienen of nieuwe beroepen daarin vinden) terwijl lager opgeleiden soms in oude jobs vastzaten of simpelweg hun baan verloren aan machines.

Individueel kan generatieve AI bestaande sociaal-economische ongelijkheden uitvergroten. Iemand met goede internettoegang, moderne apparatuur en digitale vaardigheden kan AI inzetten om bij te studeren, bijverdienen of arbeid te verrichten op afstand. Iemand zonder die toegang blijft achter. Wereldwijd is dit urgent: grote delen van Afrika en Zuid-AziĆ« hebben beperkte internetpenetratie, laat staan toegang tot de nieuwste AI – zij dreigen uitgesloten te worden van deze golf van vooruitgang . Zelfs binnen Nederland bestaat er nog een digitale kloof tussen groepen. Als generatieve AI bijvoorbeeld belangrijk wordt in het onderwijs of op de arbeidsmarkt (sollicitaties die AI-gescreend worden, etc.), dan zijn mensen die hier niet mee overweg kunnen zwaar in het nadeel .

Wat gebeurt er als deze ongelijkheid voortduurt? We kunnen een scenario voorstellen waarin een elite van AI-vaardigen extreem productief en welvarend wordt (zij runnen meerdere AI-aangestuurde projecten, hebben hoge inkomens), terwijl een onderklasse van mensen zonder AI-toegang of skills achterblijft met slechtbetaalde banen die nog niet geautomatiseerd zijn of zelfs werkloosheid. Dit zou sociale spanningen opleveren en is onwenselijk. Net als bij elektriciteit: aanvankelijk was stroom duur en hadden alleen rijke huishoudens licht, wat klassenscheidingen versterkte (armere mensen zaten letterlijk in het donker of droegen zwaarder werk zonder machines). Met infrastructuurinvesteringen en prijsdalingen werd stroom een nutsvoorziening die iedereen kon gebruiken, wat ook de algemene welvaart ten goede kwam. Zo moeten we ook kijken naar generatieve AI: misschien wordt het zo fundamenteel dat het beschouwd moet worden als een algemeen goed – toegankelijk voor iedereen tegen lage drempels.

Concreet betekent dit investeren in toegankelijkheid en onderwijs. De overheid heeft al aangekondigd campagnes om mensen uit te leggen hoe ze hun data kunnen beschermen en hoe AI werkt . Daarnaast zijn er plannen voor scholing: zorgen dat iedereen, van leerling tot oudere werknemer, basisbegrip heeft van AI (AI in het curriculum, omscholingsprogramma’s via UWV of gemeenten). Ook bibliotheken en volksuniversiteiten kunnen een rol spelen in AI-vaardigheden bijbrengen, net zoals ze destijds computerlessen aanboden.

Een ander aspect is infrastructuur: wellicht moeten publieke instellingen (universiteiten, bibliotheken) open AI-terminals of diensten aanbieden, waar burgers AI kunnen gebruiken zonder te betalen of commerciƫle voorwaarden. Dit is vergelijkbaar met hoe bibliotheken nu e-books en computertoegang bieden voor wie thuis niets heeft. De gedachte is dat digitale inclusie nu AI-inclusie gaat inhouden .

Op grotere schaal speelt verdeling van kapitaal: generatieve AI zal enorme waardeschepping geven (McKinsey schat biljoenen in globale economie). Als die opbrengsten voornamelijk bij techbedrijven en hun aandeelhouders terechtkomen, groeit de vermogensongelijkheid. Dit vraagt mogelijk om fiscale maatregelen – bijvoorbeeld winsten uit AI zwaarder belasten en die middelen inzetten voor een sociaal fonds of scholing. Elon Musk en anderen opperden zelfs een ā€œrobotbelastingā€ voor geautomatiseerd werk om de herverdeling te ondersteunen. Dergelijke ideeĆ«n zijn nog pril, maar worden nu weer actueel door generatieve AI.

Tot slot de milieu- en kostenkwestie: krachtige AI vergt veel energie en computermiddelen. Als energieprijzen stijgen of schaarste optreedt, kan niet iedereen zich intensief AI-gebruik permitteren, wat ook een ongelijkheid creƫert. Hier ziet men parallellen met elektrificatie: genoeg stroom voorziening was een voorwaarde om de voordelen te delen. Duurzame opschaling van AI (energie-efficiƫntere modellen, groene stroom) is dus ook een sociaal vraagstuk, omdat een duur, schaars goed altijd ongelijk verdeeld wordt.

In conclusie, generatieve AI biedt enorme economische kansen, maar dreigt – zonder beleid – de kloof tussen have’s en have-not’s te vergroten. Nederland en Europa erkennen dit en zetten in op een inclusieve benadering: ā€œervoor zorgen dat iedereen kan participeren in het digitale tijdperk, iedereen zelfverzekerd digitaal kan zijn en controle heeft over zijn digitaal levenā€ . Dat zijn ambitieuze maar nobele doelen. Het betekent praktisch investeren in mensen, niet alleen in technologie. Als we de lessen van de elektrificatie volgen, zorgen we dat AI uiteindelijk gemeengoed wordt (net als elektriciteit uit het stopcontact) en dat de samenleving als geheel productiever en welvarender wordt, met vangnetten voor wie in transitie zit. Dan kan generatieve AI uitgroeien tot een publieke energiebron van kennis en creativiteit waar iedereen baat bij heeft, in plaats van een scheidslijn die groepen uiteen drijft.

Slotbeschouwing: Net als de elektrische revolutie een ander tempo van leven, werk en samenzijn bracht, zo transformeert generatieve AI de fundamenten van onze maatschappij. In Nederland zien we deze transformatie in de zes besproken domeinen: van de onzekerheden rondom kennis en waarheid, via de herdefiniĆ«ring van creativiteit en cultuur, de subtiele maar wezenlijke verschuivingen in onze sociale interacties en zelfbeleving, tot de uitdager van onze politieke orde en de motor van economische herstructurering. Historische analogieĆ«n – de elektriciteit als aanjager van moderniteit – leren ons dat samenlevingen zulke veranderingen aankunnen mits ze tijdig leren, aanpassen en waar nodig grenzen stellen. Generatieve AI biedt onmiskenbaar kansen voor een welvarender, creatievere en efficiĆ«ntere toekomst, mits we de menselijke maat centraal blijven stellen: kritisch denkvermogen, culturele diversiteit, sociale cohesie, psychologisch welzijn, democratische waarden en rechtvaardigheid in de economie. Die waarden hebben ons door eerdere technologiegolven geloodst en moeten nu opnieuw ons kompas zijn. De uitdaging is enorm, maar de beloning ook: een samenleving die deze nieuwe ā€œkrachtā€ integreert op een manier die ons mens-zijn verrijkt in plaats van verarmt. Zoals toen met de gloeilamp en de radio, zo zal nu met de algoritmes en data gelden – het ultieme doel is dat de technologie ons dient, en niet andersom. Met kennis van het verleden en een open blik op de toekomst kan Nederland deze balans vinden en een voortrekkersrol spelen in het harmoniseren van AI met mens en maatschappij.

Bronnen:

  1. Rathenau Instituut – Generatieve AI-scan 2023: analyse van kansen, risico’s (o.a. mensgerichtheid, publieke waarden) .
  2. De Correspondent – ā€œChatGPT wordt nooit betrouwbaarā€: voorbeelden van hallucinaties en inherente onbetrouwbaarheid AI .
  3. Springer (Synthese) – Epistemic trust & AI-mediated communication: dilemma van vertrouwensverlaging online door AI .
  4. Medium (Data Science Collective) – ā€œTrusting the Machineā€: verschuiving rol kenniswerker naar curator van AI-kennis ; AI ondermijnt traditionele epistemische autoriteit .
  5. Carnegie Endowment – ā€œWorld According to GenAIā€: bias in trainingdata leidt tot culturele hegemonie en reproductie dominante waarden .
  6. Raad voor Cultuur – Nieuwsbericht AI in kunst & cultuur: vragen over AI en creativiteit, maker schap, positie makers .
  7. Rathenau Instituut – Quirine van Eeden et al., ā€œStaying human in a world of chatbotsā€: risico’s voor sociale ontwikkeling (sociale deskilling, dehumanisatie) .
  8. PsyPost – AI-tools undermining creativity: studie 2025, mensen voelen zich minder creatief met AI .
  9. PsyPost – AI en kritisch denken: cognitieve offloading bij veel AI-gebruik leidt tot lager kritisch denkvermogen .
  10. Government.nl – Visie NL op Generatieve AI (2024): overheidsstandpunt, kansen en zorgen: impact op informatievoorziening/democratie , risico machtsmisbruik techbedrijven , mogelijk verdwijnen banen , afhankelijkheid niet-EU modellen .
  11. PwC Nederland – ā€œHelft NL banen verandert door gen AIā€: 44% banen hoog blootgesteld , AI verandert werk i.p.v. vervangt .
  12. Rathenau – Generatieve AI-scan (vervolg): vragen over eerlijkheid: ā€œwie profiteert, wie draagt de lasten?ā€ .
  13. PolicyReview.info – ā€œGenAI intensifies digital divideā€: nieuwe kloof op gebied van AI-geletterdheid en controle over AI .
  14. SOMO / threads.net – ā€œPrevent Big Tech’s takeover of genAIā€: pleidooi mededingingsbeleid zodat genAI voor mensen en democratie werkt .
  15. Stanford HAI / Marietje Schaake – Tech power and democracy: waarschuwt voor ongebreidelde tech macht (Tech Coup) – overheid moet tegenwicht bieden. (Zie samenvatting Stanford HAI) .

🦷🦷🦷🦷🦷 ? Voor een overweldigende en duurzame ervaring zeker raadplegen… want dit zijn kunstwerkjes waar de tand des tijds geen vat op heeft

Blader door alle onderwerpen

Snel bladeren