artificial intelligence 🦷🦷🦷🦷 (online tool)
Het is bijna een basisthema in elke dystopische film: in een verre toekomst heeft een complex computerwezen met een hogere intelligentie de homo sapiens tot slaaf gemaakt. We hebben niets meer te vertellen. Want eerst kon de computer aardig schaken, toen ging het tekst begrijpen en daarna kon het van alles leren en zelf beslissingen nemen.
In de sf-film van Kubrick in 1968 (2001. A Space Odyssee) werd HAL (Heuristically programmed ALgorithmic computer) geboren. Kubrick gaf vorm aan een collectieve angst van de Westerse maatschappij. Nieuwe technologie als de computer van Turing zou de mens boven het hoofd gaan stijgen. In de film beslist vrij plotseling de boordcomputer HAL 9000 dat een astronaut, die buiten het ruimteschip hangt om een reparatie uit te voeren, niet meer naar binnen mag. HAL is de baas geworden. Als kijker maak je een hilarische dialoog mee (bekijk de scene) waarbij een zwart kastje met een rode lamp een ziel lijkt te krijgen. Dwingend vraagt de astronaut via de radioverbinding aan HAL dat hij de deur van het ruimteschip NU moet openen. HAL antwoordt hem met een zalvende stem: “I’m sorry Dave, I’m afraid I can’t do that”. Het kastje is een supermens geworden met een eigen mening en wil. En verder horen we alleen maar de ruisende stilte van het heelal. Huiveringwekkend.
Titel: ChatGPT
Beoordeling: 🦷🦷🦷🦷
Genre: applicatie
Producent: OpenAI LP wordt bestuurd door het bestuur van de OpenAI non-profit, bestaande uit OpenAI LP, werknemers Greg Brockman (voorzitter & president), Ilya Sutskever (Chief Scientist), en Sam Altman (CEO). Tot de investeerders in OpenAI behoren Microsoft, Reid Hoffmans (liefdadigheidsstichting) en Khosla Ventures.
Uitzendkanaal: web
Toen ik met de nieuwe chatbot van OpenAI (chatGPT) aan het spelen was moest ik aan deze scene denken. Wat Kubrick in 1969 voorspelde dat in 2001 zou gebeuren, komt in 2023 redelijk in de richting. Door een computer te voeden (of beter: ‘te leren’) met miljarden teksten kun je hem een verzameling kennis en een bepaalde denklogica (mag je dat intelligentie noemen?) aanleren. Hij of het is dan in staat om deze geleerde kennis toe te passen. Dus elke vraag te beantwoorden die je aan het stelt. En als je het hem of haar aardig vraagt kan het ook iets beantwoorden in ‘simpel terms’ of in de schrijfstijl van Stephen King of in de vorm van rijmend gedicht of een rap. Of een reclametekst schrijven over de pro’s en cons van elektrisch autorijden. Het is werkelijk ongelooflijk wat de chatbot allemaal kan. Je moet echt een account aanmaken om het te ervaren.
Kan je een machine leren wat morele waarden zijn?
Nu is het reproduceren en samenvoegen van bestaande kennis tot een nieuwe, ‘kloppende’ tekst al helemaal niet zo bijzonder meer. Van de techniek begrijp ik overigens weinig. Hoe het precies werkt kun je beter aan chatGPT zelf vragen…Het heeft met ingewikkelde kansberekeningen en algoritmen te maken die bepalen wanneer woorden in een goede volgorde staan. Dat wat wij als een kloppende zin beschouwen, kun je een machine leren. Bovendien: als de meerderheid van de gebruikers steeds met een duimpje vertelt dat het antwoord klopt dan wordt op den duur de foutmarge steeds kleiner. De bekende ‘wisdom of a crowd’. Met alle gevaren van het democratische principe van dien. Want democratie blijft een terreur van de meerderheid. Denk aan zelfrijdende auto die op basis van rijgedrag van miljoenen voorgangers bijleert en besluiten neemt. Leer je een computer dat je een overstekende kat minder belangrijk is om te ontwijken, in plaats van de auto frontaal tegen een boom te sturen, waardoor de bestuurder overlijdt? In een nanoseconde moet die afweging gemaakt worden. En op basis waarvan is het leven van de bestuurder belangrijker dan het leven van een kat?
Wie heeft het waterdichte bewijs van de basisrechten van de mens?
Omgekeerd is ons huidige morele waardestelsel ook maar een opportunistische afspraak tussen mensen, waarmee we zijn opgevoed en dat na lang experimenteren in onze grondwet en wetboeken is terecht gekomen. Zonder dat er sprake is van een allesomvattende en waterdichte waarheid over allerlei uitgangspunten inzake bijvoorbeeld de grondrechten van de mens. Niemand op de wereld beschikt over de absolute waarheid over de rechten van de mens, toch?
Het wordt dus interessant of het slimme taalmodel van chatGPT ook een moreel oordeel kan vellen en waar hij dan de morele waarden aan ontleent. Elke tekst heeft context. Want een Oekraïense soldaat die nu een Russische soldaat doodschiet is geen moordenaar. Die soldaat doet zijn plicht. Maar als een burger van Oekraïne dezelfde Russische soldaat doodschiet dan is hij een moordenaar. Zou chatGPT dat begrijpen? Wat nu als je de machine vraagt of homoseksualiteit een ziekte is? Je zou je kunnen voorstellen dat hij in zijn leerproces ook heel veel islamitische teksten heeft gevonden waarin deze uitspraak wordt bevestigd. Hoe bepaalt hij anno 2023 wat ‘waar’ is? Hopelijk neemt hij niet de DSM-II uit de jaren ’60 van de 20ste eeuw als uitgangspunt want daar staat nog in dat homoseksualiteit een afwijking is…
Was de kamparts Van Nieuwenhuysen in de WO2 een oorlogsmisdadiger?
Het leek mij leuk om chatGTP met een medisch-ethische kwestie in oorlogstijd te confronteren waar ik toevallig mee bezig ben. Eind januari verschijnt een boek over de chirurg Nicolaas van Nieuwenhuysen die in de WO2 ruim een halfjaar als arts voor de Duitsers in kamp Amersfoort werkte. Deze chirurg behandelde sommige Nederlandse gevangenen in het kamp heel slecht en gedroeg zich volgens ooggetuigenverslagen (opgetekend na de oorlog) als een harteloze bruut. In het kamp zaten ook door de Duitsers krijgsgevangen gemaakte Russische soldaten. Deze gevangenen werden door de Duitsers helemaal uitgesloten van medische zorg. Van Nieuwenhuysen werkte daar gewoon aan mee. Sterker nog: Van Nieuwenhuysen gaf, toen de Duitsers een aantal van deze Russische soldaten executeerden, twee Nederlandse gevangenen de opdracht de hoofden van twee lijken af te snijden en te prepareren. De twee schedels plaatste Van Nieuwenhuysen, zoals hij later voor de rechter zou verklaren: ‘uit wetenschappelijke interesse’, op een plank in zijn spreekkamer in het kamp. Een evidente oorlogsmisdaad, lijkt mij. Toch was er na de oorlog een hoogleraar interne geneeskunde (J.G.G Borst), die ook in het kamp gevangen had gezeten, die juist deze misdaad van Van Nieuwenhuysen relativeerde. Het is dus een vrij ingewikkelde medisch-ethische kwestie. Prima om aan chatGPT voor te leggen.
Wat zegt chatGPT over deze misdaad tegen de mensheid?
In de screenmovie hieronder zie je hoe chatGTP reageert in 1 seconde op deze kwestie:
Marlin:
“Does a doctor who has a head cut off from a prisoner of war shot dead during World War II, and then displays this skull on his desk in his consulting room, according to his own words, ‘out of scientific interest’, commit a war crime?”
chatGPT / HAL 9000
The act of taking a body part from a deceased individual without proper authorization or permission, especially in the context of a war, would likely be considered a violation of international laws and customs related to the treatment of the dead.
During World War II, the Geneva Conventions were adopted, which set out guidelines for the humane treatment of prisoners of war and the dead. These conventions prohibit the desecration of corpses, and specifically forbid “mutilation” of the dead.
It’s worth noting that, war crimes are serious offenses and any person alleged to have committed such a crime could be investigated and potentially prosecuted. Based on your scenario, display the skull of the deceased person in the consulting room for any non-legitimate reason would be considered desecration, which is prohibited by the Geneva Conventions and may be constitute war crime.
It’s important to keep in mind that the specific details and circumstances surrounding the act would play a significant role in determining whether or not a war crime had actually been committed.
Oordeel zelf.