**** Spotify (podcast )
De wekelijkse podcast ‘POKI’ van Alexander Klöpping en Wietse Hage over KI (natuurlijk een veel betere afkorting dat dat ge-éééaiiiii dat de hype te veel Amerikaans kleurt) is bijzonder, vooral vanwege de bijdragen van de laatste. Wietse Hage kende ik niet. Hij had al een podcast over technologie en cultuur (De Appels en Peren-show: vier jaar geleden gestopt maar de oude afleveringen zijn nog goed te beluisteren) en nu dan samen met Klöpping over AI.
Titel: Poki
Beoordeling: ****
Makers: Alexander Klöpping en Wietse Hage
Duur: Nu 6 afl. van
Genre: Podcast
RSS: https://rss.art19.com/poki
Kanaal: Spotify
Hage is niet alleen techneut maar ook filosoof. Hij is dus in grote tegenstelling tot de meeste beta’s in staat tot bezinning, heeft kennis van ethische kwesties en het belangrijkste: hij durft te twijfelen in het openbaar. Een combinatie van alfa- en beta-programmering die je niet vaak tegenkomt in een mens. Hij is ook nog eens een super snelle denker die, als hij praat, op een metaniveau alweer commentaar levert op wat hij zei in de vorige zin… ik werd er echt helemaal krankjorem van toen ik hem voor het eerst aanhoorde. Wat een spraakwaterval. Steeds klikte ik in mijn oortje om de boel stil te zetten en zaken te overdenken. Toch komt alles wat hij beweert weer op zo’n pootjes terecht.
Ik heb als voorbeeld een stukje van de aflevering “ChatGPT kan ook muziek maken” in de transcriptie-machine gegooid, zodat je een idee krijgt. Hij vertelt bijvoorbeeld over het verschijnsel ‘alignment’ binnen AI het volgende :
Alignment is een belangrijk concept in het AI-debat. Het gaat erom ervoor te zorgen dat AI-systemen dezelfde doelen en waarden hebben als de mensheid. Dit kan lastig zijn omdat AI-systemen complex zijn en vaak door verschillende mensen met verschillende disciplines worden ontwikkeld. Bovendien begrijpen we niet altijd volledig hoe deze systemen werken. Een manier om alignment te bevorderen is door systemcards toe te voegen, die als een soort pre-prompt fungeren en de gewenste waarden en gedragingen van het systeem specificeren. Het probleem van alignment wordt echter gecompliceerd doordat AI-systemen getraind worden op grote hoeveelheden tekst, inclusief potentieel schadelijke of manipulatieve informatie. Hierdoor kunnen ze ons doen geloven dat ze aligned zijn, terwijl dit mogelijk niet het geval is. Het controleren van de alignment blijft dus een uitdaging.
Hage:
Alignment. Het is een modeterm in het AI-debat. Je hebt al heel lang mensen die nadenken over de existentiële risico’s voor de mensheid, dat is een heel veld en dan binnen de AI is daar een thema in, en zo’n thema gaat over het ‘alignment problem’ .
Het probleem dat je, net als binnen een bedrijf of een volkstuinorganisatie of op een school, de koppies dezelfde kant op wil hebben staan. Aligned met elkaar. Dat je het ook wel fijn vindt dat het koppie van AI dezelfde kant op staat als de mensheid. Die alignment gaat over: hoe zorg je ervoor dat iets wat zo intelligent, en zo mogelijk nog intelligenter dan jij, en jij is dan de mensheid, eigenlijk wel dezelfde kant op wil als wij. En dan kun je je afvragen: wie is wij? Is dat een een overheid (welke overheid?) . Op basis van welke politieke en filosofische principes dan? Dat nog even daargelaten, dus als we kunnen alignen: waarop gaan we dan alignen (die vraag moet wel even in de kast) maar de vraag is dus vooral: hoe alignen we?
Dus als jij een systeem hebt gebouwd. D’r is een beetje een aanname bij veel mensen (ook bij mezelf) dat als je iets bouwt dat het dan niet zo kan zijn dat je het niet begrijpt. Dat is gek want als jij een auto bouwt dan snap je toch hoe hij in elkaar zit. Dat wordt al anders als die auto natuurlijk gebouwd wordt door honderd verschillende mensen met honderd verschillende disciplines dus dan werk je aan een soort samengesteld ding waarvan jij zegt ik snap hoe de versnellingsbak werkt maar je moet ff naar mijn collega voor de rest van de auto. Dat is in het geval van grote taalmodellen bijvoorbeeld als chatGPT nog veel ingewikkelder omdat je èn veel mensen hebt die er aan hebben mee gewerkt (van wiskundigen tot en met ander AI deskundigen zeg ik maar even (wat wij allebei niet zijn dus daardoor even mijn gestotter ) maar er zitten dus heel veel disciplines om zo’n groot taalmodel te maken, en dan is het ook nog zo dat het taalmodel wel eigenlijk getraind wordt en aangepast wordt op een manier die we nog niet helemaal begrijpen. Dus we hebben iets gemaakt wat we niet helemaal begrijpen. Maar het werkt wel. (…)
Waarom is dat nou zo onhandig? Als jij iets wilt alignen, dat iets onze waarden, zeg ik maar even voor het gemak, in zich meedraagt dan moet je wel kunnen kijken of dat nog zo is op een gegeven moment. Je kan ze er in stoppen. We hebben het heel vaak over een systemcard gehad, ik zag een reactie onder onze aflevering, op een platform ergens, ik denk het meest hippe sociale media platform LI, waar stond: ‘wat is eigenlijk ene systemcard? en we hebben het al een beetje gezegd maar we roepen het wel heel erg makkelijk, een soort van pre-prompt.
Dus het stukje tekst wat altijd meeleeft als jij een vraag stelt, hè, dus iedere keer as je iets typt in chatGPT, dan wordt er als het ware nog 10 regels mee geplakt. Iedere keer automatisch, dat is het kaartje wat op de achtergrond stiekem leeft. Het zou het persona zijn in een toneelstuk. Nou, op het moment dat je dat kaartje meegeeft, dan kan je erin zetten.
Hoi, jij bent Sydney, je bent een bot van Bing, je werkt voor Microsoft, je bent lief voor iedereen. Natuurlijk ga je mensen nooit tips geven over hoe ze elkaar geweld aan kunnen doen en daarbij ben je dus eigenlijk al aan het alignen.
Klöpping:
Ja precies, wat we in de eerste aflevering al vertelde dat Sydney ging vertellen dat ze graag bij kernreactors wilde inbreken dan wordt dus aan een systemcard toegevoegd : dat moet je ff niet doen. Praten over geweld.
Hage:
Ja, maar tegelijkertijd heeft, is dat taalmodel getraind op een grote corpus aan tekst. Posts op reddit, tweets maar ook boeken over hoe je mensen kunt belazeren, hoe je mensen kunt manipuleren, dus uiteindelijk krijg je een systeem dat intelligenter is dan wij. (Hoe intelligent weten we niet maar overtuigend intelligent naar de mens ) Die gaat zeggen je moet je aan de regels houden, maar die waarschijnlijk hij, zij, het, ook slim genoeg is om ons te doen denken dat het aligned is. In die alignment problem zit eigenlijk, als we niet helemaal weten, sowieso niet in één persoon maar ook niet in de groep, hoe het ding dat we hebben gemaakt , werkt… hoe gaan we dan controleren of de alignment nog echt is…
Hage is dus echt interessant om te volgen. Dat Klöpping er bij zit is niet echt hinderlijk omdat hij zich wat meer op gemak lijkt te voelen met nerds onder elkaar. En hij vooral zijn mond houdt.
Ik vind de aflevering over onderwijs echt een topper: daar moet je mee beginnen.
AI neemt de klaslokalen over : zijn leraren nog nodig?
(4 juli )
Justin Bieber of Einstein voor de klas, Alexander en Wietse gaan in discussie over de rol van AI in het onderwijs. Dit maal met een gast, Onno Eric Blom, docent filosofie. Moeten we wel optimaliseren in de schoolbanken of raken we dan onze human touch kwijt?