Afbeelding

Blik op ... ChatGTP

Algemeen

Ik heb de laatste weken veel moeten denken aan mijn favoriete sience fiction schrijver, te weten Isaac Asimov. Hij formuleerde in 1942 (Alan Turing had pas net de computer uitgevonden en gemeengoed waren die bij lange na nog niet) de drie wetten der robotica. Die luiden (vrij vertaald en ingekort)

1. Een robot mag een mens geen kwaad doen

2. Een robot moet bevelen van mensen opvolgen tenzij in strijd met de eerste wet.

3. Een robot moet zichzelf in stand houden tenzij dat strijdt met de eerste of de tweede wet.

In zijn robotverhalen gaat het meestal over een conflict dat zich voordoet tussen de wetten. Asimov was een geniaal schrijver en hij bewees in zijn boeken keer op keer dat de wetten zo goed als waterdicht waren. Als er zich een onoplosbaar conflict voordeed, dan schakelde de robot zichzelf uit of begon vreemd gedrag te vertonen, afhankelijk van de ernst van het conflict. Zo goed als waterdicht, dus. Maar wat te doen als er grote aantallen mensen bij betrokken zijn?

De robots waren ‘zelflerend’ zoals dat nu heet en uiteindelijk waren er twee robots die het conflict omzeilden door de ‘nulde’ wet uit te vinden. De ’mens ‘uit de eerste wet werd vervangen door ‘de mensheid’ en steeg boven de eerste wet uit, vandaar dat de robots het de ‘nulde wet’ noemden. Wie zich de (morele) dilemma’s die ontstaan wil voorstellen raad ik aan eens een robotboek van Asimov te lezen.

Wat nu te doen met zo’n chatbot die uit zichzelf allerlei onderzoek gaat doen en teksten schrijft bijvoorbeeld. Ook die is al op papier te vinden bij een andere SF-schrijver, Alfred A. Heinlein. Daar is op een zeker moment sprake van een schrijver die een AI-machine een beginzin van een boek geeft, dat vervolgens door de AI-machine vliegensvlug wordt geschreven. Ook Heinlein verzon dat al in het gouden tijdperk van de SF, te weten de jaren veertig en vijftig van de vorige eeuw.

Robotwetenschappers hebben enige tijd geleden drie wetten geformuleerd voor verantwoorde robotica. De eerste wet daarvan luidt, dat een mens geen robot mag inzetten als het werk met de robot niet voldoet aan de hoogste wettelijke en professionele normen van veiligheid en ethiek.

Dat vooronderstelt dat de programmeurs voldoen aan die hoogste wettelijke en professionele normen van veiligheid en ethiek. Maar wie gaat dat controleren? En wat zijn die normen van veiligheid en ethiek? Een computerprogramma dat een leerling ontslaat van het zelf nadenken lijkt mij daar geen goed voorbeeld van. Het wordt hoog tijd voor een maatschappelijk debat over deze ontwikkelingen. Ik hou mijn hart vast.

Trudie Scherpenzeel

Het is weer gelukt een prachtig en 'voor-ieder-wat'-programma te maken voor Koningsdag.
Koningsdag in Oudewater 13 uur geleden
Afbeelding
Uit het leven gegrepen 20 uur geleden
Afbeelding
Opbrengst Reuma collecte 2024 23 uur geleden
Afbeelding
Comité 4 en 5 mei Oudewater zoekt meedenkers 21 apr, 19:00
Gerben Olsthoorn (li) en Kees van Schaick in de polders.
Nieuwe gebiedscoöperatie in de polders rond Oudewater 21 apr, 17:00
Afbeelding
Lustrum voor voetbalvereniging Linschoten 21 apr, 12:00
Afbeelding
Lijst van gevonden en vermiste dieren 21 apr, 09:00
Echtpaar Strien en burgemeester Danny de Vries..
Zestig jaar trouw 20 apr, 19:00