Afbeelding

Blik op ... ChatGTP

Algemeen

Ik heb de laatste weken veel moeten denken aan mijn favoriete sience fiction schrijver, te weten Isaac Asimov. Hij formuleerde in 1942 (Alan Turing had pas net de computer uitgevonden en gemeengoed waren die bij lange na nog niet) de drie wetten der robotica. Die luiden (vrij vertaald en ingekort)

1. Een robot mag een mens geen kwaad doen

2. Een robot moet bevelen van mensen opvolgen tenzij in strijd met de eerste wet.

3. Een robot moet zichzelf in stand houden tenzij dat strijdt met de eerste of de tweede wet.

In zijn robotverhalen gaat het meestal over een conflict dat zich voordoet tussen de wetten. Asimov was een geniaal schrijver en hij bewees in zijn boeken keer op keer dat de wetten zo goed als waterdicht waren. Als er zich een onoplosbaar conflict voordeed, dan schakelde de robot zichzelf uit of begon vreemd gedrag te vertonen, afhankelijk van de ernst van het conflict. Zo goed als waterdicht, dus. Maar wat te doen als er grote aantallen mensen bij betrokken zijn?

De robots waren ‘zelflerend’ zoals dat nu heet en uiteindelijk waren er twee robots die het conflict omzeilden door de ‘nulde’ wet uit te vinden. De ’mens ‘uit de eerste wet werd vervangen door ‘de mensheid’ en steeg boven de eerste wet uit, vandaar dat de robots het de ‘nulde wet’ noemden. Wie zich de (morele) dilemma’s die ontstaan wil voorstellen raad ik aan eens een robotboek van Asimov te lezen.

Wat nu te doen met zo’n chatbot die uit zichzelf allerlei onderzoek gaat doen en teksten schrijft bijvoorbeeld. Ook die is al op papier te vinden bij een andere SF-schrijver, Alfred A. Heinlein. Daar is op een zeker moment sprake van een schrijver die een AI-machine een beginzin van een boek geeft, dat vervolgens door de AI-machine vliegensvlug wordt geschreven. Ook Heinlein verzon dat al in het gouden tijdperk van de SF, te weten de jaren veertig en vijftig van de vorige eeuw.

Robotwetenschappers hebben enige tijd geleden drie wetten geformuleerd voor verantwoorde robotica. De eerste wet daarvan luidt, dat een mens geen robot mag inzetten als het werk met de robot niet voldoet aan de hoogste wettelijke en professionele normen van veiligheid en ethiek.

Dat vooronderstelt dat de programmeurs voldoen aan die hoogste wettelijke en professionele normen van veiligheid en ethiek. Maar wie gaat dat controleren? En wat zijn die normen van veiligheid en ethiek? Een computerprogramma dat een leerling ontslaat van het zelf nadenken lijkt mij daar geen goed voorbeeld van. Het wordt hoog tijd voor een maatschappelijk debat over deze ontwikkelingen. Ik hou mijn hart vast.

Trudie Scherpenzeel

Afbeelding
Traditionele rommelmarkt in Haastrecht 2 uur geleden
Afbeelding
Zangmiddag in Waarder 9 uur geleden
Afbeelding
Het eerste seizoen van de Jupiter Sportspeeltuin een groot succes 12 uur geleden
De Herder in al zijn glorie langs de Hollandse IJssel, rechts molenaar Dries van Beek
Molen de Herder in Willeskop 14 apr, 19:00
Het Recreantentoernooi wordt gesponsord door Overbeek-transport BV Rotterdam en Van der Voet Assurantiën BV Haastrecht.
Tafeltennisvereniging TOP organiseert Recreantentoernooi 14 apr, 17:00
Afbeelding
Collectanten de straat op voor kinderen in armoede 14 apr, 12:00
Afbeelding
Enkeltje Holandija nu ook in Oudewater 13 apr, 19:00
Afbeelding
Taizé viering in Linschoten 13 apr, 14:00