25 maart 2024 / 

Wat bieden religieuze Chatbots?

De laatste tijd zijn er religieuze versies gekomen van grootschalige taalmodellen als ChatGPT. QuranGPT is bijvoorbeeld getraind op de Koran, maar er is ook een Bhuddhabot en een Bible.AI. Verder zijn er chatbots getraind met teksten van Pauls, Confucius of Augustins. Er is er zelfs een die het Orakel van Delphi kan imiteren. Scientific American zette een aantal mogelijkheden en risico’s op een rijtje.

Makers van dit soort religieuze chatbots hebben allerlei motieven. Student Raihan Khan uit Calcutta hoopte dat zijn QuranGPT moslims van advies kon voorzien. Het systeem werd een succes, maar toen hij tijdens onderhoud wat vragen bekeek de gebruikers stelden schrok hij wel. Een gebruiker dacht bijvoorbeeld dat zijn vrouw hem bedroog, en wilde weten of hij haar mocht slaan. Het antwoord was gelukkig om geen geweld te gebruiken, maar met haar te praten.

Vertaling

Maar wat hebben gelovigen precies aan chatbots die namens Jezus, Boeddha of Maarten Luther claimen te spreken? Veel makers van dit soort systemen stellen dat hun taalmodellen de wijsheid uit heilige teksten eenvoudig bereikbaar maken. In plaats van uren studeren op de Bijbel krijg je via de prompt van de chatbot direct antwoord op je vragen.

Theologen hebben hun bedenkingen over dit soort ‘afsnij-routes’ naar God. Juist de langdurige omgang met religieuze teksten zou de kans op geestelijke groei bieden. Daarnaast is de manier waarop Kunstmatige Intelligentie (AI) met teksten omgaat onduidelijk. Toch wordt AI al ingezet, bijvoorbeeld bij de vertaling van de Bijbel, of om verschillende vertalingen met elkaar te vergelijken. Dit soort linguïstische studies heeft al wetenschappelijke publicaties opgeleverd, aldus Scientific American.

Hallucinaties

Computerwetenschapper Mark Graves denkt dat grootschalige taalmodellen nieuwe inzichten kunnen geven in oude teksten. Maar hij toont ongewild aan hoe problematisch zijn uitgangspunt is door op te merken dat er ‘al zeker 800 jaar niet veel nieuws is verschenen in de theologie’. Blijkbaar heeft hij de Reformatie en nog wat andere ontwikkelingen gemist. Bovendien is bekend dat taalmodellen als ChatGPT kunnen gaan ‘hallucineren’, en zelf feiten verzinnen, stelt hoogleraar theologie en computerwetenschap Noreen Herzfeld (Saint John’s University in Minnesota). Gebruikers kunnen dan denken dat die ‘hallucinaties’ daadwerkelijk in de Koran of de Bijbel staan.

Antropoloog Beth Singler (Universiteit van Zürich) merkt op dat grootschalige taalmodellen werken op statistiek, en niet op begrip. Ze plaatsen woorden in de statistisch meest waarschijnlijke volgorde, en hebben geen idee van waarheid. Zij raadt gebruikers van religieuze chatbots aan dit te doen vanuit een ‘wantrouwige hermeneutiek’: teksten zijn altijd op meer dan één manier te interpreteren, of dit nu gebeurt door feilbare mensen of feilbare computersystemen.

Bron: God Chatbots Offer Spiritual Insights on Demand. What Could Go Wrong?