Geschreven door Lucas Lieverse

Inleiding


Vorige week las ik een social media bericht over een New Yorkse advocaat die niet zo handig was met ChatGPT: hij citeerde niet-bestaande zaken bij de rechter. Een pijnlijke misser. Hoewel GPT hele goede antwoorden kan genereren, mits juist gebruikt, en zelfs is geslaagd voor the bar exam kun je er niet zomaar op vertrouwen. Als je niet weet hoe GPT werkt en hoe je het moet gebruiken, kunnen er nare ongelukjes gebeuren. ChatGPT waarschuwt zelf uitdrukkelijk voor mogelijk onjuiste informatie. Maar ja, wie leest die waarschuwing? En hoe verhoudt die zich tot de overtuiging waarmee de applicatie vervolgens antwoorden genereert? 

In deze blog beschrijf ik hoe GPT-modellen werken. Met meer begrip kun je er beter mee omgaan en begrijpen waarom je alert moet blijven, hoe logisch en overtuigend de antwoorden ook mogen klinken.

Ai is soms magisch goed, maar inherent feilbaar Sam Altman, CEO van OpenAi, het bedrijf achter GPT, zei dat over ChatGPT op Twitter in december 2022: 

'ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness'.

Op de vraag of hij als CEO niet wat enthousiaster zou moeten zijn antwoordde hij:

'It does know a lot, but the danger is that it is confident and wrong a significant fraction of the time'.

Het is aan ons – gebruikers – om daar alert op te zijn en de kans op onjuiste informatie en misleiding te minimaliseren. Het voelt als met veel bombarie een open deur intrappen: Niet lui copy-pasten, maar controleren en falsificeren. Verantwoord omgaan met AI begint met een beetje begrip van hoe het allemaal werkt. Dus…

Hoe werkt een LLM of GPT eigenlijk?

LLM staat voor large language model, GPT voor Generative Pretrained Transformer. Generative betekent dat het model zelf (nieuwe) output (tekst) kan genereren. Het model is getraind met een grote hoeveelheid tekst. Daarvoor is data verzameld. Veel data. In het geval van ChatGPT is dat informatie van het internet, inclusief boeken. Daarmee heeft het model ‘geleerd’ patronen in tekst te ontdekken en op basis daarvan kan het dus zelf (nieuwe) tekst te genereren. Transformer verwijst naar de architectuur (ontwerp) van het model. ChatGPT is feitelijk GPT met chatinterface. 

GPT-modellen begrijpen taal niet zoals wij dat doen. Het zijn statistische modellen die verbanden tussen woord(del)en berekenen. Hoe dat werkt? Bekijk de volgende zin: ‘De studenten openden …’

Een taalmodel als GPT heeft in feite de opdracht statistisch te berekenen welk woorddeel (token genoemd) waarschijnlijk het volgende is en de tekst af te maken. In ons voorbeeld komt het model gelet op de trainingsdata met de volgende alternatieven: ‘hun’, ‘de’, ‘het’, ‘niet’, ‘geen’, ‘wel’, ‘gisteren’ etc. 

Per woord bekijkt het model de statistische kans dat dát woord volgt op het voorgaande. Dit is de reden dat je ChatGPT soms ziet ‘weifelen’, niet omdat het twijfelt als mensen, maar omdat het berekent wat het volgende woord zou moeten zijn. Stel nu dat gelet op de trainingsdata het woord ‘hun’ de meest waarschijnlijk volgende token is, dan zal dat woord gekozen worden: ‘De studenten openden hun …’

GPT berekent vervolgens het volgende woord: ‘tas’, ‘boeken’, ‘voordeur’, ‘fiets’, ‘portemonnee’ … etc. etc...

Zo’n model ‘begrijpt’ geen snars van de tekst. Het ontdekt patronen en genereert op basis daarvan nieuwe tekst. En daarbij imiteert het (de patronen uit) de trainingsdata.

Context en prompting

Een GPT-model kijkt voor de voorspelling van de volgende token niet enkel naar het voorgaande woord(deel) (n-1), maar ook naar woord(del)en die daaraan voorafgaan (n-2: ‘studenten’, n-3: ‘de’, enzovoorts). ChatGPT kan 2048 woorden betrekken in zijn berekening (n-2048). Dat is de context die het model gebruikt om het volgende woord te bepalen.

Vanwege die context kan een generatief taalmodel als ChatGPT coherente tekst genereren. Een voorbeeld. Als je alleen kijkt naar de woorden ‘de studenten openden’ zal ‘opgewonden’ mogelijk niet het meest waarschijnlijke volgende woord zijn. Maar afhankelijk van de context kan dat wel: ‘In een verlaten oude bibliotheek, vergeten door de tijd, ontdekte een groepje nieuwsgierige studenten een mysterieuze kist. … De studenten openden opgewonden de verroeste sloten. … Ze hielden hun adem in …’

Met je opdracht (prompt) geef je context die het model gebruikt om het volgende woord te voorspellen. Daarom is prompting zo belangrijk. Hoe meer context je geeft, hoe coherenter het model zal antwoorden. 

GPT imiteert de trainingsdata. Dat wetende kun je met prompts de kwaliteit en het gedrag van het model beïnvloeden: ‘Schrijf als Charles Dickens’ versus ‘Antwoord als een advocaat’. Andrej Karpaty, onderzoeker en een van de oprichters van OpenAi, adviseert daar gebruik van te maken en geeft een aantal slimme tips: vraag GPT te antwoorden als een expert in het vakgebied, of als iemand met een IQ van 120. Dan krijg je betere antwoorden. Vraag je te antwoorden als iemand met een IQ van 400 dan krijg je bagger bij gebrek aan data.

Randomisatie

Als je drie keer exact dezelfde prompt invoert, krijg je drie keer een anders geformuleerd antwoord. Hoe zit dat? ChatGPT kiest niet altijd het meest waarschijnlijke woord. Ook minder waarschijnlijke krijgen een kans. Er vindt als het ware een soort van loterij plaats. Het model heeft dus een zekere mate van willekeur.

Een en ander kan leiden tot onzinnige, onlogische en zelfs onware uitspraken. Het model heeft bij wijze van spreken een verkeerde afslag genomen. Het is begonnen met ‘hallucineren’ en stopt daar uit zich zelf niet mee. GPT kan niet zelf uit de loop komen. Je kunt daar wel wat invloed op hebben met je prompt: ‘Je bent een expert… Leg stap voor stap uit ….’of: ‘Reflecteer op je antwoord. Heb je de opdracht goed uitgevoerd?’

Maar je zult altijd alert moeten zijn op onzin. 

Conclusie

GPT kan bij het genereren van informatie soms verzinnen (hallucineren) en daarmee gebruikers misleiden. Met goede prompts bied je context aan het model en daarmee heb je een bepaalde invloed op de kwaliteit van de output. Belangrijk is om te benadrukken dat je weliswaar invloed hebt, maar dat 100% nauwkeurigheid niet haalbaar is. Dat is inherent aan deze modellen.


Een gezonde dosis achterdocht blijft dus nodig, hoeveel goede ervaringen je ook hebt gehad, en hoe overtuigend de antwoorden ook mogen klinken.
________________________________________
Wil je meer weten over de techniek, prompting en hoe GPT is getraind (deze blog schetst een sterk vereenvoudigd beeld), bekijk dan de presentatie van Andrej Karpaty, onderzoeker en mede-oprichter van OpenAi tijdens Microsoft Build 2023.

Deze website maakt gebruik van functionele en analytische cookies conform regelgeving van de Autoriteit Persoonsgegevens. De cookies worden dus niet gebruikt voor marketingdoeleinden. Bekijk voor meer informatie ons privacybeleid.
Ik begrijp het