AI op de IC
AI op de IC
Inhoud:

    Correspondentie:

    Jessica Workum - j.workum@etz.nl
    AI op de IC

    AI op de IC

    Het zal u niet ontgaan zijn: de grote taalmodellen (Large Language Models, LLM’s) zijn inmiddels niet meer weg te denken uit onze levens. Influencers gebruiken ze voor het schrijven van social media posts, programmeurs om sneller te coderen, en zoekmachines om hun antwoorden te verbeteren. Ook binnen de zorg druppelen de taalmodellen binnen. Zo hebben het Elisabeth-TweeSteden Ziekenhuis en het Universitair Medisch Centrum Groningen als eerste ziekenhuizen buiten de Verenigde Staten deze zogeheten generatieve AI geïmplementeerd in hun elektronisch patiëntendossier, met als doel het verlichten van de administratieve last voor de zorgverlener.[1]

    De komst van LLM’s naar de zorg maakt dat ook zorgverleners in grote lijnen de achterliggende techniek van deze modellen moeten kennen, zodat zij niet alleen weten waar de kansen liggen, maar juist ook waar de risico’s schuilen. Door een LLM slim te benaderen met zogeheten prompt engineering kan de gebruiker deze risico’s verminderen. In dit artikel worden hiertoe handvatten gegeven.

    Hoe werkt een taalmodel?

    Een LLM is een deep learning-model getraind op een enorme hoeveelheid taal. Het model heeft uit deze taal de onderliggende structuur gehaald: zo worden namelijk sommige woorden of woordvolgordes herhaald. Deze structuur van taal is het uiteindelijke AI-model. En dat betekent dus dat een LLM niets meer en niets minder doet dan het volgende woord voorspellen op basis van de taal waarop het getraind is. In deze bergen hoeveelheid taal zit natuurlijk ook informatie, en deze informatie is derhalve aan te roepen door het taalmodel te ‘bevragen’. Maar als er over een bepaald onderwerp slechts weinig bekend is, dan zal het taalmodel gewoon het volgende woord voorspellen: de output van het taalmodel staat er met dezelfde stelligheid, terwijl de inhoud van de zin mogelijk niet klopt.

    De vier basisprincipes van prompt engineering

    Er zijn manieren om uit de ‘ballenbak van taal’ de juiste kleur ballen (dat wil zeggen, de juiste informatie) te vissen. Dit is prompt engineering: de verfijning van de instructie aan het taalmodel, zodat de informatie die eruit komt betrouwbaarder is. Inmiddels is dit een nieuw beroep geworden en kunt u hierin volledig de diepte in, maar ik ben van mening dat iedereen de basics van prompt engineering zou moeten kennen om op relatief simpele wijze de antwoorden van een LLM te verbeteren. En gelukkig sluiten deze best goed aan bij onze eigen werkwijze: de SBAR.

    S – situation, setting of scenario

    Geef het taalmodel een rol of beschrijf een bepaalde setting. Bijvoorbeeld, door het model te vragen ‘Als een expert in acute geneeskunde, hoe zou u deze symptomen interpreteren?’ zal leiden tot meer gefocuste en bruikbare antwoorden dan wanneer deze rol niet wordt toebedeeld. De rolbeschrijving kan ook veel uitgebreider, met een volledige setting of scenario, maar over het algemeen geeft alleen al de beschrijving van een rol of beroep veel betere resultaten.

    B – background

    Geef het taalmodel achtergrondinformatie: het is voor een taalmodel veel gemakkelijker een artikel te lezen en de vraag op basis van dit artikel te beantwoorden, dan om de informatie uit de ‘ballenbak’ te halen. Met andere woorden: kopieer en plak relevante informatie, zoals een wetenschappelijk artikel, in uw prompt (instructie). De betaalde versie van ChatGPT geeft de mogelijkheid om PDF’s te uploaden.

    A – assignment

    Geef een concrete opdracht, en wees specifiek in wat u wilt dat het taalmodel wel en niet doet. In plaats van een brede vraag zoals ‘Wat moet ik doen?’, is het effectiever om te vragen ‘Geef een lijst van mogelijke oorzaken en te nemen vervolgstappen als de koffieautomaat defect is bij de anesthesiologie.’. Dit leidt tot meer gerichte en praktische antwoorden.

    R – response

    Geef aan hoe u wilt dat het taalmodel antwoordt. Dit kan letterlijk zijn, zoals het format (in tabelvorm of bulletpoints), maar ook de toon en taalgebruik (formeel of informeel). Een belangrijke toevoeging is om het taalmodel te laten beredeneren hoe het tot een antwoord komt. Hierdoor wordt het taalmodel wel breedsprakiger, maar het verbetert de antwoorden aanzienlijk. Een veelgebruikte zin die wordt toegevoegd aan een prompt is bijvoorbeeld ‘Let's work this out in a step by step way to make sure we have the right answer.’

    Nadat het taalmodel een antwoord heeft gegeven, kunt u hier vervolgens weer verder op reageren of verfijnen. Enkele tips: geef aan wat goed is van het antwoord en wat niet, en geef hierbij een voorbeeld. Maar voor diepere informatie over prompt engineering, bestaan verschillende websites.[2]

    Conclusie

    Prompt engineering is een essentiële vaardigheid voor iedereen die meer wil halen uit LLM’s. Door bovenstaande vier basisprincipes toe te passen, kunt u effectiever gebruik maken van deze opkomende tools.

    Voorbeeld met prompt engineering

    Voorbeeld zonder prompt engineering