Case Report
De magie van neurale netwerken
Inhoud:

    Auteur(s):

    Jessica Workum

    Case Report

    De magie van neurale netwerken

    Introductie

    Het menselijk brein is een complex en fascinerend orgaan en het vormt de basis voor onze gedachten, emoties en ons gedrag. Het is geen verrassing dat wetenschappers en ingenieurs hebben geprobeerd om dit systeem na te bootsen bij het ontwikkelen van artificiële intelligentie (AI) in zogeheten neurale netwerken. In dit artikel krijgt u een overzicht van de basisprincipes van neurale netwerken in AI en trekken we parallellen met het menselijk brein, zodat u een beter begrip krijgt van deze nieuwe technologie.

    De basis van AI: supervised en unsupervised learning

    Machine learning (ML) is een methode die computersystemen in staat stelt om te leren van gegevens zonder expliciete programmering. Een van de meest gebruikte technieken binnen ML is supervised learning. Hierbij worden reeds gelabelde gegevens gebruikt om voorspellingen te doen. Een voorbeeld hiervan is het detecteren van epileptische aanvallen op basis van EEG's. Het model wordt getraind met EEG's die vooraf gelabeld zijn als normaal of afwijkend. Zo leert het model automatisch insulten herkennen.[1]

    Bij unsupervised learning leert het model zonder labels, zoals bij clustering. Het model zoekt naar soortgelijke groepen op basis van honderden verschillende parameters. Een voorbeeld is het clusteren van neurotrauma patiënten op basis van de combinatie van demografische, klinische, laboratorium en beeldvormende data. Zo identificeren wij die subgroepen (fenotypes) die anders reageren op behandeling en andere uitkomsten hebben, zodat we hierop kunnen anticiperen.[2]

    De ontwikkelingen op het gebied van AI binnen de neuro-intensive care zijn momenteel helaas nog zeer beperkt.[3]

    Deep learning en neurale netwerken

    Deep learning is een subdomein van ML dat zich richt op het nabootsen van de werking van het menselijk brein met behulp van neurale netwerken. Neurale netwerken zijn geïnspireerd door de structuur en functie van biologische neuronen. Neurale netwerken kunnen zowel supervised als unsupervised worden toegepast.

    Een neuraal netwerk bestaat uit meerdere lagen van kunstmatige neuronen, zogeheten nodes, waarbij elke laag een bepaald aspect van de gegevens verwerkt (figuur 1). De eerste laag ontvangt de ruwe input, zoals een afbeelding of een reeks waarden. Vervolgens wordt deze informatie doorgegeven aan de volgende laag, die een complexer aspect van de gegevens verwerkt, totdat de informatie de laatste laag bereikt en eindresultaat produceert. De verbindingen tussen de nodes van de verschillende lagen hebben wisselende sterktes (gewichten), die tijdens het leerproces worden aangepast om tot het beste model te komen.

    Figuur 1: schematische weergave van een sterk gesimplificeerd neuraal netwerk. Er worden 3 features als input gebruikt en het bestaat uit 3 lagen. De nodes (rondjes) zijn met elkaar verbonden met ieder een eigen gewicht (lijnen).

    Neurale netwerken versus het menselijk brein

    Neurale netwerken zijn geïnspireerd door het menselijk brein: beide systemen leren door het aanpassen van de sterktes van hun verbindingen op basis van ervaring en kunnen patronen herkennen en voorspellingen maken op basis van de informatie die ze ontvangen. Ook kunnen zij beide nieuwe kennis genereren en problemen oplossen door bestaande informatie te combineren en te extrapoleren. Daarentegen bevat het menselijk brein circa 86 miljard neuronen, terwijl zelfs de grootste neurale netwerken ‘slechts’ enkele miljoenen kunstmatige neuronen hebben.

    De ‘black box’-problematiek van neurale netwerken

    Een uitdaging die vaak wordt geassocieerd met AI en neurale netwerken is de zogenaamde ‘black box’-problematiek.[4] Dit verwijst naar het gebrek aan transparantie en begrip van hoe een AI-systeem tot een bepaald resultaat komt, wat zorgen kan geven over de verantwoordelijkheid en ethiek in AI-toepassingen. Dit is vooral relevant bij neurale netwerken, omdat hun werking vaak moeilijk te interpreteren is, zelfs voor experts. Tijdens het leerproces past een neuraal netwerk de gewichten aan van de verbindingen tussen de nodes om de nauwkeurigheid van de voorspellingen te verbeteren. Deze aanpassingen worden gemaakt op basis van een complexe reeks berekeningen en het is vaak moeilijk om achteraf te achterhalen welke specifieke gewichtsaanpassingen hebben geleid tot een bepaalde uitkomst, laat staan om dit inzichtelijk te maken in een klinische context.

    Maar zeg nu zelf: onze kennis van hoe het menselijk brein tot bepaalde gedachten en beslissingen komt is toch eigenlijk ook zeer beperkt. Toch vertrouwen we dagelijks op onze eigen hersenen om complexe taken uit te voeren en belangrijke besluiten te nemen. Waarom zouden we niet ook kunnen vertrouwen op de voorspellingen en beslissingen die worden gemaakt door neurale netwerken, zelfs als we niet precies begrijpen hoe ze tot stand komen? Het is belangrijk om te blijven leren en begrijpen hoe deze technologieën werken om hun potentieel volledig te benutten en hun beperkingen te begrijpen. De Intensivist helpt u hierbij mee.

    Over de auteur

    Jessica Workum is intensivist en klinisch farmacoloog in het ETZ. Daarnaast is zij opgeleid aan de TU/e als biomedisch ingenieur en promoveert zij op het gebied van AI op de IC. Bij Pacmed is zij betrokken bij toekomstige productontwikkeling en implementatie van AI in het zorgproces. Zij geeft in De Intensivist updates over AI op de IC.

    Referenties

    1. Nafea MS, Ismail ZH. Supervised Machine Learning and Deep Learning Techniques for Epileptic Seizure Recognition Using EEG Signals—A Systematic Literature Review. Bioengineering 2022; 9.
    2. Åkerlund CAI, Holst A, Stocchetti N, et al. Clustering identifies endotypes of traumatic brain injury in an intensive care cohort: a CENTER-TBI study. Crit Care 2022; 26:1–15.
    3. Chaudhry F, Hunt RJ, Hariharan P, et al. Machine Learning Applications in the Neuro ICU: A Solution to Big Data Mayhem? Front Neurol 2020; 11:1–11.
    4. Moss L, Corsar D, Shaw M, Piper I, Hawthorne C. Demystifying the Black Box: The Importance of Interpretability of Predictive Models in Neurocritical Care. Neurocrit Care 2022; 37:185–191.