Ethische uitdagingen van AI in de gezondheidszorg
Auteur(s):
Jessica Workum, Michel van Genderen
Correspondentie:
J. Workum j.workum@etz.nl
Ethische uitdagingen van AI in de gezondheidszorg
Auteurs
Jessica Workum is intensivist en klinisch farmacoloog in het ETZ. Daarnaast is zij opgeleid aan de TU/e als biomedisch ingenieur en promoveert zij op het gebied van AI op de IC. Bij Pacmed is zij betrokken bij toekomstige productontwikkeling en implementatie van AI in het zorgproces.
Michel van Genderen is internist-intensivist in het Erasmus MC. Daarnaast richt hij zich op het ontwikkelen en implementeren van innovatieve technologieën binnen het zorgproces. Hij is medeoprichter van de DataHub en van REAiHL en betrokken bij het Europese Health Data Space-initiatief.
In de medische sector kunnen zich tal van ethische dilemma’s voordoen. Zo kunnen zorgprofessionals die geconfronteerd worden met een ethisch dilemma dit benaderen met hun persoonlijke moraal als leidraad, maar kunnen ze ook vertrouwen op ethische principes en beroepsrichtlijnen raadplegen om een beslissing te nemen
Ethiek
Ethiek vormt een belangrijke discipline binnen de filosofie die zich richt op het begrijpen en analyseren van normen, waarden en gedragsregels. Onderzocht wordt hoe mensen beslissingen nemen over goed en fout en wat de basis is voor die keuzes. Moraliteit wordt binnen dit kader gedefinieerd door persoonlijke of culturele overtuigingen, principes en normen die individuen hanteren om gedrag te beoordelen. Dit kan sterk variëren op basis van cultuur, traditie, religie en persoonlijke overtuigingen. Het domein van de ethiek biedt een gestructureerd raamwerk om dilemma’s op een methodische en doordachte manier te benaderen en de diversiteit aan normen te onderzoeken.
Met de opkomst van kunstmatige intelligentie (AI) in de gezondheidszorg rijzen er ethische vraagstukken die grofweg in drie categorieën kunnen worden ingedeeld: 1) privacy en informed consent, 2) bias en fairness, 3) verantwoordelijkheid en aansprakelijkheid.[1] In dit artikel lichten we deze thema´s kort toe om u basale kennis mee te geven over de ethische uitdagingen van AI in ons werkveld.
Privacy & informed consent
Aangezien medische gegevens buitengewoon gevoelig zijn, staat privacy centraal bij het inzetten van AI in de gezondheidszorg. Het vinden van een balans tussen het waarborgen van deze privacy en het benutten van de voordelen van datagedreven zorg vormt een uitdaging. Oplossingen omvatten bijvoorbeeld het ontwikkelen en implementeren van strenge beveiligingsprotocollen. Ook het aanpassen van patiëntenvoorlichting over het gebruik van hun gegevens hoort daarbij en het bieden van controle aan patiënten over hun data. Daarnaast wordt met behulp van technologische innovatie getracht om te komen tot betere prestatie van AI-modellen. Daarvoor gebruiken we gesimuleerde data (synthetische data) of het gedecentraliseerd trainen van AI-modellen (federated learning).[2] AI-modellen worden getraind op meer volume, met behoud van privacy van het individu.
Bias & fairness
AI-systemen leren van de data waarmee ze worden getraind. Als deze gegevens niet evenwichtig of onvoldoende representatief zijn (bijvoorbeeld als de dataset voornamelijk uit mannen bestaat), kan het algoritme bestaande vooroordelen reproduceren of introduceren (algoritmische bias). Dit kan leiden tot ongelijke diagnostisering of behandeling van patiënten, vooral bij minderheidsgroepen.[3] Het is daarom cruciaal om als zorgprofessional te weten op welke data een AI-model is getraind alvorens het toe te passen in de kliniek. Er zijn verschillende kaders voorgesteld om algoritmische bias te verminderen, maar deze oplossingen blijken, hoewel tot op zekere hoogte nuttig, niet het kernprobleem aan te pakken, namelijk incorrecte klinische gegevens. In de VS is daarom gestart met verschillende initiatieven om tot inclusieve en transparante gezondheidsdatabases te komen.[4] Een andere oplossing is het verbeteren van algoritmetransparantie en -registratie.[5]
Verantwoordelijkheid & aansprakelijkheid
In de context van AI in de gezondheidszorg is het vaststellen van verantwoordelijkheden een complexe kwestie. Bij fouten veroorzaakt door een AI-model kan de verantwoordelijkheid bij de zorgprofessional, de softwareontwikkelaar of de zorginstelling liggen. Deze verantwoordelijkheden zijn tot op heden nog niet duidelijk gedefinieerd.[6] De meningen over waar welke verantwoordelijkheid ligt, zijn verdeeld.[7] Leveranciers moeten transparant zijn over modelontwikkeling en dienen te investeren in ‘AI-uitlegbaarheid’ (AI explainability). Zorgprofessionals moeten tot op zekere hoogte kennis hebben van AI-modellen, zodat zij de voorspellingen in de juiste context weten te plaatsen bij de klinische besluitvorming, zogeheten ‘AI-geletterdheid’ (AI literacy). En als laatste dienen zowel ziekenhuizen als zorgverzekeraars visie en strategie te ontwikkelen voor de toepassing van AI in de gezondheidszorg, waarin deze verantwoordelijkheden worden beschreven.
Responsible and Ethical AI for Healthcare Lab (REAiHL)
Om ervoor te zorgen dat AI veilig wordt toegepast in de kliniek is recent in het Erasmus MC het eerste ethieklab in de zorg ter wereld gelanceerd.[8] Momenteel haalt minder dan 2% van alle AI-modellen de klinische praktijk en zijn er veel vragen vanuit de zorgprofessionals. Durven wij bijvoorbeeld in de toekomst een patiënt niet op te nemen als het AI-model dat adviseert? Vanuit dit lab wordt daarom samen met de World Health Organisation (WHO) onderzocht hoe de ethische principes het beste kunnen worden toegepast bij het ontwikkelen maar vooral implementeren en toepassen van AI. Hierin zal het zwaartepunt liggen op uitlegbaarheid en transparantie van het AI-model naast gelijkheid en verantwoordelijkheid van het AI-model. In dit lab werken verpleegkundigen, artsen, data scientists, data engineers en ethici samen. Contact opnemen kan via datahub@erasmusmc.nl
Referenties
- Karimian G, Petelos E, Evers SMAA. The ethical issues of the application of artificial intelligence in healthcare: a systematic scoping review. AI Ethics 2022; 2:539–551.
- Rieke N, Hancox J, Li W, et al. The future of digital health with federated learning. npj Digit Med 2020; 3:1–7.
- Seyyed-Kalantari L, Zhang H, McDermott MBA, Chen IY, Ghassemi M. Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs in under-served patient populations. Nat Med 2021; 27:2176–2182.
- Ganapathi S, Palmer J, Alderman JE, et al. Tackling bias in AI health datasets through the STANDING Together initiative. Nat Med 2022; 28:2232–2233.
- Benjamens S, Dhunnoo P, Meskó B. The state of artificial intelligence-based FDA-approved medical devices and algorithms: an online database. npj Digit Med 2020; 3:1–8.
- Nicholson Price II W, Gerke S, Glenn Cohen I. Potential Liability for Physicians Using Artificial Intelligence. JAMA – J Am Med Assoc 2019; 322:1765–1766.
- Khullar D, Casalino LP, Qian Y, Lu Y, Chang E, Aneja S. Public vs physician views of liability for artificial intelligence in health care. J Am Med Informatics Assoc 2021; 28:1574–1577.
- Laar J van. Erasmus MC en TU Delft openen eerste AI-ethieklab voor de zorg. 2023.