Kunstmatige intelligentie (AI) in de zorg belooft efficiëntie en betere uitkomsten voor patiënten. Tegelijk tonen onderzoeken aan dat medische AI gezondheidsverschillen kan vergroten voor gemarginaliseerde groepen, zoals mensen met een migratieachtergrond, een lage sociaaleconomische status, LGBTQ+ personen en mensen met een beperking. Zo werken algoritmen voor genetische risico’s veel minder goed voor niet-Europese populaties, omdat 79% van de trainingsdata uit Europa afkomstig is, terwijl Europa slechts 16% van de wereldbevolking vertegenwoordigt. Dit is een uitdaging die gezamenlijk moet worden aangepakt.
De rol van AI in gezondheidsverschillen
AI-systemen voor diagnose, prognose en behandeling kunnen de zorg transformeren en kosten reduceren. Tegelijkertijd kunnen deze systemen onbedoeld nieuwe problemen veroorzaken. Bias in trainingsdata kan leiden tot discriminatie van bepaalde patiëntgroepen. Ook algoritmen voor de toewijzing van gezondheidsmiddelen kunnen onbedoeld uitsluiting veroorzaken.
Daarnaast kunnen wantrouwen en een gebrek aan digitale infrastructuur ervoor zorgen dat kwetsbare groepen minder profiteren van AI-toepassingen in de zorg. Dit benadrukt het belang van aandacht voor de ethische, juridische en sociale aspecten van AI-ontwikkeling en -toepassing.
Over het ELSA Lab AI for Health Equity
Het ELSA Lab AI for Health Equity vertrekt vanuit het perspectief van gezondheidsrechtvaardigheid en maatschappelijk welzijn. Gezondheidsrechtvaardigheid betekent dat iedereen de mogelijkheid heeft om het hoogste niveau van gezondheid en welzijn te bereiken. Vanuit dit uitgangspunt richt het lab zich op de inzet van AI in de zorg, met bijzondere aandacht voor ondervertegenwoordigde groepen.
Het lab onderzoekt hoe twee concrete use cases, spraakanalyse voor lage geletterdheid en synthetische data voor bias-reductie, kunnen bijdragen aan eerlijkere medische AI. In een Open Living Lab worden deze toepassingen samen met patiëntgroepen, professionals en AI-ontwikkelaars getest, zodat oplossingen direct aansluiten bij de praktijk en bruikbaar zijn.
Richting geven aan verantwoorde AI voor gelijkheid binnen de zorg
Het ELSA Lab AI for Health Equity bouwt aan een ecosysteem van kennisdeling om het groeiende gebruik van medische AI op verantwoorde wijze te begeleiden. Binnen dit ecosysteem werken publieke, private en academische partijen samen aan gedeelde vraagstukken rond gezondheidsrechtvaardigheid. Dit omvat onder andere:
- Juridische en ethische richtlijnen voor het ontwerpen en evalueren van medische AI-systemen, met aandacht voor diverse patiëntenbehoeften en gezondheidswaarden.
- Onderzoek naar regelgeving, waarin de spanning tussen GDPR, de EU AI Act en de Medical Device Regulation in kaart wordt gebracht, inclusief praktische handelingsperspectieven.
- Fundamenteel onderzoek naar hoe zorgprofessionals en de samenleving AI in de zorg ervaren, en wat dit betekent voor vertrouwen en acceptatie.
- Kennisdeling via het ELSA Network, waardoor inzichten en best practices breder toegankelijk worden.
Dit onderzoek vindt plaats vanuit een gezondheidsrechtvaardigheidsperspectief. AI-systemen worden daarbij benaderd als onderdeel van hybride intelligentie, waarin mens en AI samenwerken. Het doel is niet om mensen te vervangen, maar om gezondheid en welzijn te versterken.
Samenwerkingspartners
Binnen het lab werken publieke, private en academische partners samen, waaronder:
- Academische partners: University of Amsterdam (leidend), Radboud University, Utrecht University, Amsterdam UMC, VU Amsterdam, Amsterdam University of Applied Sciences
- Maatschappelijke partners: MIND, SGAN, Vilans, GGD Amsterdam, Ben Sajet, Centre for Urban Mental Health
- Industriële partners: ITSLanguage, Syntho, Koninklijke Auris
Meer weten of samenwerken?
Neem contact op door een mail te sturen naar Prof. dr. mr. A. Anniek de Ruijter, Full Professor Health Law and Policy, University of Amsterdam (a.deruijter@uva.nl).
