Door de toenemende digitalisering in de zorg, bijvoorbeeld via patiëntenportalen, en de komst van een gezagsvoorziening waarmee organisaties kunnen controleren wie het gezag heeft over een kind, kwam een vraag uit de zorgpraktijk opnieuw naar voren: wanneer is toestemming van een kind tussen 12 en 16 jaar nodig voor toegang van gezaghebbende ouders of voogden tot medische gegevens, en wanneer is die toestemming rechtsgeldig? Op verzoek van Nictiz heeft een expertcommissie deze vraag onderzocht.
Het rapport maakt onder meer onderscheid tussen het recht op informatie (informatie die nodig is om tot een besluit over een medische behandeling te komen) en het recht op inzage dat betrekking heeft op (een breder deel van) het medisch dossier en daarmee ook de medische gegevens van het kind. Daarnaast worden knelpunten beschreven waar zorgverleners in de praktijk tegenaan lopen. Zo bieden veel EPD-systemen nog weinig mogelijkheden om toegang tot specifieke delen van een dossier te beperken, terwijl dat in sommige situaties wel wenselijk is. Lees hierover meer in het rapport.
AI wordt op steeds meer plekken in de zorg toegepast. Maar hoe kijken patiënten daar eigenlijk tegenaan? De Patiëntenfederatie Nederland deed onderzoek onder ruim 7.500 deelnemers naar hun ervaringen en verwachtingen rondom AI in de zorg. Daaruit blijkt dat patiënten AI vooral accepteren wanneer het zorgverleners ondersteunt, bijvoorbeeld bij diagnoses of administratieve taken. Tegelijkertijd bestaat er behoefte aan duidelijkheid: patiënten willen met name weten wat de risico’s zijn en wie verantwoordelijk is wanneer AI wordt gebruikt in hun zorg.
Nederland zet verdere stappen in de voorbereiding op de European Health Data Space (EHDS). In januari en februari zijn de eerste Minimal Viable Products (MVP’s) getest voor de toekomstige Nederlandse Health Data Access Body (HDAB). De HDAB wordt een centrale schakel in het secundair gebruik van gezondheidsdata onder de EHDS. Organisaties die onderzoek, innovatie of beleid willen baseren op gezondheidsdata zullen in de toekomst via dit systeem toegang moeten aanvragen.
Tijdens deze testdagen doorliepen betrokken partijen (waaronder IKNL, Amsterdam UMC, Vektis en de Nederlandse Hartregistratie) een volledige simulatie van het proces: van het vinden van datasets tot het aanvragen van een vergunning en het werken met data in een beveiligde verwerkingsomgeving. De tests waren succesvol, maar lieten ook knelpunten zien, bijvoorbeeld rond de beschikbaarheid van Europese infrastructuur en het opzetten van veilige analyseomgevingen.
Het programma Data voor Gezondheid heeft een landelijke implementatiestrategie gepubliceerd voor nieuwe processen en producten binnen het gezondheidsinformatiestelsel. Het doel: zorgen dat gezondheidsgegevens op het juiste moment en op de juiste plek beschikbaar zijn voor zorg, onderzoek en beleid.
De strategie beschrijft hoe implementaties van nieuwe digitale infrastructuren en standaarden stapsgewijs worden opgeschaald. Daarbij wordt gewerkt met een gefaseerde aanpak met koplopers, zodat praktijkervaring eerst wordt opgedaan voordat oplossingen breder worden uitgerold. Regionale samenwerkingsverbanden en brancheorganisaties krijgen een belangrijke rol bij de implementatie, binnen landelijke kaders die versnippering moeten voorkomen.
Het Nederlandse AI-initiatief GPT-NL heeft een nieuw voortgangsrapport gepubliceerd. Daaruit blijkt dat het project een nieuwe fase ingaat: na twee jaar ontwikkeling worden de eerste versies van het model nu getest bij een selecte groep organisaties.
GPT-NL is een generatief taalmodel dat wordt ontwikkeld door TNO, SURF en het Nederlands Forensisch Instituut. Het project richt zich op een soeverein en transparant AI-alternatief dat binnen Europese waarden en regelgeving kan worden gebruikt, bijvoorbeeld door overheden en kennisinstellingen. De eerste “launching customers” gaan het model nu in de praktijk testen en helpen het verder te verfijnen.
Voor organisaties die werken met gevoelige data (zoals overheid en zorg) kan GPT-NL een privacyvriendelijker en juridisch beter controleerbaar alternatief vormen voor bestaande AI-modellen.
Een recente studie onderzocht hoe 20 grote taalmodellen omgaan met medische misinformatie. Uit meer dan 3,4 miljoen tests blijkt dat modellen in ongeveer 32% van de gevallen foutieve medische informatie accepteerden. Vooral wanneer onjuiste claims werden gepresenteerd in formeel klinisch taalgebruik, zoals in ziekenhuisverslagen, bleken modellen relatief eenvoudig te misleiden.
De resultaten zijn relevant voor organisaties die AI inzetten in zorgprocessen, bijvoorbeeld voor het samenvatten van medische dossiers of patiëntcommunicatie. Zelfs de best presterende modellen accepteerden nog meer dan 10% van de onjuiste claims, terwijl sommige modellen boven de 50% uitkwamen.
Voor de praktijk betekent dit dat inzet van AI in medische contexten zorgvuldige validatie, menselijke controle en technische waarborgen vereist. Vanuit juridisch en compliance-perspectief raakt dit onder meer aan verplichtingen rond veiligheid, risicobeheer en kwaliteitsborging bij medische software, zoals onder de MDR en – afhankelijk van de toepassing – de AI Act. Zonder aanvullende controles bestaat het risico dat onjuiste medische adviezen via AI-systemen worden verspreid.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.