Artificial Intelligence (AI) wordt steeds vaker ingezet in de zorgsector. De chatbots die gebruik maken van large language models, ofwel LLM’s, schieten uit de lucht. Een patiënt kan bijvoorbeeld chatten over zijn klachten en op basis van het antwoord van de chatbot, vervolgstappen bepalen zoals het nemen van pijnstilling of het bezoeken van de huisarts. Er worden niet alleen chatbots ontwikkeld voor de patiënt maar ook voor artsen. Hierbij kan je denken aan een chatbot waar een arts symptomen van een patiënt kan invoeren en al chattende tot een bepaalde diagnose komt. In dit blog leg ik uit waar je op moet letten om te bepalen of jouw chatbot onder de MDR valt.
Allereerst een vraag vooraf: waarom is dit eigenlijk een relevante vraag? Het antwoord is eenvoudig. Wanneer je chatbot kwalificeert als een medisch hulpmiddel, val je onder de Medical Device Regulation (MDR). Afhankelijk van de rol die je vervult zal je aan de verplichtingen van deze wet moeten voldoen zoals het opstellen van technische documentatie, het uitvoeren van een conformiteitsbeoordelingsprocedure en het aanbrengen van een CE-markering. Daarnaast heeft een kwalificatie als medische software implicaties voor de risicoclassificatie van de AI-chatbot onder de AI Act.
Oké, het is nu duidelijk dat dit een relevante vraag is maar wanneer kwalificeert een AI-chatbot nou als een medisch hulpmiddel volgens de MDR? Voor deze beoordeling doorloop je een aantal stappen. Het belangrijkste criterium is of de chatbot een medisch doeleinde heeft of niet. Bij een medisch doeleinde kan je denken aan diagnose, monitoring, voorspelling of behandeling van een ziekte. Wanneer de AI-chatbot enkel informatie geeft over de praktische aspecten van de zorgverlening zoals openingstijden of het plannen van afspraken, heeft de chatbot geen medisch doeleinde. Wanneer de chatbot een gebruiker gericht advies geeft qua vervolgstappen bijvoorbeeld het zo snel mogelijk zien van een arts op de spoedeisende hulp, is hier hoogstwaarschijnlijk wel sprake van. Om te kunnen bepalen of er een medisch doeleinde is, is het beoogd doel van de fabrikant een belangrijke graadmeter.
Maar niet alleen het beoogd doel van de fabrikant is van belang, ook het redelijkerwijs te verwachten gebruik van de chatbot moet worden meegenomen. De vormgeving en presentatie van de chatbot kunnen een rol spelen bij de beoordeling hoe een gebruiker de chatbot zal inzetten. Ook wanneer een chatbot volgens de fabrikant (primair) geen medisch doel heeft, maar dit in de praktijk wel blijkt, is er sprake van een medisch hulpmiddel. Neem bijvoorbeeld een chatbot die na het stellen van triage-achtige vragen een advies geeft voor het maken van de juiste afspraak bij een zorgverlener inclusief een beoordeling van de urgentie. De fabrikant zou op de website en in marketingmaterialen kunnen claimen dat deze chatbot louter een administratief doeleinde heeft, namelijk: assisteren bij het maken van de juiste afspraak. Ondanks de uitlatingen van de fabrikant, volgt uit de praktijk dat er sprake is van een medisch doeleinde, en dus van een medisch hulpmiddel.
De beoordeling of er sprake is van een medisch doeleinde moet per chatbot worden gedaan. Hierbij raden wij aan om de chatbot uitvoerig te testen om kritisch te beoordelen hoe de AI-chatbot in de praktijk functioneert. Tijdens het testen dient te worden geanalyseerd of de chatbot toch niet onbedoeld medisch advies genereert.
Een ander relevant criterium om te voldoen aan de definitie van software als een medisch hulpmiddel is dat de output die voortkomt uit de AI-chatbot gericht moet zijn op individuele patiënten. Een chatbot die is ontworpen om enkel algemeen gezondheidsadvies te geven dat voor alle patiënten hetzelfde is, valt daarom niet onder de MDR. Hierbij kan je denken aan een chatbot die op basis van wetenschappelijke studies een overzicht genereert van de meest voorkomende oorzaken van rugklachten. Een chatbot die voor een groep patiënten een bepaald behandelplan formuleert, is echter wel weer gericht op de specifieke patiënt. Ook dit criterium vergt een beoordeling per specifieke chatbot.
Nadat duidelijk is dat de AI-chatbot inderdaad een medisch hulpmiddel is, moet worden gekeken in welke risicoklasse de chatbot valt. Voor software staan er specifieke classificatieregels in de MDR, zie voor meer informatie ons eerdere blog hierover.
Hoewel er steeds meer guidance beschikbaar is, blijft de risicoclassificatie van AI-chatbots onder de MDR in veel gevallen interpretatief en contextafhankelijk.[1] Allereerst zal moeten worden beoordeeld of de AI-chatbot kwalificeert als clinical support software. Er is sprake van clinical support software wanneer de chatbot output genereert die zelfstandig diagnostische of therapeutische beslissingen van een arts ondersteunt. Denk bijvoorbeeld aan de situatie waar een zorgverlener op een directe of gestructureerde manier beslisinformatie ontvangt op basis van de gesprekken met een chatbot.
Afhankelijk van de invloed die de output heeft op klinische besluitvorming én de ernst van de situatie van de patiënt, kwalificeert de chatbot die wordt ingezet als clinical support software als klasse IIa, IIb of III. Wanneer geen sprake is van clinical support software, valt de chatbot in principe in klasse I. Hierbij kan je denken aan een chatbot die een patiënt ondersteunt met het identificeren van zijn gezondheidsproblemen.
Wanneer je niet wilt dat je AI-chatbot als software als een medisch hulpmiddel kwalificeert, moet je hier rekening mee houden bij de inrichting van de chatbot, zowel bij de user interface als bij de technische inrichting. Maak vooraf duidelijk dat de chatbot niet bedoeld is voor het geven van medisch advies en geef aan waar deze wél voor is bedoeld: bijvoorbeeld het geven van achtergrondinformatie over bepaalde fysieke klachten. Daarbij is het nuttig om te werken met gebruiksvoorwaarden waar in meer detail kan worden uitgewerkt waar de chatbot wel of niet voor bedoeld is.
Daarnaast dien je de chatbot de juiste technische instructies mee te geven. Het zou bijvoorbeeld een optie kunnen zijn om te werken met gesloten velden. In plaats van dat gebruikers iets kunnen typen in een open invulveld, kunnen zij bepaalde opties aanvinken. Hierdoor kan je voorkomen dat de chatbot medisch advies geeft terwijl dit eigenlijk niet de bedoeling is. Dit zal echter niet altijd recht doen aan de doeleinden van de chatbot.
Tot slot, wil ik graag nog even kort benoemen dat naast de MDR en de AI Act ook nog andere juridische vragen spelen bij AI-chatbots in de zorg bijvoorbeeld over privacy, aansprakelijkheid of het auteursrecht. Dit blog moet om deze reden niet worden gezien als een overkoepelend juridisch overzicht.
Ben jij jurist, compliance-, privacy-, of security officer, CAICO of werkzaam in de zorg-ICT en krijg je steeds vaker vragen over AI en medische software? Dan sta je voor de uitdaging om deze innovatie te laten voldoen aan complexe wetgeving zoals de MDR en de AI Act.
Onze Certified Health Compliance Officer-opleiding geeft je de kennis en handvatten om:
Met de komst van de AI Act en de steeds strenger toegepaste MDR is dit hét moment om je kennis op peil te brengen. Zo zorg je dat jouw organisatie innovatief kan blijven, zonder compliance-risico’s.
Benieuwd hoe de MDR in de dagelijkse zorgpraktijk uitpakt? In onze MDR-podcastaflevering deelt Business Development Manager Tessa van Schijndel haar ervaringen. Zij adviseert dagelijks zorgorganisaties en geeft waardevolle inzichten uit de praktijk.
[1] MDCG 2019-11 rev.1 - Qualification and classification of software - Regulation (EU) 2017/745 and Regulation (EU) 2017/746 (June 2025) & Workum, Jessica and Krijgsman, Sade and Vajda, Ildiko and van Stokkum, Robin and van den Brand, Jan and Gommers, Diederik en Van Genderen, Michel E., Is My LLM Application Considered a Medical Device under the MDR? (March 23, 2025).
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.