Ook de verzekeringswereld ontkomt niet aan AI. Waar veel processen jarenlang grotendeels handmatig, arbeidsintensief en afhankelijk van specialistische menselijke kennis waren, zien we nu een verschuiving naar digitale, datagedreven besluitvorming. Verzekeraars experimenteren volop met algoritmen die claims analyseren, risicoprofielen opstellen en zelfs klantcommunicatie vormgeven. Het enthousiasme is groot, maar dat geldt ook voor de zorgen. Want hoe ver mag een verzekeraar gaan in het verzamelen en gebruiken van data? Wanneer wordt personalisatie discriminatie? En hoe houd je fraudeurs buiten in een tijd waarin ook AI voor hen een krachtig hulpmiddel is?
In dit blog belicht ik drie zogenoemde “hot topics” die momenteel centraal staan in de discussie over AI binnen de verzekeringswereld, namelijk:
Samen laten zij zien hoe ingrijpend en veelzijdig de impact van AI is op een sector die traditioneel vooral draaide om voorzichtigheid en risicobeheersing.
De eerste ontwikkeling die opvalt, is de opkomende integratie van generatieve AI in de kernprocessen van verzekeraars. Claimafhandeling is een domein dat baat heeft bij automatisering. Claims bestaan vaak uit een mix van foto’s, rapporten, verklaringen, polisvoorwaarden en correspondentie. Voor schadebehandelaars betekent dat veel leeswerk en een afweging van feiten. Generatieve AI-systemen kunnen deze informatie sneller verwerken en structureren. Ze halen relevante passages uit documenten, vergelijken ze met polisvoorwaarden en signaleren onregelmatigheden. Dat maakt het proces sneller en zorgvuldiger. Ook in underwriting groeit de interesse en het gebruik van generatieve AI. Underwriting is het proces waarbij een verzekeraar tegen betaling financiële risico’s op zich neemt. Het omvat ook het uitvoeren van onderzoek en het beoordelen van de mate van risico die elke aanvrager met zicht meebrengt alvorens dat risico op zich te nemen. Waar acceptanten vroeger afhankelijk waren van handmatige analyses en ervaring, kunnen zij nu putten uit modellen die grote hoeveelheden historische data combineren met actuele informatie. AI maakt het in theorie mogelijk om risico’s op een meer gedetailleerde en efficiëntere manier te beoordelen. Het resultaat: snellere acceptatie, beter inzicht en efficiënter gebruik van bedrijfsmiddelen.
Generatieve AI brengt ook nieuwe vragen met zich mee. Een van de vragen op dit gebied, is de vraag naar uitlegbaarheid. Generatieve AI is vaak een “black box”: het model komt tot conclusies op basis van verbanden in data die voor mensen niet te volgen zijn. Wanneer een claim wordt afgewezen moet de verzekeraar kunnen uitleggen waarom.
Dit volgt zowel uit de jurisprudentie[1] als uit de Gedragscode Claimbehandelingvan het Verbond van Verzekeraars. Dat is niet alleen juridische verplichting, maar ook essentieel om het vertrouwen van klanten te behouden.
Daarnaast is ook de verantwoordelijkheid voor het maken van fouten een belangrijk thema. Wat gebeurt er als een gegenereerd rapport onjuiste conclusies bevat en een claim daardoor ten onrechte wordt afgewezen? De verzekeraar blijft eindverantwoordelijk voor de uitkomsten van de generatieve AI, maar doordat leveranciers, datakwaliteit en menselijke controle een steeds grotere rol spelen, wordt die verantwoordelijkheid waziger. Dit benadrukt de noodzaak van robuuste wet- en regelgeving voor het gebruik van generatieve AI en duidelijke kaders voor menselijk toezicht.
De tweede topic lijkt op het eerste gezicht positief en komt voort uit het vorige onderwerp, namelijk: personalisatie. Verzekeraars kunnen hun producten door gebruik van AI steeds specifieker per persoon aanbieden. Dat lijkt efficiënt: iemand die voorzichtig rijdt, gezond leeft en nooit in zijn leven rookt kan bijvoorbeeld worden beloond met een lagere premie. Toch blijft dit een beladen onderwerp wanneer niet duidelijk is welke gegevens er worden gebruikt voor de beoordeling en waarom. Het gebruik van een postcode die etniciteit of inkomensniveau voorspelt, kan bijvoorbeeld leiden tot hogere premies voor groepen die maatschappelijk kwetsbaarder zijn, wat ethische vragen oproept over gelijke behandeling en maatschappelijke verantwoordelijkheid. Dit maakt dat de transparantie vanuit verzekeraars essentieel is wanneer AI wordt ingezet voor het personaliseren van verzekeringen.
De AVG dwingt verzekeraars om kritisch te kijken naar de persoonsgegevens die zij verwerken en met welk doel deze persoonsgegevens worden verwerkt. Dataminimalisatie, transparantie en proportionaliteit, welke principes direct worden benoemd in de AVG, schuren met de personalisatie van verzekeringen wanneer hier niet volledige inzage wordt gegeven in de gebruikte persoonsgegevens. Daarnaast merkt de AI Act systemen voor risicobeoordeling en pricing aan als hoog-risico AI, wat betekent dat verzekeraars vanaf 2 augustus 2026 verplicht worden om aan verscheidene verplichtingen te voldoen voor een compliant gebruik van de AI-toepassing.
De uitdaging voor verzekeraars is om de balans te vinden tussen innovatie en gelijkheid. Personalisatie kan enorme waarde bieden, maar alleen als consumenten begrijpen hoe het werkt, wanneer gegevens rechtmatig worden gebruikt en als duidelijk is dat personalisatie niet leidt tot uitsluiting of oneerlijke verschillen in de toewijzing van premies. Een verzekeraar die deze balans weet te vinden, kan dit inzetten als onderscheidende factor, maar loopt wel risico’s op het gebied van reputatie en compliance wanneer er fouten worden gemaakt.
Waar verzekeraars AI gebruiken om efficiënter te werken, maken fraudeurs gebruik van AI om verzekeraars te misleiden. Deepfake-video’s van schadegevallen, gemanipuleerde foto’s, neppe identiteiten en frauduleuze AI-gegenereerde documenten zijn inmiddels serieuze risico’s die in toenemende mate worden waargenomen. Het gebruik van AI maakt het opsporen van frauduleuze claims lastiger dan ooit.
Verzekeraars zetten hier AI-modellen tegenover die gericht zijn op fraudedetectie waardoor een soort wapenwedloop ontstaat met de fraudeurs. De geavanceerde techniek die hierbij komt kijken, maakt fraudebestrijding vaak complex en duur. Ook kan het gebeuren dat echte klanten worden aangemerkt als fraudeurs, zogenaamde “false positives”. De impact van de ontzegging van een verzekering kan erg groot zijn, wat maakt dat een menselijke beoordeling essentieel blijft. Ook brengt de grootschalige dataverwerking bij fraudedetectie privacyrisico’s met zich mee. Verzekeraars moeten voortdurend afwegen of data noodzakelijk is en proportioneel kan worden ingezet.
Wat deze drie ontwikkelingen gemeen hebben, is dat ze de verzekeringssector dwingen om niet alleen technologisch vooruit te kijken, maar ook juridisch en ethisch. AI biedt enorme kansen, maar het succes van die toepassingen hangt volledig af van de mate waarin verzekeraars erin slagen om de technologie op een verantwoorde manier in te zetten. Juist in de combinatie van technologische innovatie en maatschappelijke verantwoordelijkheid ligt de sleutel. Verzekeraars die nu investeren in transparantie en zorgvuldig datagebruik op het gebied van AI, doen daar op een later moment hun voordeel mee.
Meer weten over de uiteenlopende uitdagingen van de inzet van AI bij verzekeraars en de stappen die jouw organisatie hierin kan nemen? Neem dan contact op via ons contactformulier of contact@ictrecht.nl.
[1] HR 3 februari 1989, ECLI:NL:HR:1989:AB8306.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.