Over het onderzoek

Voor veel organisaties is het een uitdaging om AI-tools te beoordelen op compliance, ethische risico’s en betrouwbaarheid. Zeker voor juridische teams of organisaties die AI willen inzetten ter ondersteuning van hun werk is het essentieel om een weloverwogen keuze te maken. Een duidelijk en gestructureerd beoordelingskader is daarbij onmisbaar om te bepalen welke oplossingen geschikt, betrouwbaar en verantwoord zijn voor juridisch gebruik.

Download het onderzoek
Onderzoek AI-tooling voor de legal professionals

Algemene bevindingen

AI-modellen als basis van de tools – Alle leveranciers maken gebruik van bestaande AI-modellen. De GPT-modellen van OpenAI worden daarbij het vaakst ingezet.

Beleid en training zijn cruciaal – Verantwoorde inzet van AI vraagt om duidelijke richtlijnen. Een aantal leveranciers heeft interne ethische kaders opgesteld voor het gebruik en de ontwikkeling van hun AI-tooling.

Dataverwerking binnen de EER – Alle leveranciers verwerken ingevoerde data binnen de Europese Economische Ruimte. Geen van de tools gebruikt klantgegevens om onderliggende modellen verder te trainen.

Sterke aandacht voor informatiebeveiliging – Alle partijen hebben beveiligingsmaatregelen getroffen. Twee leveranciers zijn al gecertificeerd.
L1853065

Blijf op de hoogte

Schrijf je in voor onze AI-nieuwsbrief en blijf vooroplopen: we delen nieuwe AI-documenten, handige prompts, updates over taalmodellen en juridische ontwikkelingen. Speciaal samengesteld voor professionals die verantwoord met AI willen werken. 

AI-nieuwsbrief

Laat je e-mailadres achter en meld je direct aan