Home / Nieuws & Blogs / Technische update AI | September 2023

Technische update AI | September 2023

| 12 september 2023

De ontwikkelingen op het gebied van artificiële intelligentie volgen elkaar snel op en zijn amper bij te houden. Iedere dag lezen we over nieuwe technieken die AI-systemen en hoe deze de wereld gaan veranderen. Om het overzicht te bewaren zetten we de belangrijkste ontwikkelingen even op een rij.

ChatGPT voor zakelijk gebruik

Een van de belangrijkste updates van de afgelopen maand is dat OpenAI weer een nieuwe versie heeft uitgebracht van ChatGPT: ChatGPT Enterprise.1 Deze nieuwe editie van het bekende AI-taalmodel brengt naast betere zakelijke voorwaarden ook een aantal technische verbeteringen die het gebruik krachtiger en veelzijdiger maken.

Zakelijke licentie

Om gelijk te beginnen met het belangrijkste onderdeel: de betere gebruiksvoorwaarden. Een van de vragen die we geregeld ontvangen bij ICTRecht is de vraag hoe bedrijven op een verantwoorde wijze gebruik kunnen maken van ChatGPT. In het afgelopen jaar zijn namelijk geregeld incidenten naar voren gekomen waarbij persoons- of bedrijfsgegevens zijn gelekt doordat deze zijn ingevoerd in ChatGPT. In de gebruiksvoorwaarden stond namelijk dat alles wat in ChatGPT werd ingevoerd kon worden gebruikt om het taalmodel te trainen en daarmee te verbeteren. Hoewel dit er zeker voor zorgt dat ChatGPT in staat is om betere antwoorden te geven, ontstaat hierdoor ook risico’s op datalekken. Hoewel deze functie handmatig kon worden uitgezet in het configuratiescherm, vereiste dit een zekere oplettendheid van de gebruiker; en het lag toch altijd wat gevoelig.

Met ChatGPT Enterprise is dit probleem opgelost. Bij Enterprise zullen de ingevoerde prompts en data niet worden gebruikt voor het trainen van het taalmodel. Daarmee is het belangrijkste pijnpunt aangepakt. Daarnaast is het met Enterprise mogelijk om de aankoop van ChatGPT centraal te regelen en hoeft er niet meer onhandig per individuele gebruiker een persoonlijke ChatGPT Plus licentie te worden aangeschaft met een creditcard. 

Technische verbeteringen

ChatGPT Enterprise brengt niet alleen betere licentievoorwaarden maar ook een aantal technische verbeteringen. Zo kan je als zakelijk gebruiker onbeperkt gebruik maken van het betere GPT-4 taalmodel. Gebruikers van ChatGPT Plus konden ook al gebruik maken van GPT-4, maar zij zijn beperkt tot een maximum van 50 vragen per uur en moeten wachten tot er capaciteit beschikbaar is voor het verwerken van hun vraag. Gebruikers van Enterprise hebben altijd prioriteit en zullen dan ook snellere antwoorden kunnen verwachten. 

Daarnaast hebben Enterprise gebruikers toegang tot het GPT-4 taalmodel met 32.000 context tokens. De context van een model is te vergelijken met het kortetermijngeheugen dat iemand gebruikt om een vraag te beantwoord: het bepaalt hoeveel tekst een taalmodel in ogenschouw kan nemen wanneer het een vraag beantwoord. Hoe groter de context, hoe groter de stukken die het taalmodel kan analyseren. Ter vergelijking: de standaardversie van ChatGPT heeft een context-size van 4096 tokens. GPT-4 32k kan dus 8 keer zo veel data in een antwoord verwerken ten opzichte van gratis gebruikers. In de praktijk betekent het dat je voor een vraag ChatGPT Enterprise kan voeden met ongeveer 22 pagina’s aan materiaal en dan kan vragen daar een samenvatting over te schrijven; of om bijvoorbeeld dwarsverbanden in de tekst te vinden. Deze grotere context is dan ook wat mij betreft een zeer welkome toevoeging.

Wat dit betekent

Al met al is de verwachting dat deze veranderingen de adoptie van ChatGPT aanzienlijk gaat versnellen. ChatGPT is al een langere tijd een zeer nuttige tool voor zakelijk gebruik, maar de licentiestructuur en de manier van aankoop waren daar minder geschikt voor. Met de release van Enterprise neemt OpenAI de belangrijkste bezwaren weg. Daarnaast is de verwerking met prioriteit en de vergrootte context ook zeer welkom in de praktijk.

Daarbij raden we echter nog steeds aan wel voorzichtig te zijn met het invoeren van persoonsgegevens in ChatGPT. Deze gegevens kunnen nog steeds worden opgeslagen in het historisch overzicht van de gebruiker. Hoewel deze data niet gebruikt wordt om het taalmodel te trainen is dit nog steeds opslag van persoonsgegevens bij een Amerikaans bedrijf; waardoor je eventueel wel met de AVG in de knoop komt. Houdt daarnaast altijd rekening met de beperkingen van ChatGPT. Kijk vooral even op onze pagina voor meer informatie over hoe je ChatGPT verantwoord in kan zetten.2

Altijd weer nieuwe risico’s

Opkomende technologieën worden altijd voor zowel goede als kwade intenties ingezet. Ook de opkomst van nieuwe AI-technologie is wat dat betreft niet anders. Zo hebben onderzoekers van de Engelse University of Durham ontdekt dat het mogelijk is om de wachtwoorden van personen te kunnen achterhalen door simpelweg te luisteren naar hoe iemand op zijn of haar toetsenbord tikt.3 Met de precisie van hedendaagse AI-modellen is het mogelijk om de minuscule akoestische verschillen te kunnen horen bij de aanslag van verschillende toetsen op het toetsenbord. Het is volgens de onderzoekers zelfs mogelijk om deze verschillen te horen over de microfoon van de laptop zelf, dus bijvoorbeeld op afstand via een Teams- of Zoom-gesprek. De onderzoekers hebben hierbij een accuraatheid bereikt boven de 90%.

Dat werkt namelijk zo: de toetsen op je toetsenbord hebben allemaal een heel klein verschillend geluidsprofiel. Door de fysieke plaats van de toets ontstaan er zeer geringe verschillen in de vibratie van het profiel van het toetsenbord; en deze vibratie wordt omgezet in hoorbaar geluid. Ook het feit dat de shift-toets wordt ingeduwd voor het maken van een hoofdletter is te horen, want in dat geval wordt een deel van de vibratie gedempt door de vinger die de toets induwt. Deze verschillen zijn te subtiel voor een menselijk oor om te onderscheiden, maar voor een AI-model is dit dus wel mogelijk.

Nepstemmen

Het ontfutselen van wachtwoorden was niet de enige potentiële en nieuwe kwaadwillige toepassing van AI deze maand, ook het genereren van een nep-stem was weer uitgebreid in het nieuws. Met AI-stemsoftware is het mogelijk om aan de hand van audiofragmenten een model te trainen en daarmee het geluid van iemands stem na te bootsen. Hiermee kunnen kwaadwillende identiteitsfraude plegen en geld of gegevens ontfutselen. Eerder dit jaar zijn daardoor al acht senioren opgelicht voor een totaal van 200.000 Canadese dollar.4 Deze technologie bestaat al een tijd, maar het grote verschil zit in het gemak waarmee nu stemmen kunnen worden nagebootst. Een geluidsfragment van 1 minuut is al genoeg om een overtuigende stem te kunnen genereren.5 De verwachting is dan ook dat de scams met deze technologie alleen maar zullen toenemen, net zoals WhatsApp-scams ook zijn toegenomen in de afgelopen jaren.

Wat betekent dit?

De ontwikkeling van nieuwe scams en exploitaties roepen grote vragen op hoe we ons het beste hiertegen kunnen wapenen. Bij eerdere voorbeelden zoals WhatsApp-scams werd altijd aangeraden om bij twijfel te bellen of op een andere wijze direct contact op te nemen, om zo te bevestigen dat je met de juiste spreekt. Maar hoe is dat mogelijk in het schrikbeeld van een ‘post-truth society’ waarin je geen enkel communicatiemiddel meer kan vertrouwen omdat ze allemaal vervalst kunnen zijn? Het jammere is dat daar op dit moment nog geen kant-en-klare oplossing voor ligt. Ongetwijfeld zullen er verificatiemechanismen worden ontwikkeld waardoor valt te checken dat je met de juiste spreekt, maar op dit moment zijn deze technieken niet wijdverspreid en makkelijk bruikbaar. 

Voor nu is vooral het advies om direct te bellen of contact op te nemen met een persoon en altijd de afkomst van berichten te checken. En om te voorkomen dat een wachtwoord via je microfoon wordt ontfutseld ligt het simpeler: gebruik een passwordmanager en gebruik zoveel mogelijk multi-factor authenticatie. Als je geen wachtwoorden hoeft in te tikken kan er immers ook niet worden afgeluisterd en met MFA is er meer nodig dan een wachtwoord om ergens in te loggen. 

Andere ontwikkelingen

  • Meta (voormalig Facebook) heeft een nieuw zogenoemd ‘multi-modal’ AI-model uitgebracht die gesproken en geschreven tekst in elkaar kan omzetten en vertalen. Dit model, genaamd SeamlessM4T, maakt het mogelijk om in real-time met mensen in een andere taal te communiceren. Het model heeft ondersteuning voor ongeveer 100 verschillende talen. 
  • OpenAI heeft een plan opgesteld hoe GPT kan worden ingezet voor moderatie op online platformen zoals sociale media. Een van de grote uitdagingen voor internetplatformen is de grote hoeveelheid content die moet worden gescand op spam en desinformatie. OpenAI heeft nu een beleidsdocument opgesteld die laat zien hoe AI kan worden ingezet om op grote schaal deze moderatie uit te voeren en te monitoren. 
  • Het Techology Innovation Institute van de Verenigde Arabische Emiraten heeft een nieuw open source taalmodel uitgebracht: Falcon 180b. Het taalmodel bereikt cutting edge prestaties en doet het in sommige benchmarks zelfs beter dan het PaLM 2 taalmodel van Google. Het is dan ook een indrukwekkend, maar ook zeer zwaar model.

Ben jij ook dagelijk bezig met AI, risico’s en compliance?

Kom dan naar onze training: AI Compliance in de praktijk op 12 oktober of 21 november 2023.


Op de hoogte blijven van de laatste ontwikkelingen op AI gebied?

Schrijf je dan nu in voor de themanieuwsbrief AI!  

Direct inschrijven

1 https://openai.com/enterprise
2 https://www.ictrecht.nl/chatgpt
3 https://arxiv.org/pdf/2308.01074.pdf
4 https://www.cbc.ca/news/canada/newfoundland-labrador/ai-vocal-cloning-grandparent-scam-1.6777106
5 https://www.law.com/thelegalintelligencer/2023/09/11/say-what-the-rise-of-ai-generated-voice-deepfakes/?slreturn=20230811111745