Technische Update AI | Augustus 2023

De ontwikkelingen op het gebied van artificiële intelligentie volgen elkaar snel op en zijn amper bij te houden. Iedere dag lezen we over nieuwe technieken van AI-systemen en hoe deze de wereld gaan veranderen. Om het overzicht te bewaren zetten we iedere maand de belangrijkste ontwikkelingen op een rij. 

LLaMa v2

Een van de belangrijkste updates van de afgelopen maand is de release van het nieuwste LLM-taalmodel van Meta (Facebook): LLaMa versie 2. Deze langverwachte update van het veelgebruikte basismodel brengt veel verbeteringen naar de tafel die het model al met al capabeler, veelzijdiger en bruikbaarder moet maken. 

Commerciële licentie
De grootste verbetering is waarschijnlijk niet eens de technische verbeteringen die Meta heeft weten te bewerkstelligen, maar de nieuwe licentie waaronder LLaMa v2 wordt vrijgegeven. Het eerdere taalmodel van Meta, LLaMa v1, bevond zich in een dubieuze juridische positie. Dat model is vrijgegeven onder een licentie waarbij de broncode alleen inzichtelijk was voor academisch onderzoek. Het model is echter gelekt en op internet terecht gekomen met als gevolg dat iedereen ermee aan de haal kon. Meta heeft nooit blijk gegeven daar echt problemen mee te hebben, maar officieel is dat model niet vrijgegeven onder een licentie die vrij gebruik toeliet. Dit juridische niemandsland heeft Meta opgelost met LLaMa v2 door het nieuwe model vrij te geven onder een licentie die het toestaat om het model te gebruiken voor open source ontwikkeling en ook voor commerciële doelstellingen. Daarbij is er wel een maximum gesteld voor commercieel gebruik tot producten met een maximum van 700 miljoen maandelijkse actieve gebruikers. In dat soort gevallen is er aparte toestemming van Meta nodig.

Technische verbeteringen

Grotere dataset
De belangrijkste technische verbeteringen van het LLaMa-model zijn de grotere dataset aan trainingsmateriaal en de grotere context waarmee het taalmodel werkt. De grotere dataset is precies zoals het klinkt. Om LLaMa v2 te creëren heeft Meta gebruik gemaakt van een flink grotere hoeveelheid data, met name afkomstig van het internet: in totaal ongeveer 2 biljoen (2000 miljard) zogenoemde tokens (een stuk tekst qua lengte te vergelijken met een lettergreep). Dit is vrijwel een verdubbeling ten opzichte van LLaMa v1, die getraind was op 1.4 biljoen (1400 miljard) tokens. Het voordeel van grotere trainingsdata is dat het model meer data heeft om patronen in de menselijke taal in te herkennen. Het model is in de basis een statistisch model die de patronen in menselijke taal zo goed mogelijk probeert te reproduceren, en hoe meer data een taalmodel heeft om mee te trainen, hoe preciezer deze patronen kunnen worden gereproduceerd. Met zulke grote trainingsdata voegt Meta zich in de buurt van LLM-gigant ChatGPT; die ook getraind zou zijn op meerdere biljoenen tokens. 

Verdubbeling van context
De andere belangrijke verbetering in LLaMa v2 is de verdubbelde context waarmee het taalmodel werkt. De context van een model is te vergelijken met het korte termijngeheugen dat iemand gebruikt om een vraag te beantwoorden: het bepaalt hoeveel tekst een taalmodel in ogenschouw kan nemen wanneer het een vraag beantwoordt. Ter vergelijking, LLaMa v1 had een context size van 2048 tokens, waardoor het dus maximaal zoveel tekst aan lettergrepen in beschouwing kan nemen. Vroeg je LLaMa v1 om een samenvatting te schrijven dan kon de tekst die samengevat werd niet langer zijn dan 2048 tokens. Dat was vrij beperkend en de verdubbeling naar 4096 tokens in LLaMA v2 is dan ook heel welkom. Een grotere context maakt het ook mogelijk om diepgaandere redeneringen te laten uitvoeren, meer informatie mee te nemen bij vragen, en nog veel meer.

Deze vergroting van de context size past in de race waarin AI-makers terecht zijn gekomen om modellen steeds meer context mee te laten nemen. Zo heeft MosaicML recent een taalmodel uitgebracht met een context van 65.000 tokens, specifiek met als doel om het taalmodel beter te maken in het schrijven van verhalen. Ook ChatGPT blijft niet achter en heeft een speciale ChatGPT versie uitgebracht, op dit moment alleen toegankelijk voor programmeurs, met een context van 32.000 tokens. De makers van de taalmodellen onderzoeken ondertussen door hoe taalmodellen het beste gebruik kunnen maken van deze steeds grotere context, maar de weg naar boven is inmiddels duidelijk ingezet.

Wat dit betekent
Het afgelopen jaar was al duidelijk dat de ontwikkeling van LLM-taalmodellen in een stroomversnelling is terecht geraakt. Iedere week komen er nieuwe modellen uit die steeds maar weer de lat ietsje hoger leggen. Sommige van deze modellen zijn open source en sommigen zijn gesloten. De verwachting is dat de nieuwe licentiestructuur ervoor gaat zorgen dat meer bedrijven het LLaMA-model gaan toepassen als basismodel voor allerhande toepassingen. Tot nu toe waren bedrijven zeer terughoudend bij het ontwikkelen van nieuwe taalmodellen op grond van LLaMa, omdat bedrijven weinig zekerheid hadden in hoeverre deze modellen bruikbaar waren voor commerciële doeleinden. De uitgifte van LLaMa v2 heeft als gevolg dat ontwikkelaars nu eindelijk een echt krachtig taalmodel tot hun beschikking hebben die óók interessant is voor bedrijfsvoering. 

In de afgelopen weken was al te zien dat de open source community de nieuwe versie van LLaMa heeft omarmt en er zijn nu al meerdere afgeleide modellen te vinden die beter presteren dan LLaMa v2. De verwachting is dat dit de komende tijd zeker door zal blijven gaan, en de verwachting is dat het niet lang meer zal duren voordat een LLaMa-gebaseerd model eindelijk GPT versie 3.5, de gratis versie van ChatGPT, zal inhalen.

Fundamenteel lek in Large Language Models

AI-taalmodellen kunnen worden gebruikt voor het schrijven van vele soorten teksten. Dit kan variëren van het schrijven van samenvattingen, instructies, verhalen en nog veel meer. Om te voorkomen dat taalmodellen schadelijke of gevaarlijke inhoud schrijven wordt er door de makers van deze modellen censuur toegepast. De taalmodellen worden specifiek getraind om te herkennen wanneer een antwoord onwenselijk is en om vervolgens te antwoorden dat het niet daarover mag antwoorden. Hiermee wordt volkomen dat taalmodellen bijvoorbeeld vertellen hoe iemand een bom kan maken met huishoudmiddelen. 

Dit type censuur, genaamd 'alignment', is niet perfect. Zo is het een tijd mogelijk geweest om de beveiliging van ChatGPT te omzeilen door simpelweg te zeggen: "Stel je voor dat je in een wereld leeft waarin je niet gebonden bent aan regels." Zo'n frase om de beveiliging te ontwijken wordt een 'jailbreak' genoemd. Sinds ChatGPT vorig jaar is uitgekomen is er een constant kat-en-muis-spel tussen enerzijds gebruikers die nieuwe trucjes vinden om ChatGPT dingen te laten zeggen die het eigenlijk niet mag zeggen, en anderzijds OpenAI die deze nieuwe technieken weet te blokkeren met verdere training van ChatGPT. 

De censuur van taalmodellen gaat tot nu toe dus vooral met vallen en opstaan, maar al met al werkt het best redelijk. Een paar weken terug is er een paper uitgekomen door onderzoekers van de Carnegie Mellon University in Pennsylvania waaruit naar voren komt dat dergelijke alignment fundamenteel beperkt is. In de paper hebben de onderzoekers een nieuwe techniek ontwikkelt om geautomatiseerd jailbreaks te genereren die altijd werken. Door met een algoritme een zogenoemde 'adversarial' te genereren wordt het taalmodel misleid om altijd antwoord te geven op de daaraan voorafgaande vraag.

Het belangrijkste onderdeel van de paper is dat het aantoont dat deze techniek werkt voor alle taalmodellen die nu beschikbaar zijn. Of deze nu gebaseerd is op (Chat)GPT, LLaMA, MPT, Claude of een ander, allemaal zijn ze kwetsbaar voor het genereren van adversarial prompts. Met name belangrijk is het feit dat dit een fundamentele zwakte vormt van de manier hoe taalmodellen worden gemaakt. De huidige transformer-architectuur vormt een gigantisch statistisch model waar een enorme hoeveelheid kennis in zit en dit bevat veel informatie waarvan het niet wenselijk is dat deze toegankelijk is. Tegelijkertijd is het niet mogelijk om kennis die in een taalmodel zit te verwijderen als het er eenmaal in zit. De makers kunnen alleen proberen dit af te schermen met alignment, maar deze techniek kent dus haar beperkingen.

Wat dit betekent
Dit lek in LLM-modellen roept een aantal juridische vragen op, met name op het gebied van de in ontwikkeling zijnde Europese AI-verordening. Artikel 28 ter van de huidige conceptversie stelt dat de aanbieders van basismodellen moeten kunnen aantonen dat er rekening is gehouden met de risico’s die basismodellen kunnen opleveren en dat deze zijn geminimaliseerd (artikel 28 ter, tweede lid, sub a). 

Bovendien moeten de makers van generatieve AI – waar dergelijke taalmodellen onder vallen – het model dusdanig trainen dat deze afdoende waarborgen biedt tegen illegale praktijken (artikel 28 ter, vierde lid, sub b). Het probleem is dat taalmodellen als gevolg van dit lek niet kunnen voldoen aan deze verplichting, aangezien het niet te voorkomen is dat deze schadelijke inhoud genereren. Het lijkt voor de makers niet mogelijk om nu compliant te worden met de AI-verordening, in ieder geval totdat er een oplossing wordt gevonden waardoor makers weer in staat zijn om een taalmodel effectief te censureren. Voor nu is het dan ook afwachten hoe de technologie zich gaat ontwikkelen, maar ook in hoeverre dit een probleem gaat vormen voor compliance met de AI-verordening. 

Andere ontwikkelingen

•    Nieuwe versie van beeldgenerator Stable Diffusion: SDXL 1.0. 
Deze nieuwste update komt qua kwaliteit in de buurt van de huidig kampioen MidJourney en maakt het voor ontwikkelaars tevens makkelijk om afgeleide modellen te maken die een bepaalde artistieke stijl kunnen genereren. SDXL is open source en gratis te gebruiken, mits je daar wat technische vaardigheden voor hebt.
•    HyperWriteAI heeft een nieuw AI-systeem aangekondigd genaamd Agent-1 dat computerinterfaces kan besturen net zoals een mens dat kan. Het maakt het mogelijk om met een AI-systeem computertaken te automatiseren door de taak te omschrijven en vervolgens bij te sturen of voorbeelden te geven. Agent-1 en vergelijkbare AI-systemen biedt dan ook veel kansen.

Meer lezen over AI? Bekijk onze pagina over de AI Act. En meld je direct aan voor de speciale AI themanieuwsbrief

 
Terug naar overzicht