De aftrap
De Revolutie van Generatieve AI - Hoe zijn we hier gekomen?
Hey, Hoi
Eind afgelopen jaar/ begin dit jaar gebeurde er iets spannends in de wereld van de technologie. De revolutie van generatieve kunstmatige intelligentie (AI) lijkt nu echt begonnen! Maar wat betekent dat precies? Stel je voor dat je op een dag wakker wordt en ontdekt dat de wereld om je heen is veranderd. Computers kunnen nu dingen creëren - van kunstwerken tot video's, en zelfs complexe taken in biologie en programmeren uitvoeren. Dit is geen sciencefiction, maar de realiteit van vandaag. Welkom in de wereld van generatieve kunstmatige intelligentie (AI)!
AI: Een Cyclus van Vooruitgang
Als je ooit hebt gehoord over de technologie waaronder AI, dan weet je dat het een veld is dat constant evolueert. Technologie en AI zijn als een wiel dat blijft draaien. Elke paar jaar maakt het een volledige omwenteling en ontdekken we dat computers iets nieuws kunnen doen. Dit keer is het de beurt aan generatieve AI, een vorm van AI die in staat is om nieuwe, originele inhoud te creëren.
Waarom gebeurt dit nu?
AI zit al veel langer in onze systemen, ja zelfs bij je thuis op je eigen Personal Computer (PC). Van Clippy tot je toetsenbord suggesties of je Snapchat filter. Deze vooruitgang is geen toeval. Het is het resultaat van nieuwe AI-modellen die flexibeler en krachtiger zijn dan ooit tevoren. Deze modellen, vaak grote taalmodellen (LLM's) genoemd, kunnen taken uitvoeren zoals vragen beantwoorden en essays schrijven. Bekende voorbeelden zijn OpenAI's GPT3 en Google's BERT.
De basis receptuur
AI leren is een beetje zoals koken. Je hebt de juiste ingrediënten nodig: modellen (de recepten), data (de ingrediënten) en rekenkracht (het vuur). Een soort heilige drie-eenheid. De modellen nemen de inputs en helpen naar de output. Daar heb je natuurlijk de ingrediënten (data) voor nodig en om het tot een veilig, eetbaar eindproduct te krijgen is daar het vuur (de rekenkracht).
De eerste moderne AI-revolutie
De eerste grote AI-revolutie vond plaats in 2012 met diep leren, een techniek die computerproblemen met convolutionele neurale netwerken (CNN's) oplost door neurale netwerken te gebruiken die lijken op de visuele cortex van de hersenen.
De modellen waren geweldig voor beeldherkenning, maar hadden moeite met natuurlijke taalverwerking, oftewel het begrijpen en werken met normale menselijke taal. Er waren dus zoals vaker grenzen en uitdagingen aan wat de technieken konden doen.
In 2006 bracht Nvidia echter CUDA uit, een programmeertaal die het gebruik van Graphic Processing Units (GPU's) - de meeste van ons bekend als grafische kaart - mogelijk maakte. In 2009 introduceerden AI-onderzoekers van Stanford Imagenet, een verzameling gelabelde afbeeldingen die worden gebruikt om computervisie-algoritmen te trainen. In 2012 combineerde AlexNet CNN's die op GPU's waren getraind met Imagenet-data om de beste visuele classifier te creëren die de wereld ooit had gezien. Diep leren en AI explodeerden vanaf daar.
De uitdaging van taal
Het werken met taal is echter fundamenteel anders dan het werken met afbeeldingen. Taal verwerken vereist het werken met reeksen woorden, waarbij de volgorde belangrijk is. En die volgorde is ook nog eens een keer anders in elke taal.
Voor die zak met voorgesneden groenten hoef je tenslotte een stuk minder handelingen te verrichten en hoef je ook geen rekening te houden met een andere schil, schoonmaak en snij methode per groente.
Tot voor kort vertrouwden onderzoekers op modellen (Recurrente Neurale Netwerken (RNNs) en long short-term memory (LSTM)) die korte opeenvolgingen konden herkennen, zoals gesproken woorden uit korte zinnen. Zo zonden gegevens in de tijd geanalyseerd en verwerkt worden. De worsteling zat hem in de langere zinnen en paragrafen.
De grote doorbraak: De Transformer
Stel je voor dat je een revolutionaire ontdekking doet die de manier waarop we taalproblemen oplossen volledig verandert. Google vond een baanbrekend recept, de 'transformer'. Deze transformer veranderde de spelregels door sequentievolgorde numeriek te behandelen, waarbij elk stukje beschrijving in het recept een uniek nummer kreeg toegewezen - een innovatieve aanpak die bekend staat als 'positionele codering'. Maar daar stopte de innovatie niet. De tweede doorbraak kwam in de vorm van 'multi-headed attention'.
De transformer bleek niet alleen een game-changer voor vertaling, maar ook het perfecte model voor het oplossen van een breed scala aan taalproblemen. En het mooiste van alles? Deze transformer is ontworpen om naadloos samen te werken met GPU's, waardoor het grote hoeveelheden woorden parallel kan verwerken in plaats van één voor één. Dit is niet zomaar een stap voorwaarts, het is een reuzensprong in de wereld van taalverwerking!
Van GPT2 naar GPT3
Met de ontdekking van dit nieuwe recept was het mogelijk in 2019 in een wereld te ontwaken waarin OpenAI het GPT2 introduceerde. Deze AI kon paragrafen van realistische, mensachtige tekst creëren die een interne consistentie hadden die nog nooit eerder was gezien in computergegenereerde tekst. Het was een doorbraak, maar nog steeds was het was slechts het begin.
Het vinden van de juiste ingrediënten en informatie in het recept (de data) was nog steeds een stevige uitdaging. Ja we hadden natuurlijk al het internet en meer en meer data kwam beschikbaar maar daarnaast was er nog de uitdaging van het creëren van een zinvolle datasets en alle werk om een computer te leren daar goed mee om te gaan.
De volgende reuzensprong was van GPT2 naar GPT3, een model dat vele malen groter was met een duizelingwekkend aantal van 175 miljard parameters in zijn grootste vorm. GPT3 was niet alleen groter, maar ook veel beter dan zijn voorganger. Het kon hele essays schrijven die zo intern consistent waren dat ze bijna niet te onderscheiden waren van menselijk schrijven. Het was alsof we plotseling een nieuwe Shakespeare in ons midden hadden, maar dan een Shakespeare die was geboren uit de wereld van kunstmatige intelligentie. De toekomst van AI-schrijven was aangebroken, en het was opwindender dan we ooit hadden durven dromen.
Nu zijn we op het punt dat computers zichzelf steeds meer en meer en steeds sneller en efficiënter kunnen leren.
Conclusie
We zitten in een nieuwe cyclus, dit keer met generatieve AI. Media koppen worden gedomineerd door nieuws over AI-kunst, maar er is ook ongekende vooruitgang in vele uiteenlopende velden. De revolutie van generatieve AI is een spannende ontwikkeling in de technologiewereld. Het is een resultaat van jarenlange vooruitgang en innovatie. En hoewel er nog steeds uitdagingen zijn - de recepten, ingrediënten zijn nog niet perfect en het vuur kan ook nog best wat heter - is de toekomst van AI veelbelovend.
Voorspellingen zijn moeilijk. Misschien is het enige wat we kunnen zeggen dat deze AI-tools steeds krachtiger, gebruiksvriendelijker en goedkoper zullen worden. We zitten in de vroege stadia van een revolutie die net zo diepgaand kan zijn als de wet van Moore, ik ben positief gespannen met een mild sausje van argwaan voor wat er gaat komen.
De ontwikkelingen gaan snel maar je kan op de hoogte blijven door het
luisteren naar de DigiBeter Podcasts, het lezen van de nieuwsbrieven en het volgen van trainingen van DigiBeter.
Blijf op de hoogte voor meer updates over deze fascinerende wereld!
Met vriendelijke groet,
Jurriaan