De AI-koers van Europa: grip, snelheid en keuzes
Van digitale autonomie tot zelflerende systemen – wat betekent AI echt voor jouw werk en de wereld eromheen?
De ontwikkelingen in generatieve AI blijven elkaar dagelijks opvolgen. Soms iet minder maar soms ook in duizelingwekkend tempoe. Terwijl bedrijven zich afvragen hoe ze de technologie praktisch kunnen inzetten, staan beleidsmakers voor lastige keuzes: hoe zorgen we voor grip, ethiek én vooruitgang? In deze editie brengen we overzicht, inzicht en perspectief voor professionals van beleidsmaker tot marketeer, van jurist tot teamleider.
We starten met het nieuwe Generative AI Outlook Report van de Europese Commissie, dat haarscherp de kansen en risico’s van AI in Europa in kaart brengt. Van deepfakes en desinformatie tot duurzame AI-oplossingen en slimme regelgeving –het rapport laat zien dat we als Europa op een kruispunt staan: willen we AI gebruiken of gebruikt worden?
In dat licht onderzoeken we of Lemony’s ‘AI in a Box’ een mogelijk antwoord is op een klein stukje in die roep om controle. Een veilige, lokale AI-oplossing die soevereiniteit, duurzaamheid én toegankelijkheid combineert.
Verder werpen we een blik op de technische vernieuwing achter de schermen. Google’s nieuwe aanpak, Gemini Diffusion, laat zien dat AI-tekstgeneratie niet langer woord voor woord hoeft, maar veel sneller én consistenter kan via diffusie – een gamechanger voor onder andere klantenservice, live vertalingen en codering.
En dan is er nog Mistral, de Franse uitdager die laat zien dat Europa wél degelijk AI kan bouwen op wereldniveau. Met hun full-stack strategie combineren ze krachtige modellen met eigen infrastructuur, waardoor datasoevereiniteit en transparantie geen loze beloften blijven.
Voor onze betalende lezers gaan we nóg een stap verder. We gaan daar onder meer in op een aantal tijd besparende taken inclusief krachtige voorbeeldprompts, voorbeelden hoe je AI inzet voor E-mails, reisschema’s, brainstorms en meer. Tot slot nemen we een deep-dive in de bizarre wereld van enkele recente ontwikkelingen waarbij we zien dat AI meer en meer zichzelf aan het verbeteren is en systemen steeds sneller kunnen werken door dit paralel te doen.
Van strategische vraagstukken tot concrete toepassingen – deze editie helpt je om beter te begrijpen wat AI betekent voor jouw werk én hoe je vandaag al aan de slag kunt.
De inhoud in het kort
Inhoud
Generatieve AI in de EU, Kansen, Uitdagingen en de Rol van Beleid
Lemony's 'AI in a Box': Een Praktisch Antwoord op de Risico's en de Roep om Controle?
Gemini Diffusion: Google's nieuwe aanpak voor snellere AI-tekstgeneratie
Mistral’s Meesterzet: Hoe de Franse AI-lieveling de Soevereiniteitskaart Speelt
En in ons deel voor de betalende lezers onder meer
Taken om met AI op te pakken en significant tijd te besparen
Inclusief diverse prompts ter inspiratie
Bizarre ontwikkelingen in de zelflerende revolutie van AI modellen die zichzelf fine-tunen zichzelf tot agents die paralel werken
Generatieve AI in de EU
Kansen, Uitdagingen en de Rol van Beleid
Het Joint Research Centre (JRC) van de Europese Commissie heeft een "Generative AI Outlook Report" uitgebracht dat de transformerende rol van Generatieve AI (GenAI) binnen de Europese Unie belicht. Dit rapport, biedt wetenschappelijke ondersteuning voor het Europese beleidsproces en gaat in op de mogelijkheden en uitdagingen die AI met zich meebrengt om mensachtige inhoud op ongekende schaal kan produceren.
Zoals de meeste trouwe lezers weten is GenAI, van tekst- en beeldgeneratie tot muziek en code, is een fundamentele verschuiving in digitale technologieën, gedreven door geavanceerde algoritmen, krachtige computerinfrastructuur (zoals GPU's en TPU's) en de beschikbaarheid van enorme datasets. Een technologie die enorme kansen biedt voor innovatie en productiviteit in diverse sectoren, waaronder de gezondheidszorg, onderwijs, wetenschap en creatieve industrieën. Nieuwe technologische trends zoals Agentic AI (autonome beslissingssystemen), Multi-modale AI (integratie van diverse dataformaten) en Geavanceerd AI-redeneren beloven de productiviteit en besluitvorming daarnaast nog veel verder te verbeteren.
Economische impact: Competitiviteit en Uitdagingen
Hoewel de EU een sterke onderzoekspositie heeft en we de tweede plaats innemen in GenAI-publicaties wereldwijd staan we voor uitdagingen op het gebied van financiering en investeringen. Zeker als we dit vergelijken met startups in de VS. GenAI is een katalysator voor industriële transformatie, van slimme productielijnen in de maakindustrie tot gepersonaliseerde consumentenervaringen in de detailhandel en verbeterde diagnostiek in de gezondheidszorg.
Echter naast onze investeringen in AI bedrijven in NL en Europa lopen onze kleinere bedrijven (MKB) en dergelijke lopen achter in adoptie. Dat we hierin achterlopen kan de kloof met grote ondernemingen alleen maar vergroten. Partijen als KPMG zijn als een dolle aan het proberen overal voet tussen de deur te krijgen en verkopen daarbij vaak, juist de ongewenste, AI’s van grote partijen die ze kennen waarmee ze meewaaien met de winden in plaats van een insteek volgen die goed is voor Nederland, onze koloniën eigenlijk heel Europa. De focus ligt op de korte termijn productiviteitswinsten.
Productiviteitswinsten die vooral zichtbaar zijn voor beginnende werknemers maar het kunnen leiden tot een verschuiving naar meer gespecialiseerde expertise op de arbeidsmarkt.
In ons betaalde gedeelte gaan we in op een aantal taken die AI voor je op kan pakken en je daarmee significant tijd kan besparen.
Maatschappelijke Uitdagingen en Risico’s
GenAI brengt aanzienlijke maatschappelijke risico's met zich mee zoals onder meer:
• Informatie manipulatie: Het maakt de creatie van overtuigende nepinhoud (deepfakes) op grote schaal mogelijk, wat kan leiden tot misinformatie, erosie van vertrouwen en polarisatie, ook over onderwerpen als klimaatverandering.
Dit treedt binnen op velen vormen van AI. We geven je er een aantal om je aan het denken te zetten:
Audio van stemmen die je kan inzetten voor vriend of familie in nood of voor het nadoen van de stem van de manager of directeur om je een opdracht te geven
Afbeeldingen van personen maar ook fake inbraken, rellen, fraude die zogenaamd gepleegd is, leidinggevenden die hun medewerkers erbij willen framen, collega’s die elkaar in kwaad daglicht willen stellen en meer.
Schrijven van ‘fake nieuws’, gepersonaliseerde phising, social engineering zoals chatbots die mensen proberen mensen informatie prijs te laten geven die je niet prijs zou moeten geven, automatisch gegenereerde recenties e.d. of bijvoorbeeld stukken code die geschreven worden met AI om te hacken bijvoorbeeld dmv prompt injecties
Video’s al dan niet met audio er onder die zo dicht bij ons leven komen dat het echt voelt en we het te snel voor waarheid aannemen. Video’s ingezet voor leger doeleinden, propaganda, criminelen die zichzelf proberen vrij te pleiten met video’s of openbaar ministerie (of je leidinggevende/ collega etc.) die je in een situatie proberen te framen e.d.
• Vaardigheidskloof en AI-geletterdheid: De snelle adoptie van GenAI benadrukt een groeiende vaardigheidskloof. Er is een dringende behoefte aan bijscholing en omscholing van de beroepsbevolking en het bevorderen van AI-geletterdheid vanaf jonge leeftijd. Het Europees Digitaal Competentiekader (DigComp 3.0) zal AI-gerelateerde competenties integreren.
Dat vraagt wat van bijvoorbeeld een ministerie van OCW waar je zou verwachten dat (overdreven gezegd misschien) het halve ministerie wel zo’n beetje bezig zou moeten zijn met het zorgen dat AI van basisschool tot universiteit op de juiste manier in de lesprogramma’s terecht komt. Niet alleen het gebruik ervan maar ook wat het doet met alle andere lessen die gegeven worden.
Dit vraagt wat van, zoals we ook al eerder aangaven, bedrijven die bezig zijn met traineeships e.d. want ook die zullen een andere vorm krijgen. Het begint met een belangrijke impact op onze junior medewerkers
• Milieu-impact: De hoge rekenkracht die GenAI vereist, leidt tot aanzienlijk energie- en waterverbruik door datacenters, wat grote milieuproblemen met zich meebrengt. De EU werkt aan regelgeving en promoot energie-efficiënte technologieën en hernieuwbare energiebronnen. Dit wordt ook benadrukt.
De alternatieven blijven helaas buiten beschouwing in het rapport. Het is niet GenAI dat de impact zo hoog maakt maar de manier hoe wij Gen AI inzetten. De manier waarop Foundation Models getraind worden maar we kunnen duurzamer modellen trainen met bepaalde partijen. De impact van iedere vraag aan zo’n foundation model doordat het hele model doorgerekend wordt kan verkleind worden door gebruik te maken van orkestratie en kleine taalmodellen. En het feit dat ze continu draaien op enorme grote datacenters kan je oplossen met onder meer edge computing. Dit plaatje biedt een scala aan alternatieven waarmee niet alleen het waterverbruik minder hoeft te worden maar ook de hoeveelheid benodigde grondstoffen, electronisch afval (e-waste) en dergelijke. Dat kan georganiseerd worden op een manier zoals je aantreft in dit artikel.
• Kinderrechten en Geestelijke Gezondheid: GenAI kan kinderen beïnvloeden via misleidende inhoud en potentieel schadelijke AI-metgezellen. Er zijn zorgen over verslavend gedrag, het zoeken naar validatie en het risico van non-consensuele expliciete inhoud (deepfakes).
Daarnaast toont een recente studie van MIT dat GenAI (ChatGPT) het kritisch denkvermogen kan aantasten. Het relatief kleine onderzoek van 54 personen onder 18 tot 39 jarigen werd gedaan door middel van meten van activiteit in hersengebieden en suggereert dat gebruik van LLMs het leerproces bij vooral jonge gebruikers kan schaden. De door de leerlingen geschreven essays hadden geen originele gedachtegang en volgden zelfde uitdrukkingen en ideeën en de EEGs lieten een lage executieve controle en aandacht zien. De 2e groep zonder toonde juist de hoogste neurale connectiviteit in met name alfa-, theta- en deltabanden. De plekken die worden geassocieerd met creatieve ideeën, geheugenbelasting en semantische verwerking. Ook de 3e groep die het werk mocht doen met Google’s normale zoekmachine presteerde prima. In de vervolgopdracht, het herschrijven van het werk, mocht de 2e groep ChatGPT wel gebruiken. Zij presteerde goed en vertoonden een significate toename van hersenconnectiviteit in alle EEG-frequentiebanden wat de hoop geeft dat AI, mits correct gebruikt, het leren kan bevorderen i.p.v. verminderen.
Extra kwalijk als je je bedenkt dat AI verre van foutloos of volledig betrouwbaar is zoals blijkt uit onderzoeken. Wetenschappelijke afdelingen van Apple en Salesforce (ja de mensen die heel veel AI agents proberen te verkopen op het moment) hebben de capaciteiten onderzocht van vooraanstaande AI-modellen en tonen aan dat AI nog niet klaar is voor de complexere vraagstukken en taken. Tussen wat velen van ons vragen (en hopen) dat AI kan zit nog een ‘aanzienlijke kloof’. De onderzoekers van Salesforce testen agents die niet alleen konden praten maar ook zelfstandig taken konden uitvoeren maar volgens de onderzoekers zijn de meest geavanceerde AI-modellen op de markt daar nog niet klaar voor. Als nuance op de onderzoeken zien we dit wel beter gaan met specialistische modellen. De agents die Salesforce testte voerden echter slechts 58% van de opdrachten correct uit. Het werd nog extremer wanneer de AI niet in 1x alle volledige informatie kreeg waarbij de agents nog maar 35% correct deden. Uiteraard zijn deze onderzoeken ook koren op de molen van critici die deze onderzoeken nu links en recht gebruiken om AI te kraken.
Hoewel de ontwikkelingen snel gaan is het, zoals wij ook vaak in onze trainingen en consultancy momenten aangeven, niet handig om direct voor de full monty te gaan. Vaak kom je van een koude kermis thuis. Er is veel wat wel mogelijk is en door langzaam maar gestaag toe te bouwen naar het eindresultaat kan er, zeker met kwalitatief hoogwaardige specialisten modellen, een heleboel bereikt worden. En het meest interessante is, wanneer dit modellen zijn met jouw eigen, hoogwaardige data op basis van een goede selectie verkregen helpt dit ook met het volgende punt.
• Vooroordelen en Discriminatie: GenAI-systemen kunnen bestaande vooroordelen en stereotypen in trainingsdata bestendigen, wat kan leiden tot discriminatie op basis van geslacht, etniciteit of andere kenmerken. Dit vereist zorgvuldige inspanningen bij dataverzameling en modelaudits.
Om dit op te lossen is het goed om zelf grip en controle te houden op modellen. Te weten hoe data verzameling plaats vindt, welke data er geselecteerd is en dat deze data een zo normaal mogelijke verdeling kent op basis van normen, waarden en andere belangrijke eigen culturele eigenschappen bevatten om zaken als discriminatie te voorkomen. Ook het gebruik, de prompts die ingegeven worden, kunnen bijdragen aan deze vooroordelen en discriminatie. Daarom is het goed om mensen te scholen in prompttechnieken en prompting.
Maar ook risico’s als Privacy. De capaciteit van GenAI voor gegevensanalyse en het leggen van verbanden brentt aanzienlijke maatschappelijke gevolgen en uitdagingen met zicht mee voor zowel de individuele privacy als gegevensbescherming. Binnen het EU-rechtskader zijn het recht op bescherming van persoonsgegevens en het recht op privacy twee fundamentele rechten. In dat licht heeft de uitspraak van een Amerikaanse rechter dat zelfs je verwijderde chats als bewijsmateriaal kunnen dienen in een rechtszaak gezorgd voor een behoorlijke impact. De kogel is nog niet door de kerk want AI maker, OpenAI gaat tegen de uitspraak in beroep en speelt daarbij de privacy kaart. Maar dergelijke rechtzaken bepalen onze toekomstige spelregels. De gevolgen zijn er echter wel want gebruikers van consumentenversies zoals GPT Free, Plus en Pro kunnen nu wel verwijderen maar logs blijven bewaard zelfs als je dus handmatig verwijderd of een temporary chat gebruikt. Sterker het verwijderen van je account helpt dus ook niet. Ook API gebruik is meegenomen in vrijwel alle gevallen. Het is een bevel tegen primair individuele gebruikers daarmee worden Enterprise of Edu gebruikers niet/minder getroffen. Maar als dit de standaard wordt kan je eigenlijk geen openbare Amerikaanse AI meer gebruiken zonder dat alle informatie bewaard blijft waardoor we als gebruikers (nog meer) geprofileerd worden en gedeelde privacy en organisatie informatie dus voor blijvend in systemen terecht komt.
Er zijn nog veel meer risico’s die wij ook behandelen in onze trainingen en opleidingen om tot een juiste balans te komen in de gesprekken. Want achter elke kans zitten risico’s en achter alle risico’s zitten kansen en mogelijkheden om de risico’s te reduceren. Ook regelgeving kan bijdragen aan een meer positieve draai en een rem op de BigTech om zomaar te doen en laten wat ze willen.
Regelgevend Kader van de EU
De EU heeft een robuust regelgevend kader ingesteld om innovatie te bevorderen en tegelijkertijd transparantie, vertrouwen en de bescherming van fundamentele rechten te waarborgen. Hoewel je er ook geregeld verzet tegen hoort is, als je het echt snapt, de wetgeving helemaal niet zo beperkend als velen willen doen lijken:
• De AI-wet (AI Act): De eerste wereldwijde AI-regulering, die GenAI-systemen en modellen onderwerpt aan wettelijke vereisten op basis van risiconiveaus (minimaal, beperkt, hoog en onaanvaardbaar). Het vereist transparantie, zoals de verplichting om AI-gegenereerde inhoud te labelen.
• De Digital Services Act (DSA): Verplicht grote online platforms en zoekmachines om systemische risico's, inclusief die van GenAI (zoals misinformatie, deepfakes en risico's voor minderjarigen), te beoordelen en te mitigeren. GenAI biedt echter ook kansen voor veiliger online ruimtes, bijvoorbeeld door het verbeteren van contentmoderatie.
• De Algemene Verordening Gegevensbescherming (AVG/GDPR): Blijft van toepassing op de verwerking van persoonsgegevens binnen GenAI-systemen. De relatie tussen de AVG en GenAI vereist echter nog diepgaandere analyse met vragen over de definitie van persoonsgegevens in AI-modellen, rechtmatigheid en verantwoordelijkheid.
• Auteursrechtelijke Uitdagingen: De AI-revolutie heeft het auteursrechtlandschap beïnvloed met discussies over de toepassing van tekst- en datamining (TDM) uitzonderingen en de aansprakelijkheid voor inbreuk op auteursrechten door AI-gegenereerde outputs.
• Horizontale Datawetgeving: Initiatieven zoals de Data Governance Act en de Data Act zijn cruciaal om de beschikbaarheid en het hergebruik van hoogwaardige datasets voor AI-toepassingen te verbeteren. Dit is essentieel voor GenAI.
Sectorale Toepassingen
Tot slot bevat het rapport ook analyses van de impact van GenAI in specifieke sectoren. Ook die stippen we even kort aan:
• Gezondheidszorg: GenAI kan diagnostische nauwkeurigheid verbeteren, medicijnontwikkeling versnellen en patiëntzorg personaliseren, maar brengt ook risico's met zich mee zoals databias en de mogelijkheid van het "deskilling" van clinici waardoor een overmatige afhankelijkheid van de AI ontstaat.
Daar waar we nu vaak lezen dat het juist beter kan zijn AI in te zetten voor diagnoses, prognoses e.d. omdat toch blijkt dat de AI het beter heeft dan bijvoorbeeld de Arts. Is het vaak de mens die toch ingrijpt waardoor ook geregeld te zien is dat daardoor het juist misgelopen is. Echter ergens is er mogelijk een kantelpunt waar het gevaar gaat ontstaan dat men minder getraind wordt of minder een beroep kan doen op eigen redeneervaardigheden met tot gevolg afname van de menselijke expertise en creativiteit.
• Onderwijs: GenAI kan gepersonaliseerde leerervaringen bieden en toegang tot kennis democratiseren, maar het risico van overmatige afhankelijkheid en de noodzaak om kritisch denken te behouden zijn belangrijke overwegingen.
Ook in het onderwijs is ‘deskilling’ een risico. Een risico niet alleen voor de leraren maar ook voor de leerlingen. Overmatige afhankelijkheid van AI in het doen van onze taken en voor het realiseren van productiviteitswinst kan ten koste gaan van diepere conceptuele verkenningen en ons leren. Doordenkend kan dat impact hebben op kritisch denken, probleemoplossend vermogen maar ook genuanceerd begrip en ontwikkeling van bepaalde menselijke vaardigheden.
• Wetenschap: GenAI hervormt het wetenschappelijke proces door efficiëntie en creativiteit te vergroten, van hypothesevorming tot data-analyse en communicatie van resultaten.
Capabilities (additionele AI vaardigheden) zoals ‘deep-research’ (de naam wil nog wel eens wisselen per AI leverancier) hervormen ook onderzoek. Modellen kunnen onderzoeksdoelen en hypotheses genereren, literatuur samenvatten om patronen en lancunes te benadrukken (helpt bij het formuleren van die voorgaande vragen) maar ook literatuuronderzoek doen, samenvattingen maken en meer. Het kan namelijk ook helpen de ontwikkelde hypotheses te testen door experimenten te doen en variabelen te controleren, data uit datasets te verwerken en de resultaten te communiceren. waarin je ook risico’s kan zien zoals potentiële vooroordelen en versterking van dominante naratieven en ook hier ligt natuurlijk ‘deskilling’ op de loer.
• Cyberbeveiliging: GenAI kan dreigingsdetectie, responsmogelijkheden en beveiligingstesten verbeteren, maar introduceert ook nieuwe kwetsbaarheden zoals datapoisoning en promptinjecties.
Deze raakten we ook al eerder want je kan AI natuurlijk zeer goed inzetten voor aanvallen en een aanval doen is ook eenvoudiger te doen door veel meer mensen. Wij mensen zijn vaak de zwakkere schakel in beveiliging maar we kunnen geholpen worden om diverse aanvallen te herkennen (automatische analyses), af te weren maar ook daar over te rapporteren. Ook kan het helpen in het testen zoals het genereren van omgevingen, data en scenario’s voor testen en kunnen kwetsbaarheden in code kunnen met AI eenvoudiger gevonden worden.
Er staat wel tegenover dat de complexiteit hoger wordt en vergeet niet dat AI systemen ook systemen zijn die kwetsbaar zijn. Kwetsbaar voor data poisoning (het injecteren van kwaadaardige gegevens in de trainingstest) of model poisoning (bijvoorbeeld door malware of achterdeurtjes die onder specifieke omstandigheden actief kunnen worden). Ook bestaan er directe prompt injecties waarbij je obv je prompt het gedrag of de uitvoer van een generatief model (on)bedoeld kunnen wijzigen. Op die manier kunnen modellen richtlijnen schenden, schadelijke inhoud genereren, ongeoorloofde toegang mogelijk maken of kritieke beslissingen beïnvloeden.
In een model zit natuurlijk heel veel informatie. Informatie kan er ook uitkomen en aanvallers kunnen daar gebruik van maken doordat ze bijvoorbeeld proberen persoonsgegevens proberen te extraheren, input gegevens proberen te achterhalen etc. door alle kennis maar vooral ook de vaardigheden die erbij gekomen zijn zoals web-search door een model kunnen ze ook indirect beïnvloed worden. We bedoelen hiermee dat als een model over het internet of door andere bronnen gaat zoals websites, bestanden e.d. die er aan bij kunnen dragen dat de beschikbaarheid verstoort wort, integriteit geschonden wordt doordat ze bijvoorbeeld onjuiste informatie meegeven en meer.
En hoewel we ze dan nog lang niet allemaal niet dekken is het punt zo wel duidelijk daarom sluiten we af met de risico’s van de mens in interactie met de AI waarbij ons vermogen om overtuigende output te genereren en de manier waarop wij onze AI-assistenten antropomorfismen in combinatie met de overtuigende output van de AI risico’s mee kan brengen richting onze menselijke cognitieve en perceptuele kwetsbaarheden. Chatbots kunnen ons vertellen wat we willen horen (sycofanie) wat kan bijdragen aan verslavend of problematisch gebruik of wanneer we ze inzetten als coach of psycholoog ons tussen wal en schip helpen. Omdat het zo aansluit kan het ook als risico meebrengen dat we er emotioneel van afhankelijk worden en blind op gaan varen.
• Publieke Sector: GenAI kan het overheidsbeheer en de dienstverlening transformeren door efficiëntie en responsiviteit te verbeteren maar het vereist ook robuuste governance en regelgeving. Veel van de kansen en risico’s hebben we hierboven ook al wel geraakt daarom zullen we hier nu niet verder op uitweiden.
Potentieel en risico’s
All en all laat het rapport duidelijk zien dat GenAI een enorm potentieel heeft voor sociale en economische impact in de EU. Wat daarvoor wel van belang is, is een alomvattende en genuanceerde beleidsbenadering om zowel door de kansen als de uitdagingen te navigeren. De door ons ingezette AI’s hebben technologische ontwikkelingen nodig die volledig in lijn zijn met onze normen, (democratische) waarden en het EU-rechtskader. Dat realiseren we niet zomaar, hiervoor hebben we naast scholing, continue samenwerking nodig tussen onderzoek, beleid en stakeholders is cruciaal om het volledige potentieel van GenAI te benutten en tegelijkertijd de risico's te mitigeren.
Lemony's 'AI in a Box': Een Praktisch Antwoord op de Risico's en de Roep om Controle?
Hierboven analyseerden we het "Generative AI Outlook Report" van de EU, waarin de enorme kansen maar ook de aanzienlijke risico's van GenAI werden blootgelegd. We zagen hoe de EU worstelt met de dominantie van Amerikaanse Big Tech, de achterblijvende adoptie door het MKB en de maatschappelijke gevaren van desinformatie, datamisbruik en de milieu-impact van massale datacenters. De conclusie lijkt helder, we hebben een dringende behoefte aan technologische oplossingen die in lijn zijn met onze Europese normen en waarden.
Maar er ontstaan er initiatieven die een interessante insteek zouden kunnen bieden. Een voorbeeld hiervan is Lemony, een bedrijf dat een plug-and-play-apparaat levert voor veilige, on-premise AI. Het lijkt een direct antwoord op de roep om meer grip en controle.
De Kern van het Probleem Aanpakken: Geen Cloud, Geen Frictie
Lemony introduceert een concept dat ze 'AI in a Box' noemen: een fysiek, hardwaregebaseerd knooppunt dat bedrijven in staat stelt geavanceerde AI-workflows volledig privé en lokaal uit te voeren, zonder afhankelijkheid van de cloud. Dit raakt aan de kern van de door ons geschetste problematiek:
Data Soevereiniteit en GDPR: Doordat alle data en prompts het eigen netwerk nooit verlaten, wordt de soevereiniteit over bedrijfsdata gewaarborgd. Dit voorkomt dat gevoelige informatie, zoals de CEO van Lemony, Sascha Buehrle, het stelt, "wordt gebruikt als brandstof voor het trainen van de volgende generatie modellen van Big Tech."
Aanpak van 'Schaduw-AI': Medewerkers die uit bezorgdheid of onwetendheid hun toevlucht nemen tot publieke AI-tools (de zogenoemde 'schaduw-AI') vormen een groot risico. Een eenvoudig te installeren, intern beheerd apparaat zoals Lemony kan bijdragen dit te reduceren.
Milieu-impact en Duurzaamheid: We bekritiseerden het feit dat alternatieven voor de energie- en waterslurpende datacenters buiten beschouwing bleven. Lemony's aanpak met lokale, modulaire en schaalbare hardware is een vorm van edge computing. Dit kan bijdragen aan het verkleinen van de milieu-impact.
Democratisering en het Dichten van de Kloof
Een van de zorgen in ons vorige artikel was dat het MKB achterloopt en de kloof met grote ondernemingen groeit. Lemony richt zich vrij duidelijk op deze uitdaging. Met een abonnementsprijs van $499 per maand voor een team van vijf, wordt geavanceerde AI toegankelijk zonder de noodzaak voor gespecialiseerde kennis of een groot IT-budget. Advocaten, artsen, financieel adviseurs en andere MKB'ers kunnen hiermee hun eigen, slapende bedrijfsdata (zoals duizenden PDF's en e-mails) activeren en omzetten in waardevolle inzichten.
Conclusie: De Noodzakelijke Stap van Beleid naar Praktijk
Nu willen we niet direct zeggen, alle ballen op Lemonly, maar het zijn initiatieven als Lemony die laten zien hoe een deel van de principes die we eerder bespraken in de praktijk gebracht kunnen worden. Het is een manifestatie van de wens om AI te laten aansluiten bij diverse waarden als veiligheid, controleerbaarheid, privacy gerichtheid en duurzaamheid.
Het biedt een alternatief voor het blindelings volgen van de dominante spelers en geeft een deel van de macht terug aan jouw organisatie. Of dit de ultieme oplossing is, wij denken het (nog) niet en de tijd zal het leren, maar het is ontegenzeggelijk een stap in de richting die we in Europa zouden moeten aanmoedigen.
Gemini Diffusion: Google's nieuwe aanpak voor snellere AI-tekstgeneratie
Google DeepMind heeft de afgelopen maand te midden van de reeks eerder besproken AI-innovaties, Gemini Diffusion geïntroduceerd: een experimenteel model dat tekst genereert via een op diffusie gebaseerde methode. In tegenstelling tot traditionele grote taalmodellen (LLM's) zoals GPT en Gemini, die autoregressie (we leggen hem zo uit) gebruiken om woord voor woord te werk te gaan, hanteert Gemini Diffusion een andere aanpak. Deze diffusietaalmodellen (DLM's) passen een techniek toe die bekend is van beeldgeneratie: ze starten met willekeurige ruis en verfijnen dit stapsgewijs tot een coherente tekst. Dit proces kan niet alleen de generatiesnelheid aanzienlijk verhogen, maar ook de algehele samenhang en consistentie van de output verbeteren.
Autoregressie
De standaard methodiek autoregressie is een statistische methode waarbij toekomstige waarden van een reeks worden voorspeld op basis van de eigen voorgaande waarden. De kern van het idee is dat het verleden een goede voorspeller is voor de toekomst.
In de context van AI-taalmodellen (zoals GPT) betekent dit dat het model het volgende token (woord/ woorddeel) in een zin voorspelt door te kijken naar de woorden die het zojuist heeft geschreven. Het is een stapsgewijs proces:
"De kat zit op de..." -> voorspel -> "mat"
Het woord "mat" wordt voorspeld op basis van de context "De kat zit op de". Vervolgens wordt de hele zin gebruikt om het volgende woord te voorspellen, enzovoort. Het model kijkt dus constant terug naar zijn eigen output om de volgende stap te bepalen.
Het verschil tussen diffusie en autoregressie begrijpen
Diffusie en autoregressie zijn fundamenteel verschillende benaderingen. De autoregressieve aanpak die we zojuist uitlegden genereert tekst dus sequentieel, waarbij tokens één voor één worden voorspeld. Hoewel deze methode zorgt voor een sterke samenhang en het bijhouden van context, kan het rekenintensief en traag zijn, vooral voor lange teksten.
Diffusiemodellen beginnen daarentegen met willekeurige ruis, die geleidelijk wordt "ontruist" tot een coherente output. Een methodiek die ook veel afbeelding AIs gebruiken. Wanneer deze techniek op taal toepassen heeft dit verschillende voordelen. Tekstblokken kunnen parallel worden verwerkt, waardoor hele segmenten of zinnen potentieel veel sneller worden geproduceerd.
Gemini Diffusion kan naar verluidt 1.000-2.000 tokens per seconde genereren. Ter vergelijking: Gemini 1.5 Flash heeft een gemiddelde outputsnelheid van 272,4 tokens per seconde. Daarnaast heef diffusion als voordeel dat fouten in de generatie tijdens het verfijningsproces gecorrigeerd kunnen worden. Dit verbetert de nauwkeurigheid en vermindert het aantal hallucinaties. Er kunnen afwegingen zijn op het gebied van fijnmazige nauwkeurigheid en controle op tokenniveau; de toename in snelheid zal echter voor tal van toepassingen een gamechanger zijn.
Hoe werkt dat dan, die tekstgeneratie met diffusie?
Stel je voor dat je een kunstenaar bent die leert beeldhouwen, maar dan omgekeerd. Dat is een beetje hoe een diffusietaalmodel (DLM) leert schrijven. Het trainingsproces is fascinerend en werkt als volgt:
De tekst langzaam afbreken: Het begint met een perfecte, duidelijke zin. Denk aan "De zon schijnt en de vogels fluiten." Het AI-model voegt hier stap voor stap een beetje "ruis" aan toe. Dit kun je zien als het willekeurig toevoegen of verwisselen van letters en woorden, net zo lang tot de oorspronkelijke zin compleet onherkenbaar is en er alleen nog wartaal overblijft. Dit proces wordt miljoenen keren herhaald met allerlei verschillende zinnen.
Leren opruimen: De echte magie zit in de volgende stap. Het model krijgt nu de taak om dit proces om te keren. Het krijgt de wartaal te zien en moet, stap voor stap, de ruis weer verwijderen om de oorspronkelijke, heldere zin te herstellen. Door dit ontelbare keren te oefenen, leert de AI niet alleen hoe een goede zin eruitziet, maar ook wat de onderliggende structuur en logica van taal is. Het wordt een expert in het "ontruisen" van tekst.
Als het model eenmaal volledig getraind is, kan het volledig nieuwe zinnen genereren. Je geeft het een beginpunt (een 'prompt' of een onderwerp) en het model begint met een willekeurige klodder ruis. Vervolgens past het zijn aangeleerde "ontruisingsvaardigheden" toe om die ruis stap voor stap om te vormen tot een coherente en relevante tekst die past bij jouw verzoek.
De voor- en nadelen van diffusiemodellen op een rij
Brendan O'Donoghue, een van de topwetenschappers bij Google DeepMind legde in een interview met Venture Beat uit wat de grote plus- en minpunten zijn van deze nieuwe aanpak.
De voordelen:
Hogere snelheid: Omdat diffusiemodellen in blokken werken en niet woord voor woord, kunnen ze een complete alinea in veel minder tijd produceren. Dit betekent minder wachten op je tekst.
Slimmer energieverbruik: Het model past zijn inspanning aan op de moeilijkheid van de taak. Voor een simpele zin hoeft het minder hard te "denken" en is het sneller klaar. Voor complexe onderwerpen neemt het meer tijd om tot een goed resultaat te komen.
Beter overzicht: In tegenstelling tot autoregressieve modellen die alleen terugkijken, kan een diffusiemodel de hele zin (zowel het begin als het einde) tegelijk overzien terwijl het schrijft. Dit helpt om de tekst als geheel logischer en samenhangender te maken, alsof het met een helikopterview werkt.
Ingebouwde zelfcorrectie: Het schrijfproces is een reeks van verfijningsstappen. Als het model een foutje maakt in een vroege versie, kan het dit in de volgende stap zelf herkennen en corrigeren. Bij de oude methode is een gemaakte fout veel lastiger te herstellen.
De nadelen:
Hogere gebruikskosten: Het kan duurder zijn om deze geavanceerde modellen te laten draaien.
Iets langere starttijd: Bij de oude modellen zie je vrijwel direct het eerste woord op je scherm verschijnen. Bij diffusie moet je heel even wachten, waarna je de volledige tekst in één keer krijgt. Vergelijk het met het verschil tussen een kraan die meteen begint te druppelen en een emmer water die je na twee seconden in één keer aangereikt krijgt.
Zakelijke toepassingen: waar gaan we dit in de praktijk zien?
De voordelen van snelheid, overzicht en zelfcorrectie maken deze nieuwe diffusiemodellen (DLM's) bijzonder interessant voor de overheid en het bedrijfsleven zeker daar waar reactietijd van belang is. Denk hierbij aan real-time en low-latency toepassingen zoals High frequency Trading, Gaming en interactieve media en Live stream platforms waar audio en data snel verwerkt moet worden. Voor teksten zou je dan kunnen denken aan:
Slimmere chatbots en conversationele AI: Klantenservice-bots die niet woord voor woord een antwoord formuleren, maar direct een compleet en coherent antwoord geven, wat leidt tot een veel natuurlijkere en snellere interactie.
Live ondertiteling en vertaling: Stel je een vergadering of een live-evenement voor waarbij de vertaling of ondertiteling vrijwel zonder vertraging en in volledige, correcte zinnen verschijnt.
Codeerassistenten en IDE-aanvullingen: Programmeurs die hulp krijgen van een AI die niet alleen de volgende regel code voorspelt, maar hele codeblokken in één keer kan genereren en optimaliseren, rekening houdend met de context van het volledige script.
Volgens O'Donoghue zit de kracht van diffusiemodellen ook in toepassingen die gebruikmaken van "inline bewerken". In het interview legt hij uit dat het aanpassen van een bestaand stuk tekst zoals een paar wijzigingen doorvoeren midden in een paragraaf op een manier kan die voor de traditionele autoregressieve modellen simpelweg niet is weggelegd. Omdat DLM's de hele tekst overzien, kunnen ze een wijziging doorvoeren en direct de omliggende zinnen aanpassen om de logica en consistentie te bewaren.
Daarnaast hebben DLM's een streepje voor bij complexe taken zoals redeneren, wiskunde en het oplossen van codeerproblemen. Dit komt door wat O'Donoghue "niet-causaal redeneren" noemt. De mogelijkheid om zowel vooruit als achteruit te kijken in de tekst (bidirectionele aandacht) stelt het model in staat om verbanden te leggen die een stap-voor-stap model zou missen.
De toekomst is in beweging
De ontwikkelingen gaan hard en hoewel deze technologie op dit gebied nog in de kinderschoenen staat, heeft het de potentie om de manier waarop we taalmodellen bouwen te transformeren. Ze genereren niet alleen tekst veel sneller, maar hun vermogen om terug te keren en fouten te herstellen, betekent dat ze uiteindelijk resultaten met een hogere nauwkeurigheid kunnen produceren.
Gemini Diffusion is overigens niet de enige speler op dit nieuwe veld. Het betreedt een groeiend ecosysteem van DLM's, met twee andere opmerkelijke voorbeelden: Mercury, ontwikkeld door Inception Labs, en LLaDa, een open-source model van GSAI. Samen laten deze modellen zien dat er een breder momentum is voor taalgeneratie op basis van diffusie.
Mistral’s Meesterzet: Hoe de Franse AI-lieveling de Soevereiniteitskaart Speelt
Terwijl de techreuzen vechten om wie het slimste AI-model heeft, gooit de Franse uitdager Mistral AI het roer om passend bij hoe we vandaag ook de nieuwsbrief begonnen met het eerste artikel. In plaats van blind mee te doen aan de race om de hoogste benchmarkscores, kiezen zij voor een onverwachte maar briljante strategie: de focus op infrastructuur. Met de aankondiging van Mistral Compute een samenwerking met chipgigant NVIDIA. Ze bieden niet zomaar een nieuw model maar een compleet AI-ecosysteem als dienst .
Een strategische verbreding en naar ons idee een slim antwoord op een markt die wordt gedomineerd door Amerikaanse en Chinese spelers. Mistral positioneert zichzelf als de enige Europese partij die zowel kwalitatief hoogstaande modellen als de onderliggende technologie en software levert. Een 'full-stack' aanpak die een compleet nieuwe markt opent namelijk: overheden en bedrijven die hun data, uit principe of vanwege regelgeving, niet bij Amerikaanse partijen willen onderbrengen. En dat ze tegelijkertijd topmodellen als het recente Magistral blijven uitbrengen, bewijst dat ze de grote jongens ook op inhoudelijk vlak prima kunnen bijbenen.
Wat is een 'Full-Stack' AI-oplossing?
Om de strategie van Mistral te begrijpen, kun je het vergelijken met een autofabrikant. De meeste AI-bedrijven ontwerpen de motor (het taalmodel), maar zijn afhankelijk van anderen voor de fabriek, de machines en de showroom. Mistral bouwt nu alles zelf:
De Hardware (de fabriek): Dankzij de samenwerking met NVIDIA hebben ze toegang tot de krachtigste chips.
De Modellen (de motor): Ze blijven hun eigen, geavanceerde taalmodellen ontwikkelen.
De Software (het dashboard en de service): Ze bieden de chatinterface en ontwikkelaarstools om de modellen te gebruiken.
Hiermee bieden ze een totaalpakket aan. Klanten krijgen niet alleen een krachtig AI-model, maar ook de garantie dat hun data binnen de Europese Unie blijft onder Europese jurisdictie. Ook prettig in het licht van de eerder besproken gerechtelijke uitspraak. Voor veel organisaties zal deze datasoevereiniteit een doorslaggevende factor zijn.
Magistral: Een model dat zijn redenering toont
Naast de infrastructuur introduceerde Mistral ook zijn nieuwe Magistral-modellen. Deze systemen zijn, net als de topmodellen van concurrenten, in staat om complexe, stapsgewijze redeneertaken uit te voeren. Maar er is een cruciaal verschil. Guillaume Lample, de hoofdwetenschapper van Mistral, legt uit: "In tegenstelling tot concurrenten die hun denkproces verbergen, tonen onze modellen hun volledige gedachtegang aan de gebruiker."
Stel je voor dat je de AI een lastige vraag stelt. In plaats van alleen een antwoord te krijgen, laat Magistral je de hele redenering zien, stap voor stap. En de echte magie? Zo kun je als gebruiker precies volgen hoe het model tot een conclusie komt en controleren of de logica klopt. Dit creëert een niveau van transparantie dat we tot nu toe nauwelijks zagen.
Hoe krijgt een AI onverwachte superkrachten?
Tijdens het trainen van de Magistral-modellen stuitte het team van Mistral op verrassende, niet-geplande vaardigheden. Het model ontwikkelde als het ware zijn eigen superkrachten.
Redeneren over afbeeldingen, zonder daarvoor getraind te zijn: Hoewel het model uitsluitend was getraind op tekst (zoals wiskunde en code), ontdekte het team dat het plotseling ook over afbeeldingen kon redeneren. Lample noemde dit "een zeer leuke verrassing". Het is alsof je een topkok traint op smaak en hij er spontaan het talent bij krijgt om een prachtig schilderij te maken van de ingrediënten.
Zelfstandig op onderzoek uitgaan: Het model bleek ook in staat om zelfstandig actie te ondernemen. Als het een vraag krijgt en vermoedt dat de informatie verouderd is, voert het zelf een zoekopdracht uit op het internet. Vervolgens analyseert het de resultaten. Is het antwoord nog niet gevonden? Dan zoekt het gewoon opnieuw, totdat het een bevredigende oplossing heeft. Dit gedrag ontstond op natuurlijke wijze, zonder dat het team dit specifiek had ingeprogrammeerd.
Mooi natuurlijk maar ook misschien wel enigszins eng misschien AI die zelf vaardigheden ontwikkeld waarvan onderzoekers niet (exact) weten waar het vandaan komt.
Toekomst van Mistral
De dubbele aankondiging van Mistral – geavanceerde modellen én een eigen infrastructuur lijkt een duidelijk signaal. Het bedrijf wil geen modelleverancier zijn, maar een volwaardig AI-platform dat de Amerikaanse tech-dominantie uitdaagt.
Het succes van deze Europese uitdaging zal afhangen van de vraag of klanten waarden als soevereiniteit, transparantie en duurzaamheid zwaar genoeg laten wegen om over te stappen want de kwaliteit van de modellen loopt nog wel iets achter. Het is echter een geloofwaardig alternatief en wanneer daar meer op ingezet wordt zal er ook meer geld naar toe vloeien waardoor er ook zeker op de andere gebieden een inhaalslag plaats zal vinden. We hebben in iedergeval een keuze.
Om met onze collega’s en AI deze nieuwsbrief vol waardevolle inzichten te blijven maken, hebben we jouw steun nodig. Als betalende abonnee krijg je daarom exclusieve toegang tot extra content, zoals inspirerende prompts voor diverse thema’s, diepgaande analyses en het allerlaatste nieuws over AI-ontwikkelingen. Wil je een bepaald thema uitgelicht of heb je een specifieke vraag die breed relevant kan zijn? Dan behandelen we die daar voor je.
Wil je nog meer verdieping, meer nieuws, leren prompten en meer met AI? Schrijf je hier in of - als je al ingeschreven bent als gratis lezer - pas je abonnement aan voor verdere verdieping.
Waarom zou je dit doen? In het betaalde lezersdeel gaan we nog dieper in op belangrijke ontwikkelingen maar ook op onder andere prompting technieken en meer. Ook kan je vragen stellen waar we soms dieper op ingaan en maak je onderdeel uit van de community waarin we diepere discussies kunnen voeren.
Dit keer
Taken om met AI op te pakken en significant tijd te besparen
Inclusief prompts ter inspiratie
Bizarre ontwikkelingen in de zelflerende revolutie, van AI modellen die zichzelf fine-tunen zichzelf tot agents die paralel werken
Sluit je aan bij onze community van vooruitstrevende professionals en krijg niet alleen een voorsprong in kennis, maar help ons ook om deze updates mogelijk te blijven maken. Scroll verder en ontdek de bonusinhoud die speciaal voor onze abonnees is samengesteld. Doe mee en haal alles uit het tijdperk van AI!
Keep reading with a 7-day free trial
Subscribe to DigiBeter to keep reading this post and get 7 days of free access to the full post archives.