DigiBeter

DigiBeter

Share this post

DigiBeter
DigiBeter
De Schok die Wall Street deed Beven: de spelregels veranderd wat de ontwikkelingen van afgelopen week ons leren Technologie, Economie en de Toekomst

De Schok die Wall Street deed Beven: de spelregels veranderd wat de ontwikkelingen van afgelopen week ons leren Technologie, Economie en de Toekomst

De impact van open-source AI op economie, technologie en werkgelegenheid—van nieuwe kansen tot onverwachte risico’s.

DigiBeter's avatar
DigiBeter
Feb 03, 2025
∙ Paid

Share this post

DigiBeter
DigiBeter
De Schok die Wall Street deed Beven: de spelregels veranderd wat de ontwikkelingen van afgelopen week ons leren Technologie, Economie en de Toekomst
Share

De ontwikkelingen in AI blijven elkaar in hoog tempo opvolgen, en deze week was daar een goed voorbeeld van. Een reeks gebeurtenissen, met DeepSeek als middelpunt, zette zowel de tech- als de financiële wereld op scherp. Van beurscorrecties en geopolitieke implicaties tot fundamentele vragen over hoe AI-modellen worden ontwikkeld en gefinancierd—er is veel om over na te denken.

In deze nieuwsbrief nemen we je mee langs de belangrijkste ontwikkelingen: De EU wetgeving die weer een stap verder in werking is getreden, wat gebeurde er precies met DeepSeek en waarom had dit zo'n impact op Wall Street? Hoe past dit in de bredere discussie over open-source AI, en wat betekent dit voor organisaties die AI willen inzetten? En misschien wel het belangrijkste: welke lessen kunnen we hieruit trekken voor de toekomst? Én ….. Last but not least, OpenAI heeft een antwoord gelanceerd op DeepSeek of…. op zijn minst een vervolg daarop genaamd DEEP Research. Allereerst is sinds dit weekend een belangrijke stuk van de EU AI Wetgeving in werking getreden.

De EU AI-verordening: Wat betekent dit voor jou?

Vanaf februari 2025, ofwel net voor het afgelopen weekend, is het volgende deel van de EU AI-verordening ingegaan en dat brengt flinke veranderingen met zich mee. Organisaties en overheden moeten aan nieuwe regels voldoen, met als doel meer veiligheid, transparantie en bescherming van fundamentele rechten. Wat is daarin belangrijk:

Strikte verboden: deze AI mag niet meer

Sommige AI-toepassingen worden volledig verboden, vooral als ze een groot risico vormen voor mensenrechten en privacy. Dit zijn de belangrijkste verboden:

  • Manipulatieve AI die misbruik maakt van kwetsbaarheden, zoals leeftijd of handicap, om gedrag te beïnvloeden.

  • Social scoring op basis van iemands sociale of persoonlijke kenmerken.

  • Biometrische categorisatie die gevoelige gegevens afleidt, zoals ras of religie.

  • Real-time biometrische identificatie in openbare ruimten*, behalve bij specifieke veiligheidsdoeleinden zoals terrorismebestrijding.

  • Emotieherkenning op werkplekken en in het onderwijs.

  • Scrapen van gezichtsafbeeldingen van het internet en camerabeelden zonder toestemming.

Let op: uitzonderingen op real-time biometrische identificatie vereisen gerechtelijke goedkeuring.

Nieuwe verplichtingen voor organisaties

Naast verboden worden er ook strikte eisen gesteld aan AI-gebruik binnen bedrijven en instellingen:

  • AI-geletterdheid: Werknemers die AI gebruiken moeten voldoende kennis hebben over AI en de risico’s ervan.

    • Je kan dus niet zomaar een AI-Chatbot zoals MS-Copilot voor je hele organisatie aanzetten zonder gezorgd te hebben voor de juiste AI-Geletterdheid. Voor meer informatie zie onze website en neem contact met ons op.

  • Risicoclassificatie: AI-systemen worden ingedeeld in vier categorieën (onaanvaardbaar, hoog, beperkt, minimaal).

  • Transparantie-eisen:

    • Chatbots moeten duidelijk aangeven dat ze AI zijn.

    • Deepfakes en AI-gegenereerde content moeten verplicht gelabeld worden.

      • Documentatieplicht: Voor hoog-risico AI, zoals bij werving en rechtshandhaving, geldt een uitgebreide verantwoordingsplicht.

Wil je jouw organisatie, collega’s, vrienden en/of familie informeren deel dan deze post! Zo help je ook ons anderen te helpen met inzicht in de belangrijkste laatste ontwikkelingen.

Share

Handhaving en sancties: Boetes kunnen hoog oplopen

De EU neemt de naleving van deze regels serieus. Er worden stevige sancties opgelegd bij overtreding:

  • Boetes kunnen net als met de AVG hoog oplopen. In dit geval tot €35 miljoen of 7% van de wereldwijde omzet.

  • Toezichthouders krijgen de bevoegdheid om AI-systemen uit de markt te halen. In Nederland is dit naar ons weten dat voor CE-markeringen de huidige sectorale toezichthouders de verantwoording dragen.

    • De NVWA voor AI in speelgoed

    • De IGJ voor AI in medishce apparaten

    • In de financiële sector de AFM en NL Bank

    • In de infrastructuur de ILT en de RDI

    • De AP is algemeen markt toezichthouder voor AI-toepassingen met een hoog risico ongeacht de sector.

      Hoe e.e.a. zich verder uitwerkt zal nog bezien moeten worden. Mogelijk komen er dus nog wijzigingen in het bovenstaande.

  • Inventarisatieplicht: Organisaties moeten vóór februari 2025 verboden AI identificeren en uitfaseren.

Niet alles is verboden: waar zit de nuance?

Er is ruimte voor uitzonderingen en nuances in de regelgeving:

  • Voorspellende politietools zijn toegestaan, zolang ze gericht zijn op concrete criminele activiteiten en niet op persoonlijke kenmerken.

  • Onderzoek naar biometrische data mag onder strikte voorwaarden doorgaan.

  • Medische AI valt onder aparte wetgeving, die nog in ontwikkeling is.

Wat betekent dit voor jouw organisatie?

Deze AI-regels markeren een belangrijke verschuiving naar een risicogestuurd AI-beleid. Met februari 2025 als eerste mijlpaal begint een zesjarig implementatietraject. De tijd dringt: organisaties moeten nu aan de slag met screening en compliance om hoge boetes en reputatieschade te voorkomen.

Is jouw organisatie er klaar voor? Kijk op digibeter.eu voor meer informatie.

En dan komen we om het volgende natuurlijk ook niet heen. DeepSeek hield afgelopen week de gemoederen flink bezig. Wij pellen het nieuws af en brengen veel informatie hier voor je bij elkaar. DeepSeek, een Chinese ‘start-up’. En ze hielden deze week de gemoederen aardig bezig want met één klap zetten ze, zo dachten velen, de wereld van de AI-ontwikkelingen op zijn kop. Wat velen niet weten is dat een en ander al langer uit was en dat enkel de App nu uit was gekomen en daarmee de bekendheid in 1x vele malen groter werd. Dit leidde tot een klap van 2 dagen van Wall Street tot Silicon Valley. Een klap die we, voor wie het nog niet door had, inmiddels alweer redelijk te boven zijn.

De Schok die Wall Street deed Beven

De cijfers waren echter duizelingwekkend. NVIDIA verloor in één dag $600 miljard aan beurswaarde - de grootste daling ooit op Wall Street. Constellation kelderde 21% en Nebius Group stortte zelfs in met 37%. Het was geen gewone marktcorrectie, wat we hier zagen is Wall Street die worstelt met een fundamentele vraag: Is het hele economische model van AI-ontwikkeling aan herziening toe? Zijn al die miljarden die we erin gestopt hebben verloren? Zijn al die miljarden die we er nog in willen stoppen wel noodzakelijk?

Maar voor we dieper in de afgelopen week willen duiken eerst een korte bespreking waarom DeepSeek interessant is om zelf eens te bekijken.

Waarom is DeepSeek interessant om zelf (eens) naar te kijken?

Je hoeft je niet te abonneren op DeepSeek dat is, in zijn chatbotvorm tenminste, gratis te gebruiken. De DeepSeek-chatbot gebruikt standaard het V3-model, maar je kan op elk moment overschakelen naar het R1-model door simpelweg te klikken of te tikken op de "DeepThink (R1)" knop onder de prompt bar. Op die manier krijg je een ervaring waarvoor je bij OpenAI 200 euro per maand aftikt om het onbeperkt te gebruiken. Toegegeven bij OpenAI hebben we voor dat geld nog meer mogelijkheden maar dit is toch wel de meest relevante. DeepSeek voelt dus een beetje als ChatGPT maar dan zonder de toeters en bellen.

Een van de interessantere functies van ChatGPT voor velen van ons is de zoekfunctie. Ook die heb je in DeepSeek. Wij kiezen daarvoor zelf liever voor Perplexity. Dit zoekt veel fijner zeker als je daarna nog wel bron inhoudelijk verder wilt kijken. Binnen DeepSeek Tik/Klik je gewoon op de knop Search en welke prompt je ook intypt, het wordt een zoekopdracht. Makkelijker dan dat kan het eigenlijk niet.

Zodra je gezocht hebt kan je vervolgvragen stellen, dus stel je zoekt naar pizzarestaurants in je stad kan je daarna vragen om er over te redeneren met een vraag als “als je één restaurant moet kiezen, welke zou dat zijn?”. Als het om bronnen gaat krijg je bij OpenAI en DeepSeek beide de bronnen maar in ChatGPT is dit wel wat overzichtelijker. Bij Perplexity is dit nog prettiger. Maar de kers van DeepSeek is natuurlijk het redeneren.

Zodra je een vraag stelt zal je direct merken dat DeepSeek langzamer is met antwoorden dan je wellicht gewend bent. Je ziet dat het een gesprek (redenatielijn) met zichzelf voert voordat een antwoord gegenereerd wordt. Dit vinden wij de beste feature. Bij OpenAI is dat verborgen maar hier zie je stap voor stap het afpellen van je vraag of opdracht. Dat redenatieproces is fantastisch om 1 te snappen hoe het antwoord tot stand komt maar ook om op door te vragen als je ziet of vind dat er ergens in het ‘gedachtenproces’ een fout gemaakt is. Op basis daarvan kan je dan het gesprek aangaan met de AI over zowel de uitkomst als de eventuele opvallend heden in het gedachtenproces. Het is dus een mooie additionele toevoeging aan je AI toepassingsportfolio om eens een test mee uit te voeren om te zien en beseffen waar een en ander zich heen beweegt.

Wil je je collega’s, vrienden of familie ook informeren en laten weten hoe snel de ontwikkelingen in AI gaan, hoe ontwikkelingen samenhangen en meer help ons en je kenniskring dan en deel deze nieuwsbrief

Share

De Technische Revolutie onder de Motorkap

Want wat maakt DeepSeek zo bijzonder? Het bedrijf heeft iets voor elkaar gekregen wat niemand voor mogelijk hield. Met slechts bijna $6 miljoen aan ontwikkelingskosten - waar concurrenten miljarden investeren - hebben ze een AI-model gebouwd dat kan concurreren met de grote jongens. We leggen zo uit waarom het niet gaat om slechts 6 miljoen maar bespreken eerst de teneur.

Hun geheime wapen? Twee briljante innovaties:

  1. DeepSeekMoE: Denk aan een superefficiënt team van specialisten. In plaats van voor elke vraag het hele team te raadplegen, roept het systeem alleen de relevante experts op. Het resultaat? Een dramatische verbetering in efficiëntie.

  2. DeepSeekMLA: Een revolutionaire manier om informatie te comprimeren zonder betekenis te verliezen. Vergelijk het met een meesterlijke samenvatting die de essentie van een dik boek vangt.

In cijfers betekent dit:

  • 671 miljard parameters in totaal

  • Slechts 37 miljard actief per taak

  • 2,78 miljoen GPU-uren trainingstijd (waar Meta 30,8 miljoen nodig had voor Llama 3)

Wat er gebeurt is dat het model getraind is op basis van Reinforcement Learning zonder Supervised finetuning (SFT). Er is hier, in plaats van mensen, een AI ingezet om het model verder fijn te slijpen. Dit drukt te kosten. Echter het model dat is ingezet is een eerder model van DeepSeek dat er al was in december afgelopen jaar, die kosten zijn niet meegenomen in het verhaal. Wat ook mist is alle andere research etc. die in het trainen en ontwikkelen van het model gegaan is. Met andere woorden, ondanks dat het een grote kosten slag is ten aanzien van de Amerikaanse modellen, is het beeld dat het slecht 6 miljoen kost sterk overdreven.

Leave a comment

De Boemerang die Niemand Zag Aankomen

Toch is het alsnog interessant want hoe zit het met de Amerikaanse handelsbeperkingen op geavanceerde chips naar China? Die lijken te hebben gewerkt als een boemerang. In plaats van de Chinese AI-ontwikkeling af te remmen, hebben ze onbedoeld innovatie gestimuleerd. DeepSeek heeft, om het beeldend te zeggen, een etappe in de Tour de France gewonnen op een gewone fiets.

Om dit te realiseren maakt DeepSeek geen gebruik van Nvidia's CUDA-ecosysteem, maar ontwikkelde een eigen programmeertaal (DeepSeek PTX) voor fijnmazige optimalisaties. Mogelijk hebben ze hiermee ook bepaalde beperkingen omzijld die zijn gerealiseerd. Het toont in ieder geval aan dat er alternatieven zijn voor Nvidia's monopolie en dat de afhankelijkheid van CUDA doorbroken kan worden

De Jevons Paradox: Een Economisch Plottwist

Hier komt ook een fascinerende economische wet om de hoek kijken: de Jevons Paradox. Want zoals eerder gebeurde bij auto's, telefoons en computers: als technologie efficiënter en goedkoper wordt, gebruiken we er niet minder, maar juist méér van.

Dit betekent voor AI:

  • Meer mensen krijgen toegang tot krachtige AI

  • Nieuwe toepassingen creëren nieuwe vraag

  • De totale vraag naar rekenkracht zal exploderen

Met andere woorden, eigenlijk is het dubbel raar dat de hele markt inzakte. Want naast dat het model al langere tijd OpenSource beschikbaar was en downloadbaar voor op je eigen laptop (mits krachtig genoeg) zou je op basis van deze theorie een explosie verwachten.

Privacy en Veiligheid: De Keerzijde

Natuurlijk zijn er wereldwijd en bij de techleiders zorgen er is een keerzijde aan het verhaal. DeepSeek's Chinese oorsprong roept vragen op over dataveiligheid en privacy. Een van de discussies die er loopt is over Intellectueel eigendom en plagiaat waarbij Open AI Deepseek beschuldigd een voorsprong te hebben gekregen zonder dezelfde inspanningen te leveren namelijk het leegzuigen van het hele web en daarmee intellectueel eigendom en plagiaat plegen van alles en iedereen wat ze daar vonden.

Exact datgene waar onze power macht BREIN deze week het kleine Nederlandstalige taalmodel GEITJE voor offline gehaald heeft. Niet echt een intelligente move als je het ons vraagt. Ze kunnen zich beter focussen op de grote spelers, daar is impact te behalen en dat kan helpen om Nederland niet verder achterop te laten vallen. Dit in tegenstelling tot wat er nu gebeurt, de rest laten gaan en hier remmen. Maar voor wat betreft DeepSeek is er naar het lijkt volgens de partijen ‘substanteel bewijs’ dat DeepSeek kennis heeft ‘gedestilleerd’ uit de modellen van OpenAI. Tegelijkertijd kunnen we ons hiermee afvragen wat dit betekend voor de inzet van de in organisaties meest gangbare modellen Llama, OpenAI, Gemini, CoPilot of welke dan ook in onze organisaties welke allemaal getraind zijn op dergelijke data! Dit wordt een juridische kluif tenzij je kiest voor de juiste partijen die hier op een andere manier mee omgaan.

Maar het open source karakter biedt een uitweg: organisaties kunnen de technologie lokaal draaien, zonder data naar China te sturen. en ook zijn ze op Hugging Face bezig met een poging om het R1-model te repoduceren, omdat de ‘black box’ filosofie van DeepSeek replicatie en verder onderzoek bemoeilijkt. Wellicht heb je dus gelezen dat R1 open sourde is maar er is toch een behoorlijk gebrek aan openheid. Hoewel DeepSeek vrij te gebruiken is onder de MIT license kan het zeker niet als volledig open-source beschouwd worden omdat veel data en code niet beschikbaar zijn.

Er zijn ook zorgen over de veiligheid en ethiek van DeepSeek's AI, zeker als het gaat over de app die nogal wat data lijkt te verzamelen en delen. Het model op de eigen laptop is daar anders in, maar daar hebben de meeste mensen de hardware niet naar. Dit heeft onder meer geleid tot een verbod op het gebruik van DeepSeek door Amerikaanse overheidsinstanties en de marine. Ook onderzoekt de Amerikaanse National Security Council onderzoekt de gevolgen van DeepSeek. In Italië is er een klacht ingediend over de manier waarop DeepSeek data behandelt, met betrekking tot GDPR-wetten en de bescherming van minderjarigen. DeepSeek geeft aan dat de app niet bedoeld is voor gebruikers onder de 18, maar lijkt dit niet af te dwingen. Laten we dit nog iets verder uitdiepen.

China's Wetgeving voor Generatieve AI

Laten we beginnen met een basisaspect van compliance: DeepSeek is gevestigd in China en moet zich derhalve aan de Chinese wetten houden.

De eerste wet op generatieve AI van China, die in augustus 2023 in werking trad is “Interim Measures for the Management of Generative Artificial Intelligence Services,” Hier is wat Artikel 4 van deze wet zegt:

Artikel 4 is van toepassing op het leveren en gebruiken van generatieve AI-diensten, en daarmee niet alleen op degenen die deze systemen ontwikkelen, maar ook op degenen die ze gebruiken;

‘To uphold’ betekent bevestigen of ondersteunen. Aanbieders en gebruikers van generatieve AI-systemen die onder deze wet vallen, moeten de kernwaarden van het socialisme ondersteunen, onder meer door ervoor te zorgen dat alleen content die in lijn is met China's benadering van deze kernwaarden beschikbaar wordt gesteld.

Let op dat de specifieke regels omtrent toegestane en verboden content in andere wetten en administratieve voorschriften zijn opgenomen. We zijn niet exact bekend zijn met de betekenis hiervan of hoe breed de Chinese overheid deze vereisten interpreteert.

Voor wie het nog niet heeft begrepen: dit is een censuurregel. Het betekent dat degenen die generatieve AI ontwikkelen en/of gebruiken, de “kernwaarden van het socialisme” moeten ondersteunen en zich moeten houden aan de Chinese wetten die dit onderwerp reguleren.

Hoewel wij natuurlijk geen expert zijn op het gebied van deze censuurregels, kunnen we er meer over leren via het gebruik van de outputs van DeepSeek rondom vragen over bepaalde vragen over China en Taiwan. De antwoorden en de interpretatie van de Chinese overheid op elke vraag zijn bijzonder te noemen. Proberen we dezelfde prompts uit in andere populaire AI-chatbots, zoals ChatGPT, Gemini, Claude of Perplexity, zijn de antwoorden genuanceerder en zonder een duidelijke, doelbewuste ideologische- of censuurfilter. Probeer het zelf eens en wees wees creatief en uitdagend. We lezen jullie op- en aanmerkingen graag in de comments

Je kunt zoveel prompts testen als je wilt, maar DeepSeek zal niet direct of indirect kritische opvattingen over het Chinese socialisme of de Chinese beleidslijnen bieden – in tegenstelling tot de reacties over andere landen, zoals de Verenigde Staten.

Vanuit een AI-trainingsperspectief betekent het creëren van filters om de censuurregels te respecteren dat het systeem uitkomsten produceert die, vanuit een feitelijk of wetenschappelijk perspectief, onjuist zijn. Het AI-systeem heeft geen verplichting tot feitelijke of wetenschappelijke waarheid en het bedrijf erachter moet zich houden aan de wetgeving van zijn jurisdictie. Bij een conflict is het dus zo geprogrammeerd dat het de wet respecteert, inclusief de censuurwetten.

Deze gebrek aan nauwkeurigheid komt bovenop de standaard onnauwkeurigheid en hallucinatiegraad, die tot op heden in elk generatief AI-systeem aanwezig is.

Juridische Implicaties van Censuurfilters

Vanuit een EU-juridisch perspectief: wat is het probleem als DeepSeek zich houdt aan censuurwetten en content filtert volgens een specifieke ideologie? Er zijn twee hoofdkwesties:

  • Betrouwbare AI, rechtvaardigheid en het verminderen van bias

De EU AI-verordening stelt bijvoorbeeld dat AI ontwikkeld en ingezet moet worden met respect voor mensgerichte en betrouwbare AI. Zie bijvoorbeeld Artikel 1 van de EU AI-verordening:

“Het doel van deze verordening is het functioneren van de interne markt te verbeteren en de inzet van mensgerichte en betrouwbare kunstmatige intelligentie (AI) te bevorderen, terwijl een hoog niveau van bescherming van gezondheid, veiligheid en de fundamentele rechten, verankerd in het Handvest – inclusief democratie, de rechtsstaat en milieubescherming – wordt gegarandeerd tegen de schadelijke effecten van AI-systemen in de Unie en tegelijkertijd innovatie wordt ondersteund.”

Als we kijken naar de AI-principes van de OESO – de eerste intergouvernementele standaard voor AI – dan benadrukt het tweede principe, naast andere zaken, het respect voor rechtvaardigheid:

“AI-acteurs dienen de rechtsstaat, mensenrechten, democratische en mensgerichte waarden te respecteren gedurende de gehele levenscyclus van het AI-systeem. Dit omvat non-discriminatie en gelijkheid, vrijheid, waardigheid, de autonomie van individuen, privacy en gegevensbescherming, diversiteit, rechtvaardigheid, sociale rechtvaardigheid en internationaal erkende arbeidsrechten. Dit omvat ook het aanpakken van mis- en desinformatie die door AI wordt versterkt, met inachtneming van de vrijheid van meningsuiting en andere rechten en vrijheden zoals beschermd door het toepasselijke internationale recht.”

Bij het analyseren van AI-systemen die censuurwetten respecteren in het licht van deze principes is het volgende belangrijk:

  • Als een AI-systeem actief een bepaalde wereldbeschouwing promoot, is het doelbewust bevooroordeeld ten aanzien van deze specifieke ideologie en zal het feiten of context die tegen deze ideologie ingaan afwijzen. Om aan de censuurregels te voldoen, kan het misinformatie of bevooroordeelde informatie verspreiden.

  • Als een AI-systeem doelbewust de realiteit vervormt om in een bepaalde wereldbeschouwing te passen, respecteert het niet de waardigheid en autonomie van mensen. Personen die schade ondervinden als gevolg van deze wereldbeschouwing zullen genegeerd of verwijderd worden, en gebruikers van het systeem krijgen informatie die als “staatsgesponsorde propaganda” kan worden gezien.

Transparantieverplichtingen voor aanbieders van algemene AI-modellen

De EU AI-verordening stelt specifieke verplichtingen vast voor aanbieders van algemene AI-modellen, zoals DeepSeek. Tot de verplichtingen behoren onder meer:

  • De ontwerpspecificaties van het model en het trainingsproces, inclusief trainingsmethodologieën en -technieken, de belangrijkste ontwerpkeuzes (waaronder de onderbouwing en aannames) en waarvoor het model geoptimaliseerd is, alsmede de relevantie van de verschillende parameters, indien van toepassing.

  • Informatie over de data die is gebruikt voor training, testen en validatie, inclusief het type en de herkomst van de data en de methodologieën voor curatie (bijvoorbeeld schoonmaken, filteren, enz.), het aantal data-items, hun reikwijdte en belangrijkste kenmerken; hoe de data is verkregen en geselecteerd en alle andere maatregelen om de ongeschiktheid van gegevensbronnen en methoden voor het detecteren van identificeerbare vooroordelen vast te stellen, indien van toepassing.

Deze verplichtingen voor aanbieders van algemene AI-modellen zijn nog niet afdwingbaar. Bovendien, aangezien DeepSeek‑V3 op de markt wordt gebracht als gratis en open source (hoewel het niet echt open source is zoals we na dit stuk over DeepSeek uit zullen leggen), zouden deze verplichtingen alleen op DeepSeek‑V3 van toepassing zijn als het wordt geclassificeerd als een algemene AI-model met systemisch risico (wat waarschijnlijk zal gebeuren, gezien de criteria die in Bijlage XIII zijn vastgesteld).

Wanneer deze verplichtingen afdwingbaar worden, zullen de ontwikkelaars van DeepSeek zich in een lastige positie bevinden – waarschijnlijk gedwongen om te erkennen dat het systeem inderdaad bevooroordeeld is ten opzichte van een bepaalde wereldbeschouwing of ideologie, maar dat deze vooringenomenheid doelbewust is, omdat zij zich aan de Chinese wet moeten houden en derhalve niet zullen corrigeren.

Zal deze houding vanuit een EU-juridisch perspectief aanvaardbaar zijn, zeker gezien het feit dat rechtvaardigheid en de bescherming van fundamentele rechten centraal staan in de EU AI-verordening? Waarschijnlijk niet.

Ethische Implicaties van Censuurfilters

Naast de juridische implicaties van censuurfilters zijn er ook ethische implicaties, vooral wanneer de modellen geïntegreerd worden in diverse AI-systemen. Eventuele ingebouwde vooringenomenheden in een AI-model zullen zich immers verspreiden naar de AI-systemen en agenten die op dit model zijn gebaseerd.

De Verenigde Staten en de EU hebben bijvoorbeeld geen staatsverplichte censuurwetten die een AI-model verplichten een “capitalistische wereldbeschouwing” of een andere specifieke brede politieke visie te promoten. Dit concept is vreemd in Westerse democratieën en de meeste mensen in de EU of de VS zouden niet verwachten onderhevig te zijn aan staatsgesponsorde propaganda of censuur tijdens hun interactie met AI-systemen.

Wanneer een AI-model met ingebouwde censuur geïntegreerd wordt in meerdere toepassingen, inclusief agentische toepassingen, kunnen mensen direct of indirect worden beïnvloed om op een manier te denken of handelen die overeenkomt met een ideologie die zij niet onderschrijven – naast de andere juridische uitdagingen rondom AI-agenten.

Aangezien de censuur en vooringenomenheid ingebouwd is en de meeste mensen in de VS en de EU niet gewend zijn aan staatsgesponsorde censuurwetten, zullen velen het niet opmerken. Hierdoor kunnen zowel individuen als groepen zich er niet van bewust zijn dat zij in een bepaalde politieke richting worden gestuurd.

Afhankelijk van hoe een bevooroordeeld AI-model wordt geïntegreerd in de AI-systemen of agenten, kan de interferentie in het besluitvormingsproces van de gebruiker ook worden aangemerkt als een vorm van manipulatie in de context van het EU-consumentenrecht, de EU AI-verordening of onder de jurisdictie van de Amerikaanse Federal Trade Commission (FTC).

De Race is Nog Niet Gelopen

Want ondanks alle opwinding is nuance op zijn plaats. OpenAI heeft nog steeds een belangrijk stuk van de markt met hun nieuwste model o3 en Sam Altman kwam ook vrij snel met een reactie dat we snel meer kunnen gaan verwachten van OpenAI. Grote labs houden mogelijk hun krachtigste innovaties achter dus het is lastig in te schatten wat we op korte termijn als reacties kunnen verwachten. Daarnaast erkent de DeepSeek's CEO openlijk dat chipbeperkingen nog steeds een uitdaging vormen hoewel dit ook een spel kan zijn om niet teveel in de kaart te laten kijken.

Wat Dit Betekent voor de Toekomst

Deze ontwikkeling versnelt drie fundamentele verschuivingen:

  1. Democratisering van AI

    • Van miljarden naar miljoenen investeringen

    • Toegankelijk voor kleinere spelers

    • Het toont aan dat we de race zeker nog niet verloren hebben en door in te zetten op soevereiniteit en eigen NL en EU organisaties er nog een breed palet aan kansen ligt

    • Het toont aan dat in korte tijd grote stappen gezet kunnen worden dus ook daar we niet afhankelijk zijn van de landen aan de andere kant van de wereld.

    • Open source (afhankelijk van de inhoud van de modellen natuurlijk) kan goed gezien worden als nieuwe standaard

  2. Decentralisatie

    • Hoog kwalitatieve AI kan ook lokaal draaien, niet alleen in de cloud

    • Minder afhankelijkheid van grote datacenters en daarmee energie

    • Minder afhankelijkheid van SaaS leveranciers

    • Maatwerk is heel goed mogelijk

  3. Efficiëntie Revolutie

    • Slimmere architecturen winnen van brute kracht

    • Minder hardware-intensief

    • Snellere innovatiecycli

De Échte Revolutie

Wat DeepSeek werkelijk heeft aangetoond: het gaat niet om de grootste budgetten, maar om de slimste aanpak. Ze hebben niet alleen bewezen dat efficiënte AI mogelijk is, maar ook dat je met slimme innovatie kan concurreren met gesloten systemen. Het is daarmee naar ons inzicht meer dan een technische doorbraak of een beursschok. Het is een fundamentele verschuiving voor wie AI wil inzetten en voor wie AI kan ontwikkelen. Een andere vraagstelling, andere ontwikkeling en een andere manier van gebruik en inzet kunnen ons grote stappen vooruit helpen. De laatste dagen zien we waarschuwing na waarschuwing voorbij komen met het verwijnen van DeepSeek uit de appstores in Italië, de Belgische data protection authoriteit die zich in onderzoek focust op DeepSeek, berichten over datalekken waarbij wordt gewaarschuwd voor alle data die DeepSeek verzamelt tot aan onze toetsaanslagen aan toe waarmee je gebruikers kan identificeren omdat iedereen zijn eigen unieke manier van typen heeft.

Kortom, the AI-game is still on - maar de spelregels zijn hierin echt veranderd.

Open AI’s antwoord op DeepSeek?

OpenAI introduceert Deep Research, een nieuwe agent binnen ChatGPT die complexe online onderzoekstaken autonoom uitvoert. Open AI noemt het zelf de volgende stap in AI-Gestuurd Onderzoek. Dit betekent dat je niet langer urenlang zelf bronnen hoeft te doorzoeken—Deep Research analyseert en synthetiseert informatie uit honderden online bronnen en presenteert de bevindingen als een uitgebreide rapportage. Deze functie is nu beschikbaar voor Pro-gebruikers, met een bredere uitrol naar Plus en Team in de nabije toekomst. Wij gaan de functie testen voor jullie en komen daar op terug in de volgende nieuwsbrief.

Open Source AI: Waarom Transparante Kunstmatige Intelligentie Essentieel is voor Onze Digitale Toekomst

Zoals we bij DeepSeek zien worden modellen soms al snel OpenSource genoemd. De discussie over de toekomst van AI krijgt een nieuwe dimensie met de opkomst van Open Source AI. Maar wat betekent Open Source nu precies hen waarom is Open Source belangrijk voor organisaties, overheden en de maatschappij als geheel?

Wat is AI en Machine Learning?

Voordat we dieper ingaan op de relevantie van Open Source AI, is het belangrijk om te begrijpen wat we precies bedoelen met AI en Machine Learning:

Kunstmatige Intelligentie (AI) is een computersysteem dat, op basis van wat het binnenkrijgt, zelfstandig uitkomsten kan produceren. Denk aan voorspellingen, content, aanbevelingen of beslissingen die invloed hebben op de echte of digitale wereld. AI-systemen verschillen in hoe zelfstandig ze zijn en hoe goed ze zich kunnen aanpassen na ingebruikname.

Machine Learning is een verzameling technieken waarmee computers beter worden in hun taken door te leren van voorbeelden (trainingsdata), in plaats van door exacte instructies van mensen. Dit leerproces noemen we "training". Daarnaast is het ook van belang om te snappen hoe Open Source AI technisch is opgebouwd.

De Technische Bouwstenen van Open Source AI

Een Open Source AI-systeem moet drie essentiële elementen openbaar maken:

  1. Informatie over de Trainingsdata:

    • Complete beschrijving van alle gebruikte data

    • Waar de data vandaan komt en hoe deze is geselecteerd

    • Hoe de data is verwerkt en gelabeld

    • Overzicht van publiek beschikbare trainingsdata

    • Lijst van data die via derden verkrijgbaar is

  2. De Broncode:

    • Alle code voor dataverwerking en -filtering

    • Code voor het trainen van het model

    • Ondersteunende programma's zoals tokenizers

    • Code voor het draaien van het model

    • De complete modelarchitectuur

  3. De Modelparameters:

    • Alle 'gewichten' en instellingen van het model

    • Tussentijdse checkpoints van de training

    • Eindstaat van het geoptimaliseerde model

Deze drie elementen moeten beschikbaar zijn onder open source licenties die door de Open Source Initiative (OSI) zijn goedgekeurd.

Open Source Modellen en Gewichten

Bij machine learning systemen is het belangrijk om te begrijpen dat:

  • Een AI-model bestaat uit de architectuur (de structuur), de parameters (waaronder gewichten) en de code om het model te laten werken

  • De AI-gewichten zijn de geleerde waardes die bepalen hoe het model met input omgaat om output te produceren

Voor beide geldt dat ze alleen echt 'open source' zijn als ook de trainingsdata en code openbaar zijn die gebruikt zijn om ze te maken.

Wat is Open Source AI

Open Source AI wordt gedefinieerd als AI-systemen die vier fundamentele vrijheden bieden:

  • Vrij gebruik voor elk doel, zonder toestemming te vragen

  • Volledige transparantie over de werking

  • Mogelijkheid tot aanpassing voor eigen doeleinden

  • Vrijheid om het systeem te delen en te verspreiden

Deze vrijheden gelden niet alleen voor het complete systeem, maar ook voor alle afzonderlijke componenten. Een cruciaal aspect is dat gebruikers toegang moeten hebben tot alles wat nodig is om het systeem te kunnen aanpassen. Nu kunnen we dit van veel jonge start-ups uit Europa nog niet altijd verwachten omdat er vaak nog grote investeringen gedaan zijn / moeten worden maar daar kan je als launching partner wel goed afspraken over maken.

Waarom dit relevant is

Deze ontwikkeling raakt aan de kern van hoe we als maatschappij met AI willen omgaan. Het gaat verder dan alleen technische specificaties - het gaat om fundamentele vragen over soevereiniteit, democratisering van technologie, innovatie en maatschappelijke controle.

Impact op verschillende niveaus

Bestuurlijk niveau:

  • Meer grip op AI-ontwikkeling door transparantie

  • Mogelijkheid tot democratische controle

  • Betere waarborging van publieke belangen

Organisatieniveau:

  • Lagere afhankelijkheid van grote tech-bedrijven

  • Meer flexibiliteit in implementatie, de keuze in modellen is groot, en gebruik

  • Betere controle over AI-systemen en daarmee meer grip en mogelijkheden bij te sturen op kwaliteit

  • Bij te trainen naar behoefte

Medewerkersniveau:

  • Mogelijkheid tot aanpassing aan specifieke behoeften in de User Interface

  • Betere fine-tuning op specifieke taken

Strategische Dilemma's

  1. Innovatie vs. Controle

    • Open source bevordert innovatie door gezamenlijke ontwikkeling

    • Maar roept vragen op over controle en aansprakelijkheid mede in relatie tot de AI-Act

      • Wanneer je AI-systemen op de markt brengt onder je eigen merk- of handelsnaam, Originele doel van waarvoor een systeem is uitgebracht wijzigt of het systeem substantieel wijzigt ben je leverancier volgens de AI-Act. Ook kan een leverancier het ontwikkelen of als open-source op de markt brengen. Belangrijk om op te merken dat de AI-Act van toepassing is op de gehele ‘waardeketen’ die betrokken is bij het op de markt brengen van AI, inclusief makers, aanbieders, gebruikers, integrerende partijken, distributeurs en importeurs.

    • Spanning tussen snelheid van ontwikkeling en zorgvuldigheid

      • Open modellen lopen een half jaar tot een jaar achter. Hoewel we ons af kunnen vragen of we alle functionaliteit direct nodig hebben betekent dit wel dat je ‘iets’ achter de muziek aan loopt.

  2. Europese Soevereiniteit vs. Mondiale Samenwerking

    • Open source kan Europese digitale autonomie versterken en daarmee zorgen dat wij soeverein kunnen werken en acteren

    • Maar vereist internationale samenwerking en lef om als launching partner met jonge partijen te werken aan eigen toepassingen en modellen die onafhankelijk van de big tech kunnen functioneren

    • Balans tussen bescherming en openheid

      • Bepaalde modellen wil je wellicht niet open stellen. Zeer specialistische modellen die getraind zijn op bijvoorbeeld jouw volledige huisstijl om maar een dwarsstraat te noemen of waar bepaalde door jouw organisatie ontwikkelde modellen in zitten die je vermarkt wil je wellicht liever niet voor iedereen toegankelijk. Tegelijkertijd kan ook daar een kans zitten ze juist open aan te bieden.

  3. Economische Belangen vs. Publiek Belang

    • Commerciële belangen versus maatschappelijk nut

      • Er spelen grote commerciële belangen bij partijen als Microsoft. Je ziet de enorme push waarmee ze CoPilot bij iedereen naar binnen brengen omdat er enorme investeringen terug te verdienen zijn. Dit terwijl vrijwel overal waar wij komen bedrijven, als ze CoPilot gehad hebben, daar ook alweer geregeld afscheid van genomen hebben omdat het onvoldoende meerwaarde biedt.

    • Spanningsveld tussen winstgevendheid en toegankelijkheid

      • Hierop voortbordurend maakt Microsoft het wel zo toegankelijk mogelijk om ons ertoe te zetten het te omarmen, want als het de huizen binnen komt dan gaan we er op kantoor ook om vragen. Tegelijkertijd kunnen ze goed gebruikersdata verzamelen om zo hun AI verder te trainen een impact waar velen niet bij stil staan.

    • Impact op bestaande businessmodellen

      • Er is, met de komst van AI, ook een grote verandering in business modellen. Het kan de werkgelegenheid behoorlijk gaan raken. Met name werkverandering realiseren. Doordat het bepaalde werkzaamheden behoorlijk raakt denk aan het schrijven van rapporten en onderzoeken, het ontwerpen van User Interfaces van toepassingen, Grafisch design, Schrijven van juridische stukken en veel andere raakt het ook business modellen. Een andere manier van nadenken over werk is dus essentieel.

Stakeholder-analyse

Europese Unie:

  • Kans voor digitale soevereiniteit

  • Uitdaging in regulering en standaardisering

  • Uitdagingen in het leverancier schap

  • Mogelijkheid tot eigen AI-ecosysteem

Nationale overheid:

  • Betere controle over AI-systemen

    • Kwaliteitsdata

    • Voldoen aan wet- en regelgeving

    • Met eigen cultuur normen en waarden

    • Transparantie

  • Uitdagingen in governance

  • Kansen voor eigen AI-ontwikkeling

Private sector:

  • Betere controle over AI-systemen

    • Kwaliteitsdata

    • Voldoen aan wet- en regelgeving

    • Met eigen cultuur normen en waarden

    • Transparanite

  • Nieuwe businessmodellen nodig

  • Kansen voor innovatie

  • Uitdaging in waardecreatie

Burgers:

  • Meer transparantie en controle

  • Betere bescherming van rechten

  • Toegang tot AI-technologie

Ethische Dimensie

  1. Transparantie en Verantwoording

    • Volledige inzage in trainingsdata en algoritmes

    • Mogelijkheid tot audit en controle

    • Betere waarborging van ethische principes

  2. Onbedoelde Effecten

    • Risico op misbruik door kwaadwillenden

    • Uitdagingen in kwaliteitsborging

Praktische Implicaties

Voor organisaties betekent dit:

  • Heroverweging van AI-strategie

  • Investering in kennis en expertise

  • Aanpassing van ontwikkelprocessen

  • Initieel hogere investering accepteren in selectie, training en ontwikkeling ten gunste van latere kwaliteit, snelheid, organisatie veiligheid en aansluiting bij organisatie cultuur, normen en waarden.

Concrete Vervolgstappen

  1. Voor bestuurders:

    • Ontwikkel visie op Open Source AI

    • Creëer beleidskaders

    • Investeer in kennis en expertise

  2. Voor organisaties:

    • Evalueer huidige AI-systemen

    • Onderzoek Open Source alternatieven

    • Ontwikkel transitieplan

    • Richt platformen in om kennis, ervaring en best practices uit te wisselen

  3. Voor professionals:

    • Verdiep kennis over Open Source AI

    • Experimenteer met open systemen

    • Deel ervaringen en best practices

Juridische Context

Een belangrijk punt is dat de Open Source AI-definitie niet voorschrijft hóe de vrijheid van modelparameters precies juridisch gewaarborgd moet worden. Ze kunnen van nature vrij zijn, of er kan een licentie of ander juridisch instrument nodig zijn. Dit zal waarschijnlijk duidelijker worden naarmate het rechtssysteem meer ervaring gaat opdoen met Open Source AI-systemen.

Conclusie

Open Source AI biedt een kans om AI-ontwikkeling democratischer en transparanter te maken. Dit vraagt om een zorgvuldige balans tussen innovatie en controle, tussen openheid en bescherming. De sleutel ligt in het vinden van nieuwe modellen voor samenwerking tussen overheid, bedrijfsleven en maatschappij.

Om met onze collega’s en AI deze nieuwsbrief vol waardevolle inzichten te blijven maken, hebben we jouw steun nodig. Als betalende abonnee krijg je daarom exclusieve toegang tot extra content, zoals inspirerende prompts voor diverse thema’s, diepgaande analyses en het allerlaatste nieuws over AI-ontwikkelingen. Wil je een bepaald thema uitgelicht of heb je een specifieke vraag die breed relevant kan zijn? Dan behandelen we die daar voor je.

Dit keer gaan we onder meer in op Operator waarbij we een verband leggen naar OpenSource en DeepSeek, Prompts ter inspiratie voor Operator en een belangrijke ontwikkeling op het gebied van wet- en regelgeving op het gebied van AI.

Sluit je aan bij onze community van vooruitstrevende professionals en krijg niet alleen een voorsprong in kennis, maar help ons ook om deze updates mogelijk te blijven maken. Scroll verder en ontdek de bonusinhoud die speciaal voor onze abonnees is samengesteld. Doe mee en haal alles uit het tijdperk van AI!

Get 15% off for 1 year

Keep reading with a 7-day free trial

Subscribe to DigiBeter to keep reading this post and get 7 days of free access to the full post archives.

Already a paid subscriber? Sign in
© 2025 DigiBeter IT Consultants
Privacy ∙ Terms ∙ Collection notice
Start writingGet the app
Substack is the home for great culture

Share