De opkomst van generatieve AI-modellen zoals ChatGPT, Claude, Grog, Co-Pilot, en GitHub Co-Pilot en anderen hebben de deuren geopend naar een nieuwe wereld van mogelijkheden. Met hun vaak verbazingwekkende vermogen om menselijke manieren van communicatie te begrijpen en nieuwe vormen van informatie te genereren, complexe taken uit te voeren en creatieve output te leveren. Dit vermogen maakt dat het zeker is dat deze tools de toekomst van werk momenteel al ingrijpend veranderen en deze stroomversnelling is nog niet ten einde.
Terwijl we deze technologische vooruitgang omarmen, dat doen we bij DigiBeter ook, moeten we echter ook kritisch kijken naar de risico's die gepaard gaan met een overheersende marktmacht van enkele Amerikaanse maar ook opkomende Chinese giganten. De geschiedenis leert ons dat systeemtechnologieën de de kans hebben om de marktmacht te doen verschuiven.
AI is een systeemtechnologie. Het is daarom nu van cruciaal belang een evenwichtig speelveld te behouden en afhankelijkheid van één of enkele spelers, landen of staten te voorkomen.
In deze nieuwsbrief gaan we dan ook dieper in op het belang van en kansen voor alternatieven in relatie tot belangrijke eisen aan AI. We belichten potentiële gevaren van monopolyvorming en belichten we het belang van Europese en Nederlandse initiatieven om een gezonde, diverse AI-markt te stimuleren.
Marktdominantie
Momenteel domineren vooral een hand voor grote Amerikaanse tech giganten de toepassingen in ons werkende en privé leven. Het is dan ook niet verwonderlijk dat daar de eerste grote stappen vandaan kwamen rondom deze AI ontwikkelingen
Prijscontrole
Die handvol grote Amerikaanse bedrijven, zoals OpenAI, Google en Microsoft, hebben de controle over de meest geavanceerde en krachtige AI-modellen. Als deze markt gedomineerd wordt door deze spelers kunnen zij op elk gewenst moment de prijzen voor het gebruik van hun AI-diensten aanzienlijk verhogen.
Zonder goede Europese, maar liefst natuurlijk Nederlandse initiatieven voor onze dagelijkse werkzaamheden heb je geen andere keuze dan deze prijsstijgingen te accepteren. Risico hier is onder meer enorme kostenverhogingen en een onevenredige lastenverdeling.
Leveringszekerheid
Een nog groter risico is de leveringszekerheid. Indien één of enkele partijen, landen of staten besluiten hun AI-diensten te beperken of geheel stop te zetten, kunnen talloze organisaties en overheden in de kou komen te staan. Hoe meer je in het ecosysteem van een of enkele tech partijen zit hoe erger dit risico. Zonder de toegang tot essentiële (AI-)tools waar processen meer en meer van afhankelijk zijn en worden, kan je gehele operatie volledig worden lamgelegd. Dit maakt je uiterst kwetsbaar en afhankelijk van de willekeur van die partijen, landen of staten.
Naast dat het een impact heeft op je organisatie kan het ook het belang van Nederland en Europa raken doordat zaken ingezet kunnen worden als pressiemiddel.
Innovatie remmer
Wij zijn er ook heilig van overtuigd dat het omarmen van de AI van deze tech giganten gaat zorgen voor een rem op de innovatie in je organisatie. De meest duidelijke hiervan is MS Co-Pilot. Niet voor niets is Microsoft momenteel Co-Pilot als een dolle aan het pushen in Windows, Office, de browser en zoekmachine.
Even kijkend naar het Office Pakket is het eigenlijk volstrekt onlogisch om een additioneel bedrag te betalen van 30 euro per gebruiker per maand voor de toegevoegde functionaliteit. Laten we beginnen met het feit dat 30 euro heel veel geld is voor een tool die nog meer dan sub-optimaal werkt. Regelmatig lukt het co-pilot niet om te ondersteunen bij E-mail, Samenvattingen en het schrijven van zaken in word. Nog minder vaak lukt het om in Excel een goede ondersteuning te leveren bij het analyseren van spreadsheets, het maken van diagrammen, grafieken of bijvoorbeeld het realiseren goede formules. En ook in Powerpoint klopt weinig van de demo’s die we online zien. Het gaat lang niet zo snel, bij het realiseren van de presentatie volgt het geen consistente opmaak lijn en informatie is slechts uit een word document toe te voegen. Het combineren van documenten draagt in meerdere tests enkel bij aan chaos en herstel werk.
Des al niet te min moeten we zeggen dat het indrukwekkend is wat er allemaal is. Maar dan komt de volgende vraag WAAROM Office? We hoeven, als je er logisch over nadenkt helemaal geen Word bestanden meer te schrijven. Laat ons dit uitleggen
Als je een project wil beginnen schrijf je vaak meerdere projectdocumenten, waarom? Er zijn allang hele goede projectmanagement systemen waar je geen ellenlange teksten in hoeft te zetten maar enkel feitelijke informatie. Waarom zou je dat doen:
Je kan er sneller en visueel over rapporteren
Je kan trends eenvoudiger spotten over projecten
Verbanden tussen projecten worden beter inzichtelijk
Je kan leren van het verleden en daarmee betere inschattingen maken
Je hoeft veel minder tijd te besteden aan het schrijven van dergelijke documenten
etc
Waarom maak je nog presentaties? Een filmpje zegt veel meer dan een presentatie en kan zichzelf oneindig vaak afspelen. En een filmpje maak je in no-time met Generatieve AI.
Waarom maak je nog spreadsheets? die data kan prima verwerkt worden in de databases van je financiële systemen, Service Management systemen etc. en van daaruit kan je dat heel goed connecteren aan allemaal rapportage producten.
Waarom nog mailen? Taken kan je uit zaaksystemen krijgen, proces ondersteuningstools e.d. en als je elkaar wilt spreken kan je chatten, bellen of elkaar gewoon live zien wat sowieso steeds meer een goed idee lijkt te worden naar mate de deep fakes beter worden.
Het is eenvoudig om te grijpen naar iets wat je al kent maar onze ervaring leert ons dat het echt veel leuker, eenvoudiger en beter kan. En let op, we zeggen niet dat het Office Pakket End of Life is, maar wel dat waarschijnlijk meer dan 90% van wat je doet. Ga je daar een Co-Pilot in zetten om je te helpen belemmer je jezelf om logisch na te denken of wat je doet wel zo efficiënt is, hoe het efficiënter kan en wat voor een specialistische tool je daarbij zou kunnen helpen zodat de digitale middelen je echt ondersteunen.
Deze risico's onderstrepen de noodzaak van een diverse, concurrerende AI-markt met meerdere Nederlandse en Europese en liefst jonge en innovatieve aanbieders om een gezonde machtsverdeling te garanderen. Een monopolie in handen van enkele Amerikaanse en/of Chinese spelers is een onwenselijke situatie die organisaties afhankelijk en kwetsbaar maakt.
Databronnen
Naast de machtsvraagstukken, rijzen er ook fundamentele vragen over de databronnen en ethische praktijken van de huidige AI-giganten:
Privacy en Auteursrechten
Veel van de grote taalmodellen zoals GPT-3, 3.5, CoPilot en andere zijn getraind op enorme hoeveelheden data die grotendeels is 'geschraapt' of verzameld van het wereldwijde web. Zoals we tegen de sleepnetwet zijn trekken deze giganten het hele Internet leeg als een grote stofzuiger. Dit betekent dat deze datasets vaak privacygevoelige informatie of auteursrechtelijk beschermd materiaal bevatten.
Er zijn Nederlandse alternatieven die hier niet aan meedoen. Het gebruik van dergelijke data bij de training van AI-modellen kan in strijd zijn met Europese privacywetgeving zoals de AVG/GDPR, schenden mogelijk het auteursrecht en brengen daarnaast meerdere ethische vraagstukken met zich mee. Het is onduidelijk in hoeverre deze datasets zijn gefilterd om dergelijke inbreuken te voorkomen.
Transparantie
Naast dat transparantie in de trainingsdata van modellen handig is om te weten of een model getraind is volgens onze normen, waarden, beleid, wet- en regelgeving (waaronder dus GDPR & auteursrechten) is transparantie in waarop het model getraind is ook van belang om bijvoorbeeld te weten welke BIAS (vooringenomenheden / vooroordelen) er mogelijk zit in het model zodat je het bijvoorbeeld op basis van prompting of verdere training met additionele data bij kan sturen. Het kennen van de data draagt daarnaast ook bij om de output beter te kunnen wegen. Waarom komt er uit wat er uit komt?
Eigendom
Waar je eigenlijk zelden wat over hoort is de afhankelijkheid die je hebt wanneer je vertrouwt op de partijen die deze modellen bouwen. Je komt er nog maar lastig van af als je vind dat het niet voldoet aan de eisen. Een belangrijke eis om op te nemen in de inkoopvoorwaarden is daarom dat je de modellen eigenlijk:
Het model dat jij traint voor altijd van jou blijft
De data waarmee je traint van jou blijft
De data die je naar het model verstuurt binnen jouw organisatie blijft
Je het model liefst zoveel mogelijk lokaal kan hosten en verder kan trainen
Het lokaal (verder) kunnen trainen zorgt voor een minder grote energie impact
Het lokaal kunnen hosten maakt ook dat je - zelfs zonder internet verbinding - gebruik kan maken van AI. Het hoeft daarmee niet alleen niet naar buiten, ook bij verstoringen kan je rustig verder werken.
Tegelijkertijd toont het ook aan dat het model een dermate omvang heeft dat het energie technisch ook niet belachelijk veel meer vraagt dan dat je systeem nu al doet.
Ethische Kwesties
Privacy & auteursrechtelijk beschermde data
Als organisatie kan je je afvragen of het ethisch is een model te trainen waarvan de eigenaren dit gedaan hebben op basis van data waarvoor ze geen toestemming gevraagd hebben of ze die mochten gebruiken, waar ze vaak niet voor betaald hebben als er auteursrecht op zit en wat volgens diverse wetten ook niet gebruikt mag worden. Naast dat het ethische vragen zijn is er ook nog geen jurisprudentie en is het nog maar de vraag of je niet aansprakelijk gesteld kan worden voor het gebruik van deze modellen.
De Techgiganten zoals OpenAI en Microsoft dekken dat (deels) af door beloften dat zij de rechtzaken zullen dragen. Maar dat haalt het ethisch vraagstuk nog niet uit de weg.
Arbeidsomstandigheden
Misschien heb je er al wel eens van gehoord? Bij de ontwikkeling van veel van deze grote AI-modellen worden vaak zogenaamde 'clickwerkers' ingezet. Deze ‘clickwerkers’ zijn vaak laagbetaalde arbeiders in landen in bijvoorbeeld Afrika of Azië. Deze werknemers hebben naast hun lage loon ook geen adequate sociale voorzieningen en dat is zeer zorgelijk gezien het werk dat ze moeten leveren.
Het is namelijk de taak van deze ‘clickwerkers’ om grote hoeveelheden (output) data/ informatie te labelen en categoriseren.
Nu spreken we hier over generatieve AI modellen en de kracht van dergelijke modellen is dat ze informatie in veel diverse vormen kunnen produceren denk aan tekst maar ook afbeeldingen, geluid en bewegende beelden. Nu denk je misschien, wat is daar erg aan? Maar deze modellen kunnen op basis van hun trainingsdata vrijwel alles produceren. Van hoe je een bom maakt tot recepturen voor drugs, van imitaties van BNers tot allemaal vormen van porno. Met andere woorden geproduceerde vormen van ‘communicatie’ kunnen uitermate schokkend, haatdragend of anderszins schadelijk zijn. En dit doen ze allemaal zodat wij, wanneer we gebruik maken van deze modellen, dergelijke content niet te zien krijgen of niet (zomaar) eruit kunnen krijgen.
Nu kan je je wellicht voorstellen wat dit voor een blijvende psychologische impact kan hebben. Het pleidooi is dus om ook om deze redenen al geen gebruik te maken van deze modellen. Het is belangrijk dat we streven naar een ethische en menswaardige ontwikkeling van AI-technologie. Ook hier zijn goede voorbeelden van bekend binnen Nederland.
Tevens is het te adviseren dergelijke eisen in je inkoopvoorwaarden op te nemen. Niet alleen wanneer je software inkoopt maar ook als eis aan je (toe)leveranciers of de product/dienst keten. Samen kunnen we, met betrekkelijk weinig extra effort, een vuist maken en werken aan mooie en eerlijke producten waar we zelf de regie op voeren.
Duurzaamheid en Energie
Energieverbruik & Koeling
De enorme omvang van de meest geavanceerde AI language models, met miljarden parameters, maakt ze extreem rekenintensief en energie-hongerig. Niet alleen het trainen van dergelijke modellen is vele malen energie -stroom en koelwater- intensief maar ook het bevragen ervan kost vele malen meer energie.
Hoewel niet exact duidelijk zijn er schattingen die aangeven dat alleen al de CO2-uitstoot van het trainen van zulke modellen vergelijkbaar is met die van een heel land! In een tijd waarin we streven naar duurzaamheid en een kleinere ecologische voetafdruk, roept deze hoge energiebehoefte vragen op over de milieukosten van zulke geavanceerde AI-systemen. Het is essentieel oplossingen te vinden om deze impact te verminderen. Ook die oplossingen zijn er.
Laten we beginnen met zeggen dat een verwerking van een AI opdracht in de meest simpele versie is: - Input - Opslag - Verwerking - Output. De verwerkingen van AI opdrachten gebeuren momenteel vooral in… juist de US. Dat wil zeggen dat we alleen daarmee vaak al de fout in gaan want we mogen er niet zomaar alles op slaan. Daarbij kan de Amerikaanse regering overal vanuit hun wetgeving naar kijken.
Maar we hadden het over het energiegebruik en de oplossingen. Die oplossingen zijn grappig genoeg goed te vinden in Europa. Northern Data ooit begonnen ten tijde van de mining en blockchain heeft zich omgevormd tot High Performance Computing leverancier. Ze hebben een groot deel van hun Datacenters bij groene energiebronnen in onder andere Noorwegen en Zweden waar ze de overcapaciteit benutten en waar, door de temperaturen daar, minder koelwater nodig is en warmte ook soms nog efficiënt ingezet kan worden.
Deze ethische zorgen en mogelijke overtredingen van Nederlandse / Europese regels rondom arbeid bij de ontwikkeling van Amerikaanse AI-systemen, benadrukken het belang van transparantie van niet alleen de data maar ook hoe de training in zijn werk is gegaan. Daarnaast biedt het ontwikkelen van alternatieven die voldoen aan onze normen en waarden natuurlijk ook direct de kans ook dergelijke ethische vraagstukken te ondervangen. Tot slot lijkt het sowieso wenselijk dergelijke eisen goed op te nemen in alle inkoopvoorwaarden van zowel toeleveranciers van producten als die van diensten en de gebruikte software.
Europese en Nederlandse AI-initiatieven
Gelukkig zijn er al lovenswaardige Europese en Nederlandse initiatieven die zich richten op de ontwikkeling van AI-modellen en -toepassingen, hoewel ze niet allemaal voldoen aan alle bovengenoemde criteria. Dit biedt perspectief, maar er is ruimte voor verbetering.
Een voorbeeld is het project van TNO en Spotnet, dat met overheidsfinanciering een taalmodel traint. Echter, deze partijen hebben aangegeven geen inzage te geven in de trainingsdata van het model. Dit is een gemiste kans, aangezien transparantie over de data cruciaal is voor verantwoorde AI-ontwikkeling. Er hadden wat ons betreft strengere eisen gesteld kunnen worden aan dit project, zeker gezien het feit dat er meer dan genoeg andere partijen zijn die dit project hadden kunnen uitvoeren.
In Frankrijk wordt er met Mistral gewerkt aan een concurrent voor ChatGPT, Claude, Google Gemini, Grog en andere taalmodellen. Mistral richt zich op de ontwikkeling van nieuwe AI-technologieën met extra aandacht voor databescherming, algoritmetransparantie en betrouwbaarheid. Echter, ook hier zien we dat andere belangrijke aspecten, zoals energie-efficiëntie, duurzaamheid in het algemeen en transparantie over de trainingsdata, minder aandacht krijgen.
Verder is er nog het Duitse Aleph Alpha, dat zich richt op de ontwikkeling van een 'menselijke' AI. Dit project is nog in een vroeg stadium, maar het is alvast bemoedigend dat er aandacht wordt besteed aan ethiek en verantwoordelijkheid in de ontwikkeling van AI.
Ook in Nederland kennen we aanbieders die taalmodellen hebben en voor jouw organisatie door kunnen ontwikkelen. Modellen vrij van auteursrechtelijk beschermd materiaal, vrij van privacy data en die aan zowel de ethische als groene aspecten voldoen. Wij kennen er zelfs 1 die je end - to - end proces ondersteuning kan bieden met de garantie geeft dat jouw model van jou blijft, jouw data van jouw blijven en dat je de modellen lokaal kan draaien als je dat wilt. Dus geen data naar buiten maar alles veilig binnen de eigen poorten. Een partij die al meerdere jaren onderweg is en inmiddels haar diensten levert aan o.a. een zeer grote Duitse bank en een onderneming die wereldwijd in bijna ieders huis, auto e.d. aanwezig is. DigiBeter werkt mede met hen samen als partner voor implementaties.
Dergelijke Europese initiatieven bieden organisaties de mogelijkheid om te profiteren van de voordelen van AI, zonder de risico's van afhankelijkheid van enkele Amerikaanse techgiganten. Het stimuleren van zulke alternatieven is cruciaal voor een evenwichtige AI-markt in Europa en hopelijk een stuk technologische shift back naar Nederland en de EU in de systeem technologische verandering.
Vereisten voor Ethisch, groen en Veilig AI-Gebruik
Nog even in het kort een aantal zaken om op te nemen in je inkoopvoorwaarden om op te nemen in de voorwaarden met je software en andere (toe)leveranciers. En natuurlijk het juiste gesprek te voeren met AI leveranciers zodat je jullie AI op een verantwoorde, veilige (jouw data van jou en indien gewenst binnen jouw muren), zo groen mogelijke en ethische mogelijke manier kan adopteren.
Lokale Verwerking
AI-modellen en de bijbehorende data moeten de mogelijkheid hebben om volledig binnen de Europese Unie te draaien en verwerkt te worden. Dit om te voldoen aan de strenge privacyregels en databeschermingswetgeving van de EU, zoals de AVG/GDPR.
Eigenaarschap
Organisaties moeten te allen tijde de volledige en onbetwiste eigenaar blijven van AI-modellen die zij eventueel ontwikkelen of aan laten passen, inclusief de bijbehorende datasets die voor de training worden gebruikt. Dit intellectuele eigendom mag nooit in handen komen van externe partijen. Daarnaast moet je ook eigenaar blijven van de data die je naar het model toestuurt en de output die daar uitkomt. Kortom alles blijft van jouw organisatie.
Groen
Het op een zo energie efficiënte manier trainen en bevragen van modellen is van groot belang om de ecologische footprint zo klein mogelijk te houden. Daarom is het van belang na te denken over welk type model je waar gebruikt (het hoeft geen enorm model te zijn om goed te werken) en eisen te stellen aan in wat voor soort data centers je wilt dat je modellen getraind worden wanneer zware training noodzakelijk is.
Transparantie
Er moet volledige openheid en transparantie zijn over de herkomst van data, liefst ook welke data, de precieze trainingsprocedures en de technische ontwikkelingsprocessen achter AI-modellen. Alleen dan kunnen we de ethische integriteit en naleving van wet- en regelgeving garanderen.
Door consequent vast te houden aan deze richtlijnen, kunnen Europese organisaties de enorme potentie van AI-technologie benutten zonder afbreuk te doen aan onze fundamentele ethische principes en privacy waarborgen.
Een Gezamenlijke (Europese) Inspanning
De ontwikkeling van een ethische, veilige en duurzame AI-infrastructuur binnen Europa is een immense uitdaging die alleen kan worden aangegaan door nauwe samenwerking tussen overheden, bedrijven, kennisinstellingen en maatschappelijke organisaties.
Alleen door onze krachten te bundelen en ons in te zetten voor een evenwichtige, diverse AI-markt met ruimte voor Europese spelers, kunnen we de dominantie van de huidige markten, landen en staten doorbreken. Dit is essentieel om te profiteren van de ongekende mogelijkheden van AI te ontsluiten, zonder daarbij de cruciale Europese waarden zoals privacy, databescherming en arbeidsrechten uit het oog te verliezen.
Bij DigiBeter staan we klaar om organisaties te trainen in het gebruik van en begeleiden bij het maken van de juiste keuzes op het gebied van ethische en verantwoorde AI-adoptie. Want door samen te werken en onze Europese normen en waarden hoog te houden, kunnen we verzekeren dat AI ons ook binnen Europa een veiligere en economisch sterkere toekomst geeft met veel nieuwe kansen.
Mis je nog wat in de nieuwsbrief? Wil je wat toevoegen? Zie je onjuistheden?
Waar over wil je graag horen in de volgende nieuwsbrief? Laat het DigiBeter weten in een privé berichtje op LinkedIn of klik in deze nieuwsbrief op de Message knop.