Inzet van AI in het dagelijks (beleids)werk: Een praktische gids
Ontdek de rol van AI-Taalmodellen in het efficiënter werken
In deze nieuwste editie van onze nieuwste DigiBeter nieuwsbrief Belichten we de impact van Kunstmatige Intelligentie (AI) op beleidsvorming. AI-taalmodellen, zoals ChatGPT, Claude, Mistral, Llama, Gemini en andere bieden ongekende mogelijkheden om efficiëntie, diepgang en creativiteit binnen beleidsvorming te vergroten. Deze technologieën kunnen tijdrovende analyses automatiseren en vernieuwende ideeën genereren waardoor een nieuw tijdperk aanbreekt voor beleidsmakers en adviseurs.
Maar zoals we allemaal weten, ‘with great power comes great responsibility’. En terwijl we de voordelen van deze technologie aan het verkennen zijn, moeten we ook de uitdagingen en ethische overwegingen onder ogen zien. We verkennen daarom in deze nieuwsbrief de kansen die AI-taalmodellen bieden als de uitdagingen en een stukje ethische vragen die hier in meekomen.
We introduceren drie pijlers voor het succesvol integreren van AI in beleidsvorming. Willen, weten en kunnen. Deze pijlers vormen een basis om de potentie van AI goed te benutten.
Willen: Het begrijpen van het 'Waarom' en 'Waarvoor'
De eerste stap is het begrijpen van de mogelijkheden en het doel van AI-taalmodellen. Deze technologieën verbeteren niet alleen onze kennis en communicatie, maar stellen ons ook in staat om nieuwe beleidsterreinen te verkennen en complexe data te analyseren. Door te begrijpen waarvoor AI-taalmodellen kunnen worden ingezet, zoals het verkennen van nieuwe beleidsterreinen of het analyseren van complexe data, kunnen medewerkers de waarde van deze technologieën inzien en gemotiveerd raken om ze te integreren in hun werk.
Weten: Kennis van risico’s, wet- en regelgeving en richtlijnen
Vervolgens is het van belang dat iedereen die gebruik maakt van (generatieve) AI naast het waarom en waarvoor (kansen) ook goed op de hoogte is van de risico’s, relevante wet- en regelgeving, beleidsrichtlijnen én de werking. De DigiBeter basistrainingen Generatieve AI richten zich hierop. Afhankelijk van de training gaan we in heen halve dag (pressure cooker) of in 2 daten in op het waarom, waarvoor, risico’s, wet- en regelgeving, (organisatie) richtlijnen. Je hebt na de training een meer gedegen begrip van zowel historische ontwikkelingen als toepassingen waaruit kansen voor jouw organisatie en werk binnen de organisatie liggen. Tegelijkertijd moeten we ons bewust zijn van de uitdagingen en onmogelijkheden, zoals het waarborgen van de nauwkeurigheid van AI-gegenereerde inhoud, het voorkomen van bias, en het beschermen van privacy. Deze kennis en inzichten komen allemaal terug in de training. Door meer over de techniek en deze aspecten te weten, kan je weloverwogen beslissingen nemen over het gebruik van AI in hun werk.
Kunnen: Het vermogen om AI-taalmodellen toe te passen
Ten slotte komt het neer op het kunnen – het ontwikkelen van de vaardigheden en competenties om AI-taalmodellen op een veilige, verantwoorde en doeltreffende manier in te zetten. Dit betekent niet alleen het technisch kunnen bedienen van de modellen, maar ook het kritisch kunnen beoordelen van hun output, het ethisch kunnen navigeren door de implicaties van hun gebruik, en het creatief kunnen toepassen van hun mogelijkheden om beleidsdoelen te ondersteunen. Het vergroten van deze capaciteit binnen onze organisatie is essentieel om ervoor te zorgen dat we de voordelen van AI maximaliseren terwijl we de risico’s beheersen.
Voor het ‘technisch’ bedienen hebben we meerdere trainingen en een stuk consulting ontwikkeld. We hebben een basistraining AI prompten waarin we je meenemen in het leren van prompts vanuit diverse hieronder beschreven beleidsondersteunende rollen zoals de verkenner, coach en personal assistant. Dit is een vervolg op de eerder genoemde basistraining. Daarnaast hebben we nog een 2e verdiepingstraining AI-promptengineering gericht op de diverse typen prompts zodat je nog beter je vragen kan stellen vanuit de diverse type rollen.
Het daadwerkelijk technisch kunnen bedienen zodat het ook in tooling gemaakt kan worden realiseren wij mede vanuit een stuk ondersteunende consulting. Dit zodat de AIs ook geïmplementeerd worden volgens geldende wet- en regelgeving (o.a. de AI act) en op zo’n manier dat jouw data en modellen ook van jou blijven. Daarmee blijven kennis en organisatie specifieke zaken in de eigen organisatie. De modellen zijn energie efficiënt en je hebt geen zware machines nodig om deze te hosten.
Door deze drie pijlers – willen, weten, en kunnen – te omarmen, zetten we de stap naar een toekomst waarin AI-taalmodellen ons beleidswerk niet alleen efficiënter maken, maar ook rijker, nauwkeuriger, en meer afgestemd op de behoeften van onze samenleving. We zullen de pijlers nog wat verder uitdiepen.
1. Willen
Het begrip van waarom en waarvoor modellen kunnen worden ingezet is belangrijk om dergelijke modellen ook effectief en gepast in te kunnen zetten.
1.1 Waarom AI-taalmodellen inzetten in jouw werk?
AI-taalmodellen bieden een nieuwe dimensie aan het analyseren, interpreteren, en creëren van content. Deze modellen kunnen bijvoorbeeld helpen om:
Efficiëntie te vergroten: Inzet van dergelijke modellen kan een significante hoeveelheid tijd besparen op taken zoals het verzamelen van achtergrondinformatie, het analyseren van data en het opstellen van documenten. Dit stelt je in staat om je meer te concentreren op de kernaspecten van jouw werk, zoals strategische planning, gerichte en persoonlijke ondersteuning en beleidsontwikkeling.
Kennis te verdiepen: AI-taalmodellen kunnen door medewerkers ingezet worden om snel een breed scala aan bronnen te doorzoeken en samen te vatten. Hierdoor is het mogelijk een beter inzicht krijgen in complexe onderwerpen. Dit kan leiden tot beter onderbouwde beleidsbeslissingen maar ook tot bijvoorbeeld een verdieping of verbreding van je eigen kennis.
Creativiteit te stimuleren: onder andere door het genereren van nieuwe ideeën of het bieden van alternatieve benaderingen voor vraagstukken kunnen AI-taalmodellen je helpen om creatieve blokkades te doorbreken of bijvoorbeeld alternatieve aanpakken te bedenken.
1.2 Rollen die je hierbij kunnen helpen?
Hieronder een aantal voorbeelden van hoe een AI-taalmodel kan helpen in jouw werk.
Verkennen van onderwerpen: Als 'verkenner' kunnen AI-taalmodellen snel informatie verzamelen over nieuwe of complexe onderwerpen, waardoor je als beleidsmedewerker een stevige basis kan krijgen voor verdere analyse of besluitvorming.
Beleidsontwikkeling: Bij het ontwikkelen van beleid kunnen deze modellen fungeren als 'Personal Assistent' door ontwerpen te genereren, beleidsdocumenten op te stellen in het juiste format, notulen, memo’s, nota’s, offertes, facturen, contracten, PowerPoints of andere presentatie opzetten voor je te maken en veel meer.
Communicatie verbeteren: Als 'redacteur' of ‘communicatiemedewerker’ kunnen AI-taalmodellen helpen bij het verbeteren van de helderheid, toon, en toegankelijkheid van beleidsdocumenten, waardoor de communicatie met burgers en stakeholders effectiever wordt.
Vertalingen en Tolken: Voor (internationaal) werk kunnen AI-modellen als 'tolk' dienen door documenten snel en accuraat te vertalen of documenten zoals beleidsdocumenten te vinden en analyseren uit andere landen. Hierdoor kan de samenwerking met internationale partners wordt vereenvoudigd maar ook nieuwe kennis ontsloten kan worden.
Naast deze rollen zijn er onder andere nog de coach en de analist die je kunnen helpen in je werk. Daar waar de verkenner je helpt aan onder meer nieuwe informatie helpt de coach je onder meer om belemmering inzichtelijk te maken die tussen jou en jouw doel staan en actiestappen te zetten om je doel te bereiken. Ook kan de coach je bijstaan bij adviesvragen. Als je de kennis hebt en de belemmeringen zijn weggenomen kan de Personal Assistant je helpen je informatie uit te werken, te delen en te presenteren. De redacteur kan daar een redactieslag overheen doen zodat het in de juiste stijl staat en vrij is van bijvoorbeeld taal en spel fouten en kan je bijstaan in bijvoorbeeld creatief schrijven.
De analist kan je helpen bestanden en documenten te vergelijken. Bijvoorbeeld als je 2 wetten hebt zou je die bij elkaar kunnen leggen en met de AI kunnen beschouwen waar de wetten elkaar wellicht contraproductief zijn ten aanzien van elkaar. Waar spreken ze elkaar tegen? De analist kan je verder ook helpen stukjes te programmeren en automatiseren bijvoorbeeld voor Excels. De vele mogelijkheden van de diverse rollen zijn daarmee een bron van inspiratie in het begrijpen van de kansen voor- en mogelijke inzet van AI in jouw werk.
De rollen komen terug in de basistraining Prompten zodat je een goed en gedegen overzicht krijgt in hoe de diverse rollen jou kunnen ondersteunen in jouw werkzaamheden. Afhankelijk van je werk zal je soms meer aan de ene rol hebben en soms meer aan de andere. De ervaring leert echter dat iedereen er baat bij heeft kennis te hebben van hoe de diverse rollen bij kunnen dragen om efficiënter te werken.
Met een stuk van de onderbouwing van het potentieel en de diverse toepassingen van AI-taalmodellen in beleidswerk, is het tijd om ons te verdiepen in de volgende cruciale pijler voor we de modellen goed in kunnen zetten: het verwerven van kennis over de kansen, risico's, en de belangrijke kaders van wet- en regelgeving alsook (beleids)richtlijnen die ons zullen leiden naar verantwoord gebruik van deze technologieën. Laten we doorgaan naar punt 2, het 'weten'.
2. Weten
Het verhogen van bewustzijn en kennis over de risico's, werking, wet- en regelgeving én richtlijnen voor het gebruik van AI-taalmodellen in jouw werk is van groot belang voor veilig, verantwoord en effectief gebruik evenals het maken van de juiste keuzes voor tools en modellen. Ook dit willen we daarom op een aantal punten kort benoemen.
Risico's en Uitdagingen
Betrouwbaarheid en Nauwkeurigheid: Fouten of 'hallucinaties' in de output van AI-taalmodellen kunnen leiden tot misinformatie. Hoewel we het woord ‘hallucinaties' raar blijven vinden - een AI kan niet zien - blijft het kritisch kunnen beoordelen van gegenereerde inhoud essentieel. Als je de werking en training data snapt dan kan je beargumenteren waar het vandaan komt en er op sturen met de juiste vragen. Hiervoor is het een must om ook goed te kunnen prompten.
Een illustratief geval waarin AI tekortschoot is het recruitment tool van Amazon, dat vrouwelijke kandidaten benadeelde. Dit systeem was getraind op historische sollicitatiegegevens die een mannelijke voorkeur vertoonden, waardoor het onbewust mannelijke kandidaten boven vrouwelijke verkoos. Dit leidde tot een significant vooringenomen selectieproces.
Bias en Vooringenomenheid: Het zelfde als bij betrouwbaarheid en nauwkeurigheid geldt (deels) voor bias en vooringenomenheid. We hebben allemaal onze eigen kijk op de werkelijkheid en daarmee allemaal een bias. De bias in de AI-taalmodellen kan onder andere voortkomen uit de trainingsdata.
Het kennen van de trainingsdata is daarom van belang om beter te snappen welke bias er in zit en om daar indien gewenst op te kunnen sturen richting de uitkomsten.
Zie het artikel een systeemtechnologie met kansen hoe je daar invloed op hebt.
Dit kan onder meer door het toevoegen van andere perspectieven/ informatie aan de trainingsdata en goede promptengineering - een van onze trainingen -.
Een opvallend voorbeeld van AI-bias werd blootgelegd door onderzoekers van het Massachusetts Institute of Technology (MIT), die aantoonden dat gezichtsherkenningssoftware significant minder nauwkeurig was bij personen met een donkere huidskleur. Deze softwarefouten ontstaan vaak door een gebrek aan diversiteit in de datasets die worden gebruikt om de systemen te trainen.Privacy en Gegevensbescherming (zoals je organisatie gegevens): Het gebruik van AI-taalmodellen vereist aandacht voor privacy, zowel in de training van het model maar ook bij het verwerken van gevoelige of persoonlijke informatie. Om deze reden is het goed
Zelf je modellen te trainen zodat je weet waarop het model getraind is.
SLMs te gebruiken welke je lokaal kan hosten en draaien, de berekeningen hoeven dan niet plaats te vinden in de centers van de Techreuzen waardoor je ook grip hebt op waar de data verwerkt worden.
Voor je specifieke processen specifieke tools /modellen te hebben in ieder geval voor de processen met Privacy en/of Organisatie gevoelige data waarover je verantwoording af moet leggen zoals bv i.v.m. de AI-Act.
Rondom Privacy kijkt de AI-Act voor de risico categorisering onder meer naar de verwerking van persoonlijke informatie (maakt het een inbreuk op fundamentele rechten). De AI Act classificeert AI-systemen op basis van risico’s. Er zijn drie Risico categorieën:
Onacceptabel risico: Verboden AI-toepassingen die een ernstig risico vormen voor de veiligheid of fundamentele rechten. Voorbeelden hiervan zijn:
Biometrische identificatie voor surveillance met als doel het strafrechtelijk vervolgen van personen.
AI-systemen die sociale scores toekennen zonder transparantie. Denk aan het Chinese credit systeem.
Het gebruik van AI om manipulatie van gedrag te bevorderen, zoals deepfakes voor politieke doeleinden.
Hoog risico: AI-systemen die in sectoren zoals gezondheidszorg, vervoer en energie vallen, moeten aan strengere eisen voldoen. Voorbeelden hiervan zijn:
Medische diagnosesystemen.
Autonome voertuigen.
Werkplekmonitoring.
Beperkt risico: AI-toepassingen die niet onder de bovenstaande categorieën vallen.
Transparantie, verantwoording en afhankelijkheid: De AI Act vereist transparantie en het afleggen van verantwoording over AI-systemen, inclusief duidelijke informatie over hun werking en gebruik. Overmatige afhankelijkheid van extern gebouwde én beheerde modellen en onduidelijke afspraken kunnen leiden tot een gebrek aan transparantie en grip. Hiermee is onder andere het afleggen van verantwoording complex. Het is daarom belangrijk om een evenwicht te vinden tussen de samenwerking met externe AI leveranciers die volgens alle voorwaarden (Vrij van copyright & privacy data, veilig, duurzaam, model & data blijven van jou, is in je eigen omgeving te draaien zodat je zelf kan kiezen waar verwerking plaats vindt etc.) kunnen leveren, het zelf realiseren en het gebruik van modellen van de grote giganten.
Voor wat betreft afhankelijkheid zie ook enkele van de risico’s hier: een systeemtechnologie met kansen.
Wellicht ken je de case nog maar de Clearview AI-app creëerde grote publieke en juridische controverse door zonder toestemming gezichtsdata te verzamelen van miljoenen internetgebruikers, die vervolgens werd gebruikt om een krachtig, maar controversieel gezichtsherkenningssysteem te voeden. Ook in de huidige grote modellen van Microsoft (Co-Pilot), Google (Gemini), ChatGPT en anderen zit veel privacy en copyrighted data die zonder toestemming verkregen is.
Het gebruik hiervan is is onder andere ethisch niet te verantwoorden omdat het gebruik van data zonder toestemming van eigenaren een ernstige inbreuk is op de privacy en in strijd met ethische principes zoals autonomie en respect voor de personen omdat individuen het recht hebben te beslissen over het gebruik van hun persoonlijke informatie. Dat organisaties hier niet transparant over zijn ondermijnt het vertrouwen in dergelijke systemen. Google heeft hiervoor afgelopen jaar zelfs zijn algemene voorwaarden aangepast. Tevens geeft het ook juridische uitdagingen want gegevens om modellen te trainen kunnen ook nog auteursrechtelijk en portret rechtelijk beschermde materialen bevatten (teksten, afbeeldingen, muziek, stemmen e.d.). Dit geeft 2 ledige risico’s zowel op het gebruik van het model met data als op het gebruik van de output.
Veilig en Verantwoord Gebruik
Accuratesse Verifiëren: Controleer altijd de nauwkeurigheid van de door AI gegenereerde informatie met betrouwbare bronnen voordat deze wordt gebruikt voor beleidsontwikkeling. Sommige systemen geven de bronnen mee zodat je deze snel kan verifiëren, soms helpt het om te vragen naar de bronnen waarbij je wel op moet moet letten dat de AI ze dan niet ‘hallucineert’ ook zelf zoeken en de eigen parate kennis dragen bij in het kunnen verifiëren van de output.
Bias Aanpakken: Wees alert op mogelijke bias in AI-output en gebruik diverse datasets om de training van modellen te verbeteren. In de trainingen prompt engineering gaan we onder andere in op hoe modellen van elkaar kunnen leren. Het kennen van de Trainingset is, zoals hierboven al aangegeven, ook van groot belang om mogelijke Bias te kunnen beoordelen en vervolgens aan te pakken door middel van onder meer het aanvullen van data en specifieke prompting.
Privacy Waarborgen: Zorg ervoor dat het gebruik van AI-taalmodellen in overeenstemming is met privacywetgeving en dat persoonlijke gegevens beschermd worden. Hier willen we verder niet op inzoomen omdat we dat hierboven al uitgebreid gedaan hebben.
Transparantie en Toelichting: Wees transparant over het gebruik van AI in beleidsontwikkeling en bied toelichting op hoe AI-bijdragen zijn beoordeeld en geïntegreerd. Het is niet alleen belangrijk om te weten dat AI gebruikt is maar ook om je te kunnen verklaren. Welke data is gebruikt voor de output en hoe wordt die data gewogen. Je wilt niet dat je te maken hebt met discriminatoire algoritmen in AI. Inzicht geven in hoe een AI tot zijn output komt vanuit weging en data helpt bij het begrip en beoordelen.
Wees ook transparant over je gebruik van AI. Geef bijvoorbeeld aan ‘dit artikel is geschreven door een mens in samenwerking met AI’. Bewaar de Prompts en uitkomsten van de prompts als bijlage bij bijvoorbeeld het ontwikkelde beleid.Continu Leren en Ontwikkelen: De modellen, algoritmen, mogelijke toepassingen ontwikkelen zich in een zeer hoog tempo. Bijna dagelijks zijn er nieuwe ontwikkelingen. Blijf daarom - onder meer door onze nieuwsbrieven en podcast - op de hoogte van ontwikkelingen in technologie en (ethische) richtlijnen om het gebruik van technologie zoals AI te blijven verbeteren.
Ook hier kan je enkele andere risico’s afleiden uit dit artikel: een systeemtechnologie met kansen.
Door deze kansen, risico's en richtlijnen te erkennen en toe te passen, kunnen beleidsmedewerkers AI-taalmodellen op een effectieve, ethisch verantwoorde en veilige manier inzetten, wat bijdraagt aan de ontwikkeling van doordacht en innovatief beleid.
3. Kunnen
Kunnen is het vermogen om AI-taalmodellen ook daadwerkelijk toe te passen
De laatste pijler van onze integratie van AI in het werk betreft het vermogen — het kunnen — om AI-taalmodellen op een veilige, verantwoorde en doeltreffende manier in te gaan zetten. Dit vereist de basis kennis van het willen en weten en naast bekwaamheid een begrip van ethische implicaties. Dit alles kennende kan je werken aan de creatieve toepassing van deze technologieën.
Ontwikkeling van Technische Vaardigheden: Om medewerkers te voorzien van de nodige vaardigheden, bieden we uitgebreide trainingen aan die gericht zijn op het gebruiken van AI-taalmodellen. Deze cursussen behandelen belangrijke aspecten zoals het ontwerpen van effectieve prompts, het interpreteren van de AI-output, en de integratie van modellen in dagelijkse werkzaamheden. Het doel is om elke medewerker niet alleen vaardig te maken in de bediening maar ook in het begrijpen van wat daar onder zit ten einde de output van deze modellen (deels) te kunnen beïnvloeden.
Ethisch en Verantwoord Gebruik: Het ethisch toepassing van AI vereist een continue beoordeling en reflectie op de werking en hoe deze technologieën worden gebruikt. Wellicht heb je al wel eens gehoord van IAMA het Impact Assessment Mensenrechten en Algoritmen?
Je wilt niet zomaar elk model pakken. Het Impact Assessment kan helpen bij een meer gewogen beslissing. De systematische benadering van IAMA maakt het een geschikte tool voor het testen en evalueren van Kunstmatige Intelligentie (AI), vooral in de context van ethiek en naleving van mensenrechten. Door de gestructureerde aanpak kan IAMA helpen bij het identificeren van potentiële risico's en ethische kwesties vóór de implementatie van een AI. Dit zorgt ervoor dat de AI niet alleen technisch en functioneel zijn, maar ook ethisch verantwoord in lijn met de maatschappelijke waarden en normen. IAMA kan daarom dienen als een waardevolle stap in het valideren van de verantwoorde toepassing van algoritmen binnen publieke en private organisaties, door te zorgen voor transparantie, rechtvaardigheid en respect voor de grondrechten.
Je wilt zo transparant mogelijke, veilige, ethisch correcte en zo groen mogelijke modellen. Het leren over, snappen en zelf kunnen beheren van is daarom bij ons een belangrijk deel van een AI implementatietraject. Je wordt opgeleid zodat je input en output kunnen wegen, snappen hoe het verwerkt wordt en zelf bij kunnen sturen op de input, output, door middel van keuze voor de juiste data, data monitoring, prompting en AI guiderails. Dit betekend ook dat wij sturen op AIs / taalmodellen die niet tot stand komen door inzet van zogenaamde ‘Clickwerkers’ in lage lonen landen. Taalmodellen die zo groen mogelijk tot stand komen en zo min mogelijk impact hebben wanneer ze worden aangesproken. Modellen van organisaties binnen de EU boven die van organisaties buiten de EU.
Hoewel we onder dat laatste niet altijd uitkomen hebben wij een goede partner in een Nederlandse / EU organisatie die in alle richtlijnen mee kan en al een aantal bijzonder grote organisaties mag bedienen.
Creatieve Toepassing: Wij moedigen je aan om AI-taalmodellen te gebruiken als een hulpmiddel voor innovatie in jouw werk zoals bepaalde beleidsdomeinen. Door deze technologieën in te zetten voor bijvoorbeeld het genereren van nieuwe (beleids)ideeën en het oplossen van complexe problemen, kunnen we grensverleggende oplossingen ontwikkelen die zowel effectief als inclusief zijn.
Ondersteuning en Hulpbronnen: Om de implementatie van AI soepel en volgens de regels te laten verlopen, bieden we continue ondersteuning en toegang tot veilige AI-tools die voldoen aan de wettelijke normen en ethische richtlijnen. Onze consultants zijn beschikbaar om te helpen met de technische inrichting en het waarborgen van de naleving van wet- en regelgeving, zoals de AI Act en IAMA, zodat de integriteit en de privacy van data gegarandeerd blijven.
Leeromgeving: Veel modellen zijn open taalmodellen, omdat we het niet verstandig achten te trainen met organisatiedata en kennis in deze modellen creëren we casussen die aansluiten bij jouw (beleids)werk. Dit zodat jij en jouw collega’s kunnen experimenteren en leren over AI zonder organisatiedata te hoeven delen met deze AI dienstverleners. Op deze manier stimuleren we niet alleen de ontwikkeling van persoonlijke vaardigheden maar versterkt ook het collectieve begrip van het AI potentieel en de beperkingen van de AI / binnen de organisatie.
Door deze gelaagde aanpak te volgen, waarbij we training, ethische reflectie, creatieve inzet, en ondersteunende hulpbronnen combineren, zorgen we ervoor dat jij en jouw collega’s volledig uitgerust zijn om de voordelen van AI te benutten met een scherp oog voor de risico’s.
De fundamenten — willen, weten, en kunnen — zijn krachtige pilaren op weg naar een toekomst waarin AI-taalmodellen een centrale rol spelen in hoe wij werken, beleid vormen en uitvoeren.
Heb je vragen of opmerkingen horen we die graag van je.