AI IN HET INFORMATIEDOMEIN (4)       SIMON BEEN

Magistrale
magie
EU versus AI

Wat is de invloed van AI op het informatiedomein? In een reeks artikelen wordt dit onderwerp belicht vanuit verschillende invalshoeken, waaronder activiteiten binnen het informatiedomein, veranderingen in de organisatieprocessen en consequenties voor de informatieprofessie zelf. Dit vierde deel betreft een intermezzo binnen deze artikelenserie: het zoomt in op AI in relatie tot overheidsstandpunten en wetgevende bureaucratie.

Deel 4 artikelenserie over kunstmatige intelligentie

Simon Been
Directeur van het Papieren Tijger Netwerk en spreker/trainer/auteur over AI in het informatiedomein

Generatieve AI

ChatGPT en vergelijkbare tools liggen op allerlei gebieden onder vuur. Het Voorlopig Standpunt baseert zich met name op de landsadvocaat, de EC en de AP en ziet vooral deze bezwaren.
> De trainingsdata kunnen privacygevoelige gegevens bevatten.
> Het AI-model kan onjuiste of bevooroordeelde gegevens over personen bevatten.
> Een generatieve AI-toepassing kan zeer gevoelige informatie afleiden uit de interactie met de gebruiker en die onbedoeld openbaar maken.
> De rechten van betrokkenen, zoals de mogelijkheid tot inzage en het eventueel verwijderen of rectificeren van persoonsgegevens, zijn momenteel zeer beperkt.
> Het gebruik van generatieve AI brengt auteursrechtelijke risico’s met zich mee. Veel aanbieders zijn daar momenteel niet transparant over.
> Vanuit de rechtspraak is er nog geen expliciet oordeel over in welke mate scraping ten behoeve van het trainen van generatieve AI-modellen toelaatbaar is.

GENAI HEEFT
DUISTERE KANTEN

De lijst is veel langer. Heb je een tip voor een goede, handige chatbot? Mail naar redactie@informatieprofessional.nl en we voegen deze toe aan de lijst die we publiceren in de volgende editie van IP.

OVERZICHT(JE) VAN CHATBOTS

De vergelijking tussen AI en magie is snel gemaakt. Speel er een beetje mee en je voelt hoe je vingertoppen ongekende krachten ontketenen. Ook realiseer je je al direct dat het een leerschool vergt om het onder de knie te krijgen: aandacht, les, oefenen. Een beetje zoals Harry Potter kreeg op Hogwarts. In Harry Potter and the Order of the Phoenix timmert een magistraat van het Ministry of Magic de schoolhal vol met geboden en verboden om te voorkomen dat de studenten te wijs en te bedreven worden – met handhaving door ‘gezagsgetrouwen’. Een nieuwe vergelijking dringt zich nu op: eentje met andere wetgevende magistraten, die van de EU en NL.

FASCINEREND MONSTER
In de film trekt Harry Potter zich niets aan van de regelzucht en hij kan daardoor samen met ondergrondse sympathisanten (Dumbledore’s Army) de vileine Voldemort stoppen. Hoe zou dat in Europa aflopen? Tenslotte speelt zich hier een soortgelijk scenario af: wetgevende bureaucratie versus AI. Kijk maar: de rijksoverheid verbiedt feitelijk het intern gebruik van ChatGPT, Eurocraten stoeien met een heuse AI-wet en diverse overheidssignalen lijken erop gericht AI als staatsvijand weg te zetten. En dat terwijl meer dan 4 miljoen Nederlanders er al persoonlijke ervaring mee hebben (extrapolatie van GfK-cijfers) en velen daarvan, inclusief ambtenaren, echt niet meer zonder willen.

We weten: generatieve AI is verre van volmaakt en eerder een ruwe diamant of, zoals je wilt, een fascinerend monster. Maar het tot een taboe maken? Zelf weten we inmiddels dat AI informatietaken kan ondersteunen, een persoonlijke sparringpartner kan zijn, van iedereen kunstenaars en musici kan maken en zelfs bepaalde bedrijfstakken (hardhandig) kan stroomlijnen. Ziet de Nederlandse en Europese overheid dat dan niet?

Kortom, het is tijd voor een intermezzo binnen deze reeks artikelen. Hieronder belicht ik de overheidsstandpunten en het belang voor het informatiedomein, en breek ik een lans voor voorlichting, workshops en discussieplatforms voor iedereen die voorop wil of moet lopen, inclusief informatieprofessionals.

VERBOD OP CHATGPT, COPILOT, BARD ...?
Op 11 december 2023 verschijnt het Voorlopig Standpunt voor rijksorganisaties bij het gebruik van generatieve AI. De staatssecretaris van Digitalisering verspreidt daarin de interne boodschap: GenAI heeft belangrijke keerzijdes en kan – vooral vanuit juridisch perspectief – dus niet worden toegepast binnen de rijksoverheid en externe partners. Zelfs ermee experimenteren om te leren kan feitelijk niet door de beugel. Maar is dat verbieden? Nu wordt het curieus, want de staatssecretaris schrijft: ‘Dit voorlopige standpunt is geen categorisch verbod van de technologie’, en dat streepje onder ‘geen’ is van haar. Aansluitend schrijft ze: ‘... maar herhaalt geldende wet- en regelgeving. Het gebruik wordt niet ontzegd, maar gekaderd. Zo blijft het mogelijk te experimenteren met de technologie.’

Waarom ik dan toch schrijf dat het verboden wordt? Vanwege de rest van het Voorlopig Standpunt. Het is een beetje als een radiostation beginnen in Rusland: dat staat iedereen vrij, maar je moet natuurlijk een vergunning hebben en daarvoor ligt de lat erg hoog. In dit geval: ‘Hierbij dienen alle generatieve AI-toepassingen te voldoen aan geldende wet- en regelgeving’. Bijvoorbeeld op het gebied van privacy en auteursrecht.

DICHTTIMMEREN
Alles mag dus, mits aantoonbaar juridisch onbetwist. Als je een beetje sceptisch bent, zie je daarin de perfecte contradictio in terminis. Het woordje ‘aantoonbaar’ maakt het verschil. Voordat je bijvoorbeeld ChatGPT gebruikt, moet je bewijzen dat het volledig aan de wet voldoet. En daar is een goed doordachte procedure voor: van risicoanalyses en assessments tot en met het destilleren van rijksbrede lessen uit alle ervaringen. Je kunt het altijd proberen, maar wie durft zijn goedkeuring te geven onder het toeziend oog van de Autoriteit Persoonsgegevens (AP) en de landsadvocaat? Het klinkt een beetje alsof de overheid zichzelf zo dichttimmert dat er geen deur of raam meer open kan.

AI ALS HUIS VAN DE OVERHEID
Toch was de overheid juist een AI-cheerleader een luttele vier jaar geleden. Toen verscheen het rapport Future lab - De informatiehuishouding van het Rijk in 2030 van het Rijksprogramma voor Duurzaam Digitale Informatiehuishouding (RDDI), warm aanbevolen door de secretaris-generaal van het ministerie van Onderwijs, Cultuur en Wetenschap (OCW). Het is een opmerkelijk rapport, sprankelend, creatief en onorthodox, maar vreemd genoeg komt juist de informatiebeheersproblematiek die we zo goed kennen er bekaaid vanaf. Het bekommert zich ondanks de titel niet om de rijksinformatiehuishouding van 2030, maar om de informatiehouding van rijksambtenaren. Alle aspecten die te maken hebben met de inrichting van het informatiehuis zelf, zoals beheer, technologie, wetgeving, soorten informatie/data en andere relatief structurele onderdelen, blijven sterk onderbelicht, want die worden in 2030 geregeld door … kunstmatige intelligentie. Jazeker.

In deze toekomstverkenning van het RDDI is AI het ‘huis van de overheid’ waarbinnen ambtenaren ongestoord zich volledig kunnen richten op de inhoud. Destijds ging me dat veel te kort door de bocht. Ik maakte in artikelen de vergelijking met Harry Potter: elke keer als het moeilijk wordt, komt het AI-toverstafje tevoorschijn.

AI ALS LUIS IN DE PELS
Met het recente Voorlopig Standpunt lijkt kunstmatige intelligentie juist weer taboe binnen de rijksoverheid, en dat geeft tevens een signaal af aan de maatschappij: dat AI gevaarlijk is. Natuurlijk zijn de keerzijden van (generatieve) AI die BZK/Digitalisering noemt valide (zie ook het kader). Tegelijk benoemt de staatssecretaris tevens de positieve kanten. Het grote verschil tussen de stellingname van OCW in 2020 en die van BZK in 2023 is het perspectief. BZK vroeg landsadvocaat Pels Rijcken en de AP om advies, waardoor onvermijdelijk wetten en regelgeving centraal stonden. AI is een ongenode, grillige gast in dat keurige wetspaleis. De toekomstverkenning van het RDDI daarentegen was meer vergelijkbaar met het ‘I had a dream’ van Martin Luther King, een ideaalbeeld. Zou het kunnen dat OCW wat meer in magiërs gelooft en BZK wat meer in juristen? Wat is AI: het huis van de overheid of de luis in de pels? Vriend of vijand? Gelukkig zijn er meer nuances in overheidsland zoals we verderop zullen zien.

DE INFORMATIEPROFESSIE
Die nuances zijn belangrijk, want hoe je er ook over denkt, de overheid kneedt het economische en sociale klimaat door wet- en regelgeving, inclusief alle beleidsvorming en uitvoering die daarvoor nodig zijn, maar ook door simpelweg signalen af te geven aan de samenleving. De informatieprofessie neemt op haar beurt een bijzondere positie in binnen die overheid en samenleving omdat AI juist in ons domein zo veel impact krijgt. Ons vak wordt bij de overheid ook steeds meer serieus genomen en als speerpunt gezien. We moeten vooraf intensief betrokken worden bij het informatieproces, dus goed weten waar we het over hebben. Of we nou in een newsroom of bibliotheek werken of informatiemanager zijn, AI is een nieuw gereedschap dat nieuwe vaardigheden en inzichten vergt.

STOPPEN MET INNOVEREN?
De rijksoverheid kent al heel wat ChatGPT-gebruikers en AI-projectgroepen die ondanks de voortekenen overvallen zijn door het Voorlopig Standpunt. Je hoort het ze al zeggen: stoppen we nu als Nederland met innoveren? En rijksambtenaren zijn niet de enigen: ‘Het standpunt is ook van toepassing wanneer een externe partij diensten of producten levert aan een rijksorganisatie met gebruikmaking van generatieve AI.’ Interessant! Wat doe je als innovatieve dienstverlener, producent of leverancier die GenAI in zijn eigen processen gebruikt? Vallen bestaande rijkscontracten nu stil? Ben je al uit de gratie als je een AI-kerstkaart verstuurt? Hoe dan ook, gesprekken bij overheidsorganisaties geven aan: AI-projecten staan grootscheeps on hold.

Vlak voor het Voorlopig Standpunt was er het hoopgevende bericht dat Nederland een eigen open taalmodel gaat ontwikkelen: GPT-NL. De aankondiging noemt interessante voordelen voor de samenleving en economie, en de overheid stopt er 13,5 miljoen euro in. Misschien is dit wel de ultieme oplossing, ‘aantoonbaar’ juridisch onbetwist, en hoeven we alleen nog maar te wachten totdat dit initiatief klaar is en goedgekeurd.

PERSPECTIEF UIT EUROPA
Er wordt ook hard gewerkt aan een Europese AI Act. Een politiek akkoord daarover is net bereikt en de ambassadeurs van de EU-lidstaten hebben hun unanieme steun gegeven. Nu moet het hele Europees Parlement nog instemmen voordat twee jaar daarna de wet in werking treedt. Rijksoverheid.nl schreef op 9 december 2023 hierover: ‘In het politiek akkoord zijn ook afspraken gemaakt over wat hoog risico AI-systemen zijn en welke eisen hieraan worden gesteld. Ook zijn bepaalde soorten onwenselijke AI straks verboden, zoals social scoring of manipulerende AI-technieken. Aanbieders van chatbots in webwinkels, deepfake-technieken of generatieve AI-systemen zoals het populaire ChatGPT moeten ervoor zorgen dat het voor mensen duidelijk is dat ze met een AI praten of dat content door AI is gemaakt.’

Per saldo geldt dat de echte impuls voor AI moet komen van de aanbieders. De AI Act gaat verplichten dat die ervoor zorgen dat AI aan de wet voldoet. En dat is logisch, dat is je taak als overheid, je kunt de wereld niet eigenhandig veranderen. Toch is het contrast groot met landen als China en de Verenigde Staten, waar AI een speerpunt is en enorme bedragen worden geïnvesteerd om te innoveren. Nederland loopt voorop in de Europese pas en Europa geeft geen hoop op AI-innovatie en -tolerantie – vooral meer regels aan de muur van Hogwarts.

REGELTJES
De juridische aanpak van Nederland en Europa doet een beetje denken aan kinderen opvoeden. Kies je de weg van de regeltjes of die van de geleide bewustwording? Regeltjes zijn veilig en duidelijk. Bewustwording zit in de sociale hoek en is hoogstens statistisch bewijsbaar. Ik zie de jurist al huiveren. Regeltjes dus, en welke samenleving kan zonder? Ze zijn broodnodig, al was het maar voor de orde en rechtsgelijkheid, maar als het er te veel worden, cultiveren ze ook een cultuur van goed versus slecht en ontduiking. En vergeet de protocoltoorn niet: van ziekenhuis en onderwijs tot kinderopvang, iedereen is 20 tot 40 procent van zijn tijd bezig met administratie in plaats van met kernactiviteiten. Nog een neveneffect is hypocrisie: kijk eens hoe ik me aan de regels houd, maar toch wegkom met precies dat wat voorkomen moest worden!

VERGELIJKING MET GDRP
Denk bijvoorbeeld aan Facebook, Google en andere datascrapers en -handelaars. Hun omgang met private en kwetsbare informatie was een belangrijke drijfveer voor Europa om met de General Data Protection Regulation (GDRP) te komen. Resultaat: vele maatregelen om privacy en gegevens te beschermen, maar of de hoeveelheid verzamelde gevoelige en privégegevens bij deze scrapers substantieel is afgenomen, is helemaal de vraag. Tracking en spam gaan onverminderd voort. Waarom? Omdat hun machtspositie al zo groot was dat praktisch niemand zich uitschrijft. En omdat je het beu wordt om op al die andere sites die je bezoekt duidelijk te maken dat je niet wilt dat je gegevens worden opgeslagen. Dus toestemmingsmoe keuren we de diefstal goed. Zo worden al die vuile data juridisch correct witgewassen.

Bovendien ontbreekt het kleinere en innovatieve bedrijven aan middelen en expertise om aan dit soort regelgeving te voldoen. Zo raakten die bij de invoering van de GDPR gemiddeld drie kwart van hun relatiebestand kwijt omdat in korte tijd iedereen wel klaar was met het geven van al die toestemmingen. Juist de Googles, Facebooks, WhatsApps en Instas hadden daar dus geen last van. Die schreven zelfs mee aan de wetten omdat ze veel ter zake kundiger zijn. Is dat echt wat we wilden? Is het internet er betrouwbaarder op geworden? Zeker niet nuttiger.

BEDRIJVEN AAN ZET
Toch is dit de richting die Nederland en Europa lijken in te slaan: de route van de contracten met externe aanbieders die moeten beloven dat ze zich aan de regels houden waardoor het risico bij hen ligt. Met als gevolg dat na het internet ook AI ‘beregeld’ wordt.

Interessante scenario’s doemen op, zoals een Witte Reus-schoon AI-landschap met uitsluitend ‘juiste’ informatie, zonder ecologische voetafdruk of persoonlijke informatie et cetera. Tegen een substantieel bedrag per maand uiteraard. En anders krijg je de ‘gratis’ versie waarbij al je data worden geschraapt, mét je eigen toestemming. Zou dat betaalde schone AI-landschap antwoorden geven op vragen naar gevoelige of controversiële onderwerpen, zoals soa’s of suïcide of ...? De schone-internetcensuur op sommige scholen in de Verenigde Staten doet het ergste vrezen.

‘TOEZICHT HOUDEN EN HANDHAVEN’
Uiteraard is dit niet de bedoeling. In de op 1 januari 2024 gepubliceerde Overheidsbrede visie Generatieve AI staat zelfs: ‘De regels in de DMA (Europese Digital Markets Act) zijn erop gericht om de betwistbaarheid van de positie van poortwachters te vergroten en de afhankelijkheid van die poortwachters te verminderen.’ De visie zegt echter ook: ‘De verordening (Europese AI Act) geldt direct als wet in Nederland. Een deel ervan, zoals het toezicht op verboden en hoog risico AI-toepassingen, wordt via een Nederlandse wet verder ingericht.’ En: ‘Er wordt een Europese toezichthouder ingericht binnen de Europese Commissie, de AI Office, die de nieuwe regels voor GPAI-modellen gaat handhaven.’ Een Europese AI-FBI? De overheidsbrede visie staat vol hoopvolle woorden over kansen, innovatie en samenwerking, maar deze verstopte kop kon wel eens de kern zijn: ‘Sterk en helder toezicht houden en handhaven’.

OF TOCH GELEIDE BEWUSTWORDING?
De overheidsangst is legitiem. Hoe voorkom je dat een ambtenaar beleidsdocumenten laat schrijven door ChatGPT of staatsgeheimen eraan toevertrouwt? Of dat die begrotingen ermee doorrekent? Maar bedenk ook: wat is een betere bescherming dan voorlichting, begeleiding en veilig laten experimenteren?

Er is hoop. Aan het eind van het Voorlopig Standpunt – bij ‘vervolgstappen’ – lijkt het verbod op gebruik en zelfs experimenteren met GenAI te verdampen: ‘Binnen verschillende rijksorganisaties worden pilotprogramma’s in veilige en gecontroleerde omgevingen uitgevoerd.’ Dat wordt nu geïnventariseerd en er wordt lering uit getrokken. Ook wordt een handreiking voor rijksorganisaties bij het gebruik van generatieve AI geschreven en wordt met trainingen en bijeenkomsten kennisdeling gefaciliteerd over de mogelijkheden voor veilig gebruik van GenAI.

VOLWASSEN MEE OMGAAN
Je zou bijna zeggen dat die vervolgstappen stiekem langs de juristen zijn gesmokkeld, want de tegenstrijdigheid met het standpunt zelf is groot. Een paar pagina’s terug staat nog ‘in beginsel niet toegestaan’, onderstreept en al. Zouden er dan toch ook bij BZK ondergrondse AI-sympathisanten zijn? Dumbledore’s AI-Army? Of is dat magisch denken?

Generatieve AI is fascinerend en nuttig, maar duidelijk nog onvolwassen. Het is aan alle betrokkenen om er volwassen mee om te gaan. Vertrouwen werkt twee kanten op: als je het niet geeft, krijg je het ook niet. Hoe minder vertrouwen, hoe cynischer het gedrag. Laten we alsjeblieft zo snel mogelijk zorgen voor voorlichting, training, workshops en discussieplatforms voor alle ambtenaren, en niet alleen die van het rijk. En laat de overheid zorgen voor een genuanceerde beeldvorming in de maatschappij. Opvoeden is beter dan afdwingen. <

‘GenAI is verre van volmaakt en eerder een ruwe diamant of een fascinerend monster, maar het tot een taboe maken?

‘Het klinkt een beetje alsof de overheid zichzelf zo dichttimmert dat er geen deur of raam meer open kan’

‘Wat doe je als innovatieve dienstverlener die GenAI in zijn eigen processen gebruikt? Vallen bestaande rijkscontracten nu stil?’

‘De juridische aanpak van Nederland en Europa doet denken aan kinderen opvoeden. Kies je de weg van de regeltjes of die van de geleide bewustwording?’

‘Hoe voorkom je dat een ambtenaar beleidsdocumenten laat schrijven door ChatGPT of staatsgeheimen eraan toevertrouwt?’

‘De overheidsangst is legitiem, maar bedenk ook: wat is een betere bescherming dan voorlichting, begeleiding en veilig laten experimenteren?’

DE VOORGAANDE DELEN 
VAN DEZE SERIE LEZEN?
Je vindt ze in het online archief op
de IP-website. Klik hieronder voor:

> DEEL 1

> DEEL 2

> DEEL 3

‘Generatieve AI is fascinerend en nuttig, maar duidelijk nog onvolwassen. Het is aan alle betrokkenen om er volwassen mee om te gaan’

IP | vakblad voor informatieprofessionals | 01 / 2024

Simon Been
Directeur van het Papieren Tijger Netwerk en spreker/trainer/auteur over AI in het informatiedomein

AI IN HET INFORMATIEDOMEIN (4)       SIMON BEEN

Deel 4 artikelenserie over kunstmatige intelligentie

Magistrale
magie
EU versus AI

Wat is de invloed van AI op het informatiedomein? In een reeks artikelen wordt dit onderwerp belicht vanuit verschillende invalshoeken, waaronder activiteiten binnen het informatiedomein, veranderingen in de organisatieprocessen en consequenties voor de informatieprofessie zelf. Dit vierde deel betreft een intermezzo binnen deze artikelenserie: het zoomt in op AI in relatie tot overheidsstandpunten en wetgevende bureaucratie.

De lijst is veel langer. Heb je een tip voor een goede, handige chatbot? Mail naar redactie@informatieprofessional.nl en we voegen deze toe aan de lijst die we publiceren in de volgende editie van IP.

OVERZICHT(JE) VAN CHATBOTS

ChatGPT en vergelijkbare tools liggen op allerlei gebieden onder vuur. Het Voorlopig Standpunt baseert zich met name op de landsadvocaat, de EC en de AP en ziet vooral deze bezwaren.
> De trainingsdata kunnen privacygevoelige gegevens bevatten.
> Het AI-model kan onjuiste of bevooroordeelde gegevens over personen bevatten.
> Een generatieve AI-toepassing kan zeer gevoelige informatie afleiden uit de interactie met de gebruiker en die onbedoeld openbaar maken.
> De rechten van betrokkenen, zoals de mogelijkheid tot inzage en het eventueel verwijderen of rectificeren van persoonsgegevens, zijn momenteel zeer beperkt.
> Het gebruik van generatieve AI brengt auteursrechtelijke risico’s met zich mee. Veel aanbieders zijn daar momenteel niet transparant over.
> Vanuit de rechtspraak is er nog geen expliciet oordeel over in welke mate scraping ten behoeve van het trainen van generatieve AI-modellen toelaatbaar is.

GENAI HEEFT
DUISTERE KANTEN

Generatieve AI

De vergelijking tussen AI en magie is snel gemaakt. Speel er een beetje mee en je voelt hoe je vingertoppen ongekende krachten ontketenen. Ook realiseer je je al direct dat het een leerschool vergt om het onder de knie te krijgen: aandacht, les, oefenen. Een beetje zoals Harry Potter kreeg op Hogwarts. In Harry Potter and the Order of the Phoenix timmert een magistraat van het Ministry of Magic de schoolhal vol met geboden en verboden om te voorkomen dat de studenten te wijs en te bedreven worden – met handhaving door ‘gezagsgetrouwen’. Een nieuwe vergelijking dringt zich nu op: eentje met andere wetgevende magistraten, die van de EU en NL.

FASCINEREND MONSTER
In de film trekt Harry Potter zich niets aan van de regelzucht en hij kan daardoor samen met ondergrondse sympathisanten (Dumbledore’s Army) de vileine Voldemort stoppen. Hoe zou dat in Europa aflopen? Tenslotte speelt zich hier een soortgelijk scenario af: wetgevende bureaucratie versus AI. Kijk maar: de rijksoverheid verbiedt feitelijk het intern gebruik van ChatGPT, Eurocraten stoeien met een heuse AI-wet en diverse overheidssignalen lijken erop gericht AI als staatsvijand weg te zetten. En dat terwijl meer dan 4 miljoen Nederlanders er al persoonlijke ervaring mee hebben (extrapolatie van GfK-cijfers) en velen daarvan, inclusief ambtenaren, echt niet meer zonder willen.

We weten: generatieve AI is verre van volmaakt en eerder een ruwe diamant of, zoals je wilt, een fascinerend monster. Maar het tot een taboe maken? Zelf weten we inmiddels dat AI informatietaken kan ondersteunen, een persoonlijke sparringpartner kan zijn, van iedereen kunstenaars en musici kan maken en zelfs bepaalde bedrijfstakken (hardhandig) kan stroomlijnen. Ziet de Nederlandse en Europese overheid dat dan niet?

Kortom, het is tijd voor een intermezzo binnen deze reeks artikelen. Hieronder belicht ik de overheidsstandpunten en het belang voor het informatiedomein, en breek ik een lans voor voorlichting, workshops en discussieplatforms voor iedereen die voorop wil of moet lopen, inclusief informatieprofessionals.

VERBOD OP CHATGPT, COPILOT, BARD ...?
Op 11 december 2023 verschijnt het Voorlopig Standpunt voor rijksorganisaties bij het gebruik van generatieve AI. De staatssecretaris van Digitalisering verspreidt daarin de interne boodschap: GenAI heeft belangrijke keerzijdes en kan – vooral vanuit juridisch perspectief – dus niet worden toegepast binnen de rijksoverheid en externe partners. Zelfs ermee experimenteren om te leren kan feitelijk niet door de beugel. Maar is dat verbieden? Nu wordt het curieus, want de staatssecretaris schrijft: ‘Dit voorlopige standpunt is geen categorisch verbod van de technologie’, en dat streepje onder ‘geen’ is van haar. Aansluitend schrijft ze: ‘... maar herhaalt geldende wet- en regelgeving. Het gebruik wordt niet ontzegd, maar gekaderd. Zo blijft het mogelijk te experimenteren met de technologie.’

Waarom ik dan toch schrijf dat het verboden wordt? Vanwege de rest van het Voorlopig Standpunt. Het is een beetje als een radiostation beginnen in Rusland: dat staat iedereen vrij, maar je moet natuurlijk een vergunning hebben en daarvoor ligt de lat erg hoog. In dit geval: ‘Hierbij dienen alle generatieve AI-toepassingen te voldoen aan geldende wet- en regelgeving’. Bijvoorbeeld op het gebied van privacy en auteursrecht.

DICHTTIMMEREN
Alles mag dus, mits aantoonbaar juridisch onbetwist. Als je een beetje sceptisch bent, zie je daarin de perfecte contradictio in terminis. Het woordje ‘aantoonbaar’ maakt het verschil. Voordat je bijvoorbeeld ChatGPT gebruikt, moet je bewijzen dat het volledig aan de wet voldoet. En daar is een goed doordachte procedure voor: van risicoanalyses en assessments tot en met het destilleren van rijksbrede lessen uit alle ervaringen. Je kunt het altijd proberen, maar wie durft zijn goedkeuring te geven onder het toeziend oog van de Autoriteit Persoonsgegevens (AP) en de landsadvocaat? Het klinkt een beetje alsof de overheid zichzelf zo dichttimmert dat er geen deur of raam meer open kan.

AI ALS HUIS VAN DE OVERHEID
Toch was de overheid juist een AI-cheerleader een luttele vier jaar geleden. Toen verscheen het rapport Future lab - De informatiehuishouding van het Rijk in 2030 van het Rijksprogramma voor Duurzaam Digitale Informatiehuishouding (RDDI), warm aanbevolen door de secretaris-generaal van het ministerie van Onderwijs, Cultuur en Wetenschap (OCW). Het is een opmerkelijk rapport, sprankelend, creatief en onorthodox, maar vreemd genoeg komt juist de informatiebeheersproblematiek die we zo goed kennen er bekaaid vanaf. Het bekommert zich ondanks de titel niet om de rijksinformatiehuishouding van 2030, maar om de informatiehouding van rijksambtenaren. Alle aspecten die te maken hebben met de inrichting van het informatiehuis zelf, zoals beheer, technologie, wetgeving, soorten informatie/data en andere relatief structurele onderdelen, blijven sterk onderbelicht, want die worden in 2030 geregeld door … kunstmatige intelligentie. Jazeker.

In deze toekomstverkenning van het RDDI is AI het ‘huis van de overheid’ waarbinnen ambtenaren ongestoord zich volledig kunnen richten op de inhoud. Destijds ging me dat veel te kort door de bocht. Ik maakte in artikelen de vergelijking met Harry Potter: elke keer als het moeilijk wordt, komt het AI-toverstafje tevoorschijn.

AI ALS LUIS IN DE PELS
Met het recente Voorlopig Standpunt lijkt kunstmatige intelligentie juist weer taboe binnen de rijksoverheid, en dat geeft tevens een signaal af aan de maatschappij: dat AI gevaarlijk is. Natuurlijk zijn de keerzijden van (generatieve) AI die BZK/Digitalisering noemt valide (zie ook het kader). Tegelijk benoemt de staatssecretaris tevens de positieve kanten. Het grote verschil tussen de stellingname van OCW in 2020 en die van BZK in 2023 is het perspectief. BZK vroeg landsadvocaat Pels Rijcken en de AP om advies, waardoor onvermijdelijk wetten en regelgeving centraal stonden. AI is een ongenode, grillige gast in dat keurige wetspaleis. De toekomstverkenning van het RDDI daarentegen was meer vergelijkbaar met het ‘I had a dream’ van Martin Luther King, een ideaalbeeld. Zou het kunnen dat OCW wat meer in magiërs gelooft en BZK wat meer in juristen? Wat is AI: het huis van de overheid of de luis in de pels? Vriend of vijand? Gelukkig zijn er meer nuances in overheidsland zoals we verderop zullen zien.

DE INFORMATIEPROFESSIE
Die nuances zijn belangrijk, want hoe je er ook over denkt, de overheid kneedt het economische en sociale klimaat door wet- en regelgeving, inclusief alle beleidsvorming en uitvoering die daarvoor nodig zijn, maar ook door simpelweg signalen af te geven aan de samenleving. De informatieprofessie neemt op haar beurt een bijzondere positie in binnen die overheid en samenleving omdat AI juist in ons domein zo veel impact krijgt. Ons vak wordt bij de overheid ook steeds meer serieus genomen en als speerpunt gezien. We moeten vooraf intensief betrokken worden bij het informatieproces, dus goed weten waar we het over hebben. Of we nou in een newsroom of bibliotheek werken of informatiemanager zijn, AI is een nieuw gereedschap dat nieuwe vaardigheden en inzichten vergt.

STOPPEN MET INNOVEREN?
De rijksoverheid kent al heel wat ChatGPT-gebruikers en AI-projectgroepen die ondanks de voortekenen overvallen zijn door het Voorlopig Standpunt. Je hoort het ze al zeggen: stoppen we nu als Nederland met innoveren? En rijksambtenaren zijn niet de enigen: ‘Het standpunt is ook van toepassing wanneer een externe partij diensten of producten levert aan een rijksorganisatie met gebruikmaking van generatieve AI.’ Interessant! Wat doe je als innovatieve dienstverlener, producent of leverancier die GenAI in zijn eigen processen gebruikt? Vallen bestaande rijkscontracten nu stil? Ben je al uit de gratie als je een AI-kerstkaart verstuurt? Hoe dan ook, gesprekken bij overheidsorganisaties geven aan: AI-projecten staan grootscheeps on hold.

Vlak voor het Voorlopig Standpunt was er het hoopgevende bericht dat Nederland een eigen open taalmodel gaat ontwikkelen: GPT-NL. De aankondiging noemt interessante voordelen voor de samenleving en economie, en de overheid stopt er 13,5 miljoen euro in. Misschien is dit wel de ultieme oplossing, ‘aantoonbaar’ juridisch onbetwist, en hoeven we alleen nog maar te wachten totdat dit initiatief klaar is en goedgekeurd.

PERSPECTIEF UIT EUROPA
Er wordt ook hard gewerkt aan een Europese AI Act. Een politiek akkoord daarover is net bereikt en de ambassadeurs van de EU-lidstaten hebben hun unanieme steun gegeven. Nu moet het hele Europees Parlement nog instemmen voordat twee jaar daarna de wet in werking treedt. Rijksoverheid.nl schreef op 9 december 2023 hierover: ‘In het politiek akkoord zijn ook afspraken gemaakt over wat hoog risico AI-systemen zijn en welke eisen hieraan worden gesteld. Ook zijn bepaalde soorten onwenselijke AI straks verboden, zoals social scoring of manipulerende AI-technieken. Aanbieders van chatbots in webwinkels, deepfake-technieken of generatieve AI-systemen zoals het populaire ChatGPT moeten ervoor zorgen dat het voor mensen duidelijk is dat ze met een AI praten of dat content door AI is gemaakt.’

Per saldo geldt dat de echte impuls voor AI moet komen van de aanbieders. De AI Act gaat verplichten dat die ervoor zorgen dat AI aan de wet voldoet. En dat is logisch, dat is je taak als overheid, je kunt de wereld niet eigenhandig veranderen. Toch is het contrast groot met landen als China en de Verenigde Staten, waar AI een speerpunt is en enorme bedragen worden geïnvesteerd om te innoveren. Nederland loopt voorop in de Europese pas en Europa geeft geen hoop op AI-innovatie en -tolerantie – vooral meer regels aan de muur van Hogwarts.

REGELTJES
De juridische aanpak van Nederland en Europa doet een beetje denken aan kinderen opvoeden. Kies je de weg van de regeltjes of die van de geleide bewustwording? Regeltjes zijn veilig en duidelijk. Bewustwording zit in de sociale hoek en is hoogstens statistisch bewijsbaar. Ik zie de jurist al huiveren. Regeltjes dus, en welke samenleving kan zonder? Ze zijn broodnodig, al was het maar voor de orde en rechtsgelijkheid, maar als het er te veel worden, cultiveren ze ook een cultuur van goed versus slecht en ontduiking. En vergeet de protocoltoorn niet: van ziekenhuis en onderwijs tot kinderopvang, iedereen is 20 tot 40 procent van zijn tijd bezig met administratie in plaats van met kernactiviteiten. Nog een neveneffect is hypocrisie: kijk eens hoe ik me aan de regels houd, maar toch wegkom met precies dat wat voorkomen moest worden!

VERGELIJKING MET GDRP
Denk bijvoorbeeld aan Facebook, Google en andere datascrapers en -handelaars. Hun omgang met private en kwetsbare informatie was een belangrijke drijfveer voor Europa om met de General Data Protection Regulation (GDRP) te komen. Resultaat: vele maatregelen om privacy en gegevens te beschermen, maar of de hoeveelheid verzamelde gevoelige en privégegevens bij deze scrapers substantieel is afgenomen, is helemaal de vraag. Tracking en spam gaan onverminderd voort. Waarom? Omdat hun machtspositie al zo groot was dat praktisch niemand zich uitschrijft. En omdat je het beu wordt om op al die andere sites die je bezoekt duidelijk te maken dat je niet wilt dat je gegevens worden opgeslagen. Dus toestemmingsmoe keuren we de diefstal goed. Zo worden al die vuile data juridisch correct witgewassen.

Bovendien ontbreekt het kleinere en innovatieve bedrijven aan middelen en expertise om aan dit soort regelgeving te voldoen. Zo raakten die bij de invoering van de GDPR gemiddeld drie kwart van hun relatiebestand kwijt omdat in korte tijd iedereen wel klaar was met het geven van al die toestemmingen. Juist de Googles, Facebooks, WhatsApps en Instas hadden daar dus geen last van. Die schreven zelfs mee aan de wetten omdat ze veel ter zake kundiger zijn. Is dat echt wat we wilden? Is het internet er betrouwbaarder op geworden? Zeker niet nuttiger.

BEDRIJVEN AAN ZET
Toch is dit de richting die Nederland en Europa lijken in te slaan: de route van de contracten met externe aanbieders die moeten beloven dat ze zich aan de regels houden waardoor het risico bij hen ligt. Met als gevolg dat na het internet ook AI ‘beregeld’ wordt.

Interessante scenario’s doemen op, zoals een Witte Reus-schoon AI-landschap met uitsluitend ‘juiste’ informatie, zonder ecologische voetafdruk of persoonlijke informatie et cetera. Tegen een substantieel bedrag per maand uiteraard. En anders krijg je de ‘gratis’ versie waarbij al je data worden geschraapt, mét je eigen toestemming. Zou dat betaalde schone AI-landschap antwoorden geven op vragen naar gevoelige of controversiële onderwerpen, zoals soa’s of suïcide of ...? De schone-internetcensuur op sommige scholen in de Verenigde Staten doet het ergste vrezen.

‘TOEZICHT HOUDEN EN HANDHAVEN’
Uiteraard is dit niet de bedoeling. In de op 1 januari 2024 gepubliceerde Overheidsbrede visie Generatieve AI staat zelfs: ‘De regels in de DMA (Europese Digital Markets Act) zijn erop gericht om de betwistbaarheid van de positie van poortwachters te vergroten en de afhankelijkheid van die poortwachters te verminderen.’ De visie zegt echter ook: ‘De verordening (Europese AI Act) geldt direct als wet in Nederland. Een deel ervan, zoals het toezicht op verboden en hoog risico AI-toepassingen, wordt via een Nederlandse wet verder ingericht.’ En: ‘Er wordt een Europese toezichthouder ingericht binnen de Europese Commissie, de AI Office, die de nieuwe regels voor GPAI-modellen gaat handhaven.’ Een Europese AI-FBI? De overheidsbrede visie staat vol hoopvolle woorden over kansen, innovatie en samenwerking, maar deze verstopte kop kon wel eens de kern zijn: ‘Sterk en helder toezicht houden en handhaven’.

OF TOCH GELEIDE BEWUSTWORDING?
De overheidsangst is legitiem. Hoe voorkom je dat een ambtenaar beleidsdocumenten laat schrijven door ChatGPT of staatsgeheimen eraan toevertrouwt? Of dat die begrotingen ermee doorrekent? Maar bedenk ook: wat is een betere bescherming dan voorlichting, begeleiding en veilig laten experimenteren?

Er is hoop. Aan het eind van het Voorlopig Standpunt – bij ‘vervolgstappen’ – lijkt het verbod op gebruik en zelfs experimenteren met GenAI te verdampen: ‘Binnen verschillende rijksorganisaties worden pilotprogramma’s in veilige en gecontroleerde omgevingen uitgevoerd.’ Dat wordt nu geïnventariseerd en er wordt lering uit getrokken. Ook wordt een handreiking voor rijksorganisaties bij het gebruik van generatieve AI geschreven en wordt met trainingen en bijeenkomsten kennisdeling gefaciliteerd over de mogelijkheden voor veilig gebruik van GenAI.

VOLWASSEN MEE OMGAAN
Je zou bijna zeggen dat die vervolgstappen stiekem langs de juristen zijn gesmokkeld, want de tegenstrijdigheid met het standpunt zelf is groot. Een paar pagina’s terug staat nog ‘in beginsel niet toegestaan’, onderstreept en al. Zouden er dan toch ook bij BZK ondergrondse AI-sympathisanten zijn? Dumbledore’s AI-Army? Of is dat magisch denken?

Generatieve AI is fascinerend en nuttig, maar duidelijk nog onvolwassen. Het is aan alle betrokkenen om er volwassen mee om te gaan. Vertrouwen werkt twee kanten op: als je het niet geeft, krijg je het ook niet. Hoe minder vertrouwen, hoe cynischer het gedrag. Laten we alsjeblieft zo snel mogelijk zorgen voor voorlichting, training, workshops en discussieplatforms voor alle ambtenaren, en niet alleen die van het rijk. En laat de overheid zorgen voor een genuanceerde beeldvorming in de maatschappij. Opvoeden is beter dan afdwingen. <

DE VOORGAANDE DELEN 
VAN DEZE SERIE LEZEN?
Je vindt ze in het online archief op
de IP-website. Klik hieronder voor:

> DEEL 1

> DEEL 2

> DEEL 3

IP | vakblad voor informatieprofessionals | 01 / 2024