COLUMN: ‘Gecensureerd door zelfbenoemd overheids-AI-expert (omdat ik het veilige AI-beleid gemeente Amsterdam steun)

COLUMN: ‘Gecensureerd door zelfbenoemd overheids-AI-expert (omdat ik het veilige AI-beleid van de gemeente Amsterdam steun)
Het was ooit op X (/Twitter), maar nu ook op LinkedIn: gecensureerd en geblokkeerd omdat je – in dit geval – een vermeend “zelfbenoemd overheids-transformatie-AI-expert” aanspreekt op het feit dat hij onwaarheden verspreidt in een bash richting een organisatie en medewerkers. Het gaat concreet om dit verhaal op LinkedIn en om een bash richting het veilige AI-beleid van de gemeente Amsterdam en haar medewerkers die in de “dialogen” worden genoemd en vermeld. Al eerder verwijderde de auteur reacties onder een artikel van hem waarin onjuistheden over de Perplexity tool en taalmodellen werden gedeeld. Even heel concreet is alles wat de auteur beweert in de “gemeente Amsterdam bash” onjuist.

Een blok omdat ik reageer met feiten.
Nu blijkt dat juist EU-cloud AI-privacydata door Trump & Musk opgeëist kunnen worden. Een voorzichtig AI-privacydata-beleid is vitaler dan ooit, vooral voor overheden.
De auteur richt zich aanvallend tot de wethouder en adviseur. Aangezien de auteur in eerdere LinkedIn-posts veel AI-zaken onkundig door elkaar haalt, voel ik mij genoodzaakt om in reacties iets aan “factcheck” te doen.

Overheidsrichtlijnen en standpunt.
Er ontpopt zich, geregisseerd door de profilerende auteur, een bash die zich onder valse voorwendselen – met opgetrommelde volgersgroep – tegen een organisatie en management keert op basis van desinformatie. Drie voorbeelden:

De auteur suggereert een totaalverbod op AI waar geen sprake van is. Wel het weren van AI-tools die een bewezen veiligheidsrisico’s geven.
- De auteur meent: “Dat een (lagere) overheid makkelijk een eigen Nederlands taalmodel in die bestaande genAI-tools schuift (denk aan Copilot en ChatGPT) en zo veilig maakt.”
- Mijn reactie: Dit is onjuist. Dit zijn twee verschillende componenten. Je kunt geen (open source) taalmodel in een bestaand commercieel cloud-genAI-tool schuiven.

Privégebruik op een privéapparaat van genAI tools is heel wat anders dan de inzet van genAI binnen organisatiesprocessen en gekoppelde organisatiedata.
- De auteur meent dat er een totaalverbod bij de gemeente Amsterdam zou zijn en een “schijnveiligheid” ontstaat bij een verbod op geselecteerde AI tools.
- Mijn reactie: Dit is onjuist. Er is geen totaalverbod; de gemeente kiest voor het nog niet inzetten van twee genAI-tools na geconstateerde veiligheidsrisico’s. En: privégebruik op een privéapparaat van genAI tools is heel wat anders dan de inzet van genAI binnen organisatieprocessen en aldaar gekoppelde persoonlijke gegevens.
- De auteur meent vervolgens in zijn post dat de gemeente geen visie heeft.
- In mijn reactie verwijs ik naar de uitgebreide AI- en innovatievisie van de gemeente (met groot AI-team) en de samenwerking met gerenommeerde startups, evenals het beleid van VOLT en D66 (beiden in de Amsterdamse Gemeenteraad).

De auteur op Bluesky aanspreken op onwaarheden na een censuur van mijn reacties.
- De auteur meent dat de gemeente en het personeel gaan achterlopen, omdat ze nu “geen AI” gebruiken.
- In mijn reactie geef ik genuanceerd aan dat juist deze gemeente al vroeg is gestart met trainingen AI-geletterdheid voor het personeel en dat AI om meer draait dan de populaire genAI-tools, en dat de genoemde genAI-tool zich als “AI-assistent” inmengt in online vergadersystemen, financiële toepassingen, tekstverwerkers, intranet, webmail en databases. Ik verwijs, net als een gespecialiseerde jurist in een reactie ook doet, naar de EU AI Act en het beleid van AI bij deze gemeente die reeds in 2020 op de gemeentesite aanwezig was.

Verkeerde suggesties sturen een negatieve bash aan richting de gemeente Amsterdam op basis van onwaarheden.
En dan… volgt er censuur door de auteur naar mijn factchecking-reacties en een blokkering. Omdat de auteur na de blokkering een nare opmerking over mij plaatst, heb ik getracht nog even via BlueSky met de man in contact te komen:
- Hij meldt in een reactie dat hij mijn factcheck-reacties “random” en “irritant” vindt, de factchecking zou volgens hem niet bedragen aan de discussie:
Hulde voor de gemeente Amsterdam dat ze niet de persoonlijke gegevens van en uit de organisatie als “AI-speeltuin” gebruiken nu blijkt dat genAI-toepassingen en clouddata helemaal niet zo veilig en betrouwbaar blijken te zijn opgeslagen, of verwerkt, als we aanvankelijk dachten.
By far the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.
― Eliezer Yudkowsky
Onderstaande column is op MarketingReport, maart 2025 verschenen:
Waar de gouden bergen-machine van minder personeel nodig, contentcreatie is gratis, gratis chatservice voor iedereen, volledig geautomatiseerde socialemediamarketing en zichzelf-sturende kantoortaken overuren draait, schiet de zelfbevlekte kundigheid van zelfbenoemde AI-experts alle kanten op. Deze keer op LinkedIn een confrontatie met een zelfbenoemde overheids-transformatie-AI-expert die een gemeente basht om haar veilig AI-beleid.
De scheidslijn tussen zelfbenoemde Gidsende overheids-transformatie-AI-expert en een nepnieuwsverspreider (b)lijkt dun te zijn. En dat is zorgelijk.
Eerst wat pijnlijke context, voordat ik terugschakel naar de zelfbenoemde Gidsende overheids-transformatie-AI-expert. Op basis van de zogenoemde CLOUD Act en de wankele Transatlantic Data Privacy Framework (TADPF) is bekend geworden dat Trump & Musk de EU-data van big tech AI-toepassingen legaal richting de VS kunnen trekken. Het was ook nu de Nederlandse mainstream media niet opgevallen dat wij op snelheid gevoelige gegevens in de schoot van Trump & Musk PrivacyDatatrading Inc. werpen onder aanvoering van opdringerige, zelfbenoemde Gidsende overheids-transformatie-AI-experts.
En dan die – zonder bij naam te noemen – weer terug naar die inmiddels oververhitte zelfbenoemde Gidsende overheids-transformatie-AI-expert die op LinkedIn, uit zelfprofilering, een suggestieve claim plaatst, voorzien van opruiende bash richting een organisatie. Met een lokroep roept hij een gewillige peerachterban op.
Datalekken in AI-tool
De aanval richt zich op de veilige AI-koers die de Gemeente Amsterdam en haar medewerkers varen op basis van gedegen onderzoek. Dit gebeurt op basis van eigen beleid en advisering door de Vereniging van Nederlandse Gemeenten (VNG). Een betreffende genAI-tool die de gemeente nog niet wil inzetten, blijkt datalekken te kennen en is wazig over de verwerking van privacygegevens.
Maar die veilige route valt bij de zelfbenoemde Gidsende overheids-transformatie-AI-expert in het verkeerde keelgat en hij hakt op de gemeente in. In een blinde bash heeft hij inmiddels schaamteloos de Amsterdamse wethouder en zijn IT-adviseur geslachtofferd.
En dan volgt een relaas van valse claims richting de gemeente en haar medewerkers, als de zelfbenoemd Gidsende overheids-transformatie-AI-expert claimt dat de gemeente “…dus helemaal geen AI gebruikt omdat ze die populaire genAI-toepassingen niet willen inzetten.”
Ik reageer met een lijst van AI-toepassingen die de gemeente na risico-onderzoek reeds inzet en ik probeer de opgefokte peerachterban van de zelfbenoemde Gidsende overheids-transformatie-AI-expert uit te leggen dat AI meer is dan wat leuke, creatieve generatieve AI-middeltjes die tekstjes en plaatjes maken.
“Bij de verantwoorde inzet van AI voor de verwerking van persoonsgegevens speelt risicomanagement en de EU AI Act een rol”, zo tracht ik de “Gidsende overheids-transformatie-AI-expert” en zijn gevolg uit te leggen.
De opgetrommelde peerachterban – die nog net voor hun reactie de term AI aan hun LinkedIn-beroepsprofiel toevoegen – blinkt schreeuwend uit in een gebrek aan factchecking.
De zelfbenoemde Gidsende overheids-transformatie-AI-expert verzamelt de “O, wat slecht van die gemeente..” / “Wat een dom besluit..”-reacties en verwijt de gemeente dat ze voor schijnveiligheid zorgen, want “…ze gebruiken die AI-tools toch wel op hun mobiel.”
Opgedrongen AI-assistenten
Ik tracht de Gidsende overheids-transformatie-AI-expert en zijn Minions uit te leggen dat het hier gaat om generatieve AI-toepassingen die zich als opgedrongen AI-assistent in een organisatieomgeving ingraven binnen online vergadertoepassingen, webmail, klantdatabases, tekstverwerkers en financiële toepassingen.
“De gemeente is visieloos”, claimt de zelfbenoemde Gidsende overheids-transformatie-AI-expert, gevolgd door “… nu loopt het personeel achter in AI-gebruik.”
Een bekende ICT-jurist tracht de zelfbenoemde Gidsende overheids-transformatie-AI-expert nog uit te leggen dat organisaties zelf verantwoordelijk zijn voor de veilige verwerking van persoonsgegevens en dus een logisch besluit hebben genomen.
Als ik vervolgens een link plaats naar de reeds jaren gehanteerde visie op het gebruik van AI door de betreffende gemeente, volgt censuur van mijn reacties. Als in de visie van de gemeente zelfs wordt benadrukt dat de gemeente al in een vroeg stadium is gestart met AI-geletterdheids-trainingen voor de ambtenaren (en dus een voortrekkersrol speelt), word ik keihard geblokkeerd.
Er volgt na de blokkade nog een nare opmerking van de Gidsende overheids-transformatie-AI-expert dat hij mijn reacties irritant vindt. Een poging om inhoudelijk met de man via Bluesky in contact te komen mislukt.
Hulde voor alle organisaties die de veiligheid van persoonsgegevens vooropstellen.
Hulde voor alle organisaties die niet blind meegaan in een oververhitte AI-hype en privacy en risicoanalyse vooropstellen.
“By far, the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.” (Machine Intelligence Research Institute.)
–
Patrick Petersen RDM MA MSc is AI-expert gericht op businessautomatisering en ondernemer met zijn bureau AtMost(TV), auteur van meer dan twintig prijswinnende boeken over AI, marketing, online tech en maatschappelijke ontwikkelingen, zoals zijn www.handboek.ai. Bovenal is hij docent en spreker.