‘Google medewerkers in opstand tegen militaire AI en samenwerking Amerikaanse leger’

Google

 

Binnen Google groeit het verzet tegen mogelijke samenwerking met het Amerikaanse leger. Meer dan 600 medewerkers hebben CEO Sundar Pichai in een interne brief opgeroepen om een duidelijke grens te trekken: geen inzet van kunstmatige intelligentie voor geheime militaire projecten. De kern van hun bezwaar is niet alleen dat AI wordt gebruikt door defensie, maar vooral hoe dat gebeurt. Geclassificeerde projecten onttrekken zich aan publieke controle en interne transparantie. Daardoor is het voor zelfs de eigen ontwikkelaars onmogelijk om te weten waar hun technologie uiteindelijk terechtkomt of hoe die wordt ingezet.

Dat creëert volgens de ondertekenaars een fundamenteel risico: technologie die bedoeld is om mensen te helpen, kan eindigen in systemen die schade veroorzaken of zelfs levens kosten.

“AI should be used to benefit humanity, not to enable harmful or opaque military operations.”
— zo luidt een interne medewerkersbrief

De werknemers wijzen daarbij op concrete gevaren. Denk aan AI-systemen die massasurveillance ondersteunen, doelwitten selecteren in conflictsituaties of bijdragen aan autonome wapens. In zulke contexten verschuift verantwoordelijkheid van mens naar machine — en dat maakt ethische controle veel lastiger. Volgens critici binnen het bedrijf is dat een grens die niet vaag, maar absoluut moet zijn.

Een terugkerend conflict over waarden en winst

De spanningen komen niet uit het niets. Google balanceert al jaren tussen commerciële kansen, geopolitieke druk en zijn eigen ethische beloftes rond AI. Samenwerkingen met overheden — en met name defensie — zijn financieel aantrekkelijk en strategisch belangrijk, maar botsen met het beeld dat het bedrijf wil uitdragen: technologie als positieve kracht voor de samenleving. Dat wringt des te meer omdat eerdere richtlijnen, waarin het bedrijf terughoudendheid beloofde rond militair gebruik van AI, de afgelopen tijd minder strikt lijken te worden toegepast. Voor veel werknemers voelt dat als een glijdende schaal: wat eerst onacceptabel was, wordt stap voor stap genormaliseerd onder druk van concurrentie en nationale veiligheidsbelangen.

De herinnering aan 2018 speelt daarbij een belangrijke rol. Toen dwong intern protest het bedrijf om zich terug te trekken uit een militair AI-project. Die geschiedenis laat zien dat werknemers invloed kunnen uitoefenen — maar ook dat dezelfde discussie telkens terugkeert, zonder definitieve oplossing.

Wat er nu op het spel staat, gaat volgens de critici verder dan één contract of samenwerking. Het raakt aan een fundamentele vraag: wie bepaalt de grenzen van krachtige technologie de markt, de overheid, of de mensen die haar bouwen?

R.J. Hoeffnagel

Schrijft op het randje van ICT - social - marketing AI - en alles wat we t(r)endentieus achten. Ik deed dat ooit voor veel techmagazines.