OpenAI licht defensiedeal toe: ‘Duidelijke grenzen aan militair AI-gebruik’

OpenAI licht defensiedeal toe: ‘Duidelijke grenzen aan militair AI-gebruik’
OpenAI heeft extra uitleg gegeven over de overeenkomst met het Amerikaanse ministerie van Defensie, beter bekend als het Pentagon. Het bedrijf mag zijn AI-modellen inzetten binnen beveiligde, geclassificeerde netwerken van de overheid. Volgens OpenAI-topman Sam Altman kwam de deal in hoog tempo tot stand, wat volgens hem heeft bijgedragen aan onduidelijkheid en publieke discussie.
De overeenkomst volgt op eerdere gesprekken tussen het Pentagon en andere AI-bedrijven, die uiteindelijk op niets uitliepen. OpenAI benadrukt dat het contract expliciete beperkingen bevat over hoe de technologie mag worden gebruikt. Zo zou het systeem niet ingezet mogen worden voor massale binnenlandse surveillance, volledig autonome wapensystemen of kritieke geautomatiseerde besluitvorming met directe impact op burgers.
“Wij trekken duidelijke rode lijnen,” aldus Altman.
Onze technologie mag niet worden gebruikt voor toepassingen die fundamentele rechten schaden of menselijke controle volledig uitschakelen.
Volgens het bedrijf blijven de modellen onder toezicht van OpenAI zelf en draaien ze binnen streng beveiligde cloudomgevingen. Alleen geautoriseerde medewerkers hebben toegang tot het beheer van de systemen. Daarmee wil OpenAI garanderen dat de afgesproken grenzen ook in de praktijk worden bewaakt. Met de publicatie van meer details probeert OpenAI transparanter te zijn over zijn rol binnen defensietoepassingen. Tegelijkertijd laait het bredere debat opnieuw op over de ethische grenzen van kunstmatige intelligentie in militaire en overheidscontexten.

