EOSwetenschap: ‘AI kan de macht bij kleine groep neerleggen’

Wetenschap en technologie hebben altijd vooruitgang gebracht, aangedreven door menselijke intelligentie. Maar nu artificiële intelligentie (AI) razendsnel evolueert, rijst de vraag: wat gebeurt er als machines beter worden dan wij? Techniekfilosoof Lode Lauwaert waarschuwt dat de macht over deze technologie in handen van een kleine groep kan terechtkomen. Zo meldt hij op Eosweterschapper.eu.
Wat is AI precies?
AI is een verzamelnaam voor technologie die menselijke intelligentie nabootst. Daarbij wordt onderscheid gemaakt tussen drie niveaus:
-
Narrow AI voert één specifieke taak uit, zoals vertalen of gezichtsherkenning.
-
Algemene AI (AGI) zou meerdere taken kunnen uitvoeren op menselijk niveau.
-
Superintelligentie overstijgt de menselijke capaciteiten en presteert op expertniveau.
De laatste twee bestaan nog niet, maar de ontwikkelingen gaan zo snel dat ze volgens Lauwaert niet langer louter sciencefiction zijn.
Verschillende bubbels
In het debat over AI bestaan drie denkwerelden:
-
De techbubbel, waar ondernemers en ingenieurs vooral de voordelen benadrukken.
-
De ethiekbubbel, waarin wetenschappers waarschuwen voor morele risico’s.
-
De x-risk-bubbel, die focust op existentiële gevaren, zoals grootschalig lijden of zelfs het einde van de mensheid.
Volgens Lauwaert luisteren deze groepen te weinig naar elkaar, waardoor ze vaak in hun eigen overtuigingen blijven hangen.
Twee grote risico’s
Twee bedreigingen springen eruit: de mogelijkheid dat AI wordt ingezet bij het ontwerpen van nieuwe virussen of bacteriën, en het risico op een nucleaire catastrofe. Zelfs zonder superintelligentie kan AI bestaande dreigingen versterken. Daarnaast ontstaat een kennisprobleem: door deepfakes en misleidende informatie wordt het steeds moeilijker om te weten wat waar is. Een belangrijk risico is dat AI leidt tot een waardenvergrendeling. De waarden van de mensen die de technologie ontwikkelen, worden ingebakken in de systemen. Als slechts een handvol bedrijven of individuen deze technologie controleert, kunnen hun normen de toekomst bepalen. Zo’n vergrendeling is moeilijk terug te draaien en kan decennialang invloed hebben op de samenleving.
Big tech en politieke invloed
De ontwikkeling van AI ligt grotendeels in handen van grote technologiebedrijven. Deze ondernemingen hebben nauwe banden met politieke machtscentra en hun leiders hebben enorme invloed op de richting van de technologie. Dat roept vragen op over wie er eigenlijk bepaalt hoe AI wordt ingezet en in wiens belang.
Hoe houden we controle?
Om te voorkomen dat de macht over AI te geconcentreerd raakt, pleit Lauwaert voor een brede vorm van bestuur. Niet alleen bedrijven en overheden, maar ook wetenschappers en burgers moeten inspraak krijgen. Vooral bij de ontwikkeling van algemene AI is internationale samenwerking cruciaal. Een wereldwijd consortium zou ervoor kunnen zorgen dat de technologie in het belang van iedereen wordt gebruikt, niet van een kleine elite.
Lauwaert beschouwt zichzelf als een techno-optimist: technologie heeft de mensheid veel vooruitgang gebracht. Toch vindt hij dat we alert moeten blijven voor de risico’s. Niet om angst te zaaien, maar om tijdig te handelen — als een rookmelder die waarschuwt voordat het te laat is.



