Moonbounce haalt miljoenen op voor contentmoderatie in AI-tijdperk
Moonbounce, een startup van oud-Facebook-manager Brett Levenson, heeft 12 miljoen dollar opgehaald om contentmoderatie beter geschikt te maken voor het AI-tijdperk. Het bedrijf ontwikkelt technologie die bedrijven helpt om in realtime in te grijpen bij risicovolle of schadelijke content, nog voordat die breed wordt verspreid.
Levenson werkte eerder bij Facebook aan beleid en integriteit en zag daar hoe lastig en traag traditionele contentmoderatie in de praktijk vaak is. Moderatoren moesten in korte tijd complexe beslissingen nemen op basis van uitgebreide beleidsdocumenten, wat volgens hem leidde tot inconsistente en vaak onnauwkeurige beoordelingen.
Beleid omzetten in directe handhaving
Met Moonbounce wil Levenson dat proces fundamenteel verbeteren. De startup gebruikt een eigen AI-model om beleidsregels van bedrijven om te zetten in direct toepasbare controles. Daardoor kan content tijdens gebruik worden beoordeeld en kan het systeem meteen actie ondernemen, bijvoorbeeld door verspreiding te vertragen, content te blokkeren of een menselijke beoordeling in te schakelen.
Volgens TechCrunch richt Moonbounce zich momenteel op drie hoofdgroepen: platforms met door gebruikers gemaakte content, AI-bedrijven die werken met digitale personages of companions, en aanbieders van AI-tools voor beeldgeneratie.
Veiligheid als productvoordeel
De startup positioneert veiligheid niet alleen als bescherming, maar ook als een onderscheidend productkenmerk. In plaats van achteraf problemen op te lossen, wil Moonbounce veiligheid direct onderdeel maken van het ontwerp van AI-producten. Dat wordt steeds belangrijker nu AI-systemen onder druk staan vanwege risico’s rond zelfbeschadiging, deepfakes, misinformatie en andere vormen van schadelijke output.
Volgende stap: gesprekken actief bijsturen
Moonbounce werkt daarnaast aan een nieuwe functie waarmee AI-gesprekken actief kunnen worden bijgestuurd. In plaats van alleen een antwoord te blokkeren, zou het systeem gesprekken in gevoelige situaties kunnen omleiden naar behulpzamere en veiligere reacties. Daarmee wil het bedrijf inspelen op de groeiende behoefte aan realtime veiligheidslagen rond chatbots en andere AI-toepassingen.

