Meta introduceert AI-aangedreven audiotranslaties voor video

Meta introduceert AI-aangedreven audiotranslaties voor video
Meta breidt de toegankelijkheid van content uit met een nieuwe functie die audiotranslaties mogelijk maakt via kunstmatige intelligentie. Daarbij wordt niet alleen de stem vertaald, maar ook de toon behouden en de lipbewegingen aangepast, zodat het lijkt alsof de spreker de andere taal echt spreekt.
De eerste stap is automatische vertaling van Engels naar Spaans en omgekeerd. Makers kunnen in de Reels-editor kiezen of ze audiotranslaties willen inschakelen, en daarbij bepalen of ze lip-sync toevoegen of alleen de stem laten vertalen. Voor publicatie kunnen ze de vertaling eerst controleren en eventueel afkeuren, zonder dat dit invloed heeft op de originele video.
Vertaalde video’s worden automatisch getoond aan kijkers in hun voorkeurstaal, voorzien van een label dat aangeeft dat AI is gebruikt. Gebruikers kunnen per taal instellen of ze vertalingen willen zien.
De functie is beschikbaar voor creators met minimaal 1.000 volgers op Facebook en voor publieke accounts op Instagram. Meta adviseert makers om recht in de camera te kijken, duidelijk te spreken en storend achtergrondgeluid te vermijden. De tool werkt het best met maximaal twee sprekers per video.
Daarnaast krijgen makers nieuwe statistieken te zien in hun dashboard, zodat ze inzicht hebben in het aantal weergaven per taal. Ook is er de mogelijkheid om eigen gedubde audiotracks in meerdere talen te uploaden, wat extra flexibiliteit biedt naast de AI-vertalingen.
In de toekomst zullen meer talen worden toegevoegd, al is nog niet bekend welke dat precies zijn.



